Thuật toán nhận diện khuôn mặt cũng phân biệt chủng tộc

Thuật toán nhận diện khuôn mặt cũng phân biệt chủng tộc

Tại Mỹ, các kỹ sư phát triển thuật toán nhận diện khuôn mặt chủ yếu là người da trắng. Do đó, cơ sở dữ liệu chỉ tập trung vào khuôn mặt của người da trắng. Điều này dẫn đến tình trạng nhận diện sai lệch đối với người da đen, khiến họ có nguy cơ bị nhận dạng nhầm.

Công nghệ nhận dạng Vấn đề phân biệt chủng tộc và những hệ lụy

Kết quả nhận dạng khuôn mặt phụ thuộc vào dữ liệu đào tạo thuật toán - Ảnh: letemps.ch

Vào ngày 3-8, chị Porcha Woodruff (32 tuổi, cư trú tại TP Detroit, bang Michigan) đã nộp đơn kiện chính quyền thành phố Detroit và một nữ điều tra viên vì bắt giữ và giam giữ chị trái phép, vi phạm quyền tự do cá nhân. Sự việc bắt đầu cách đây gần nửa năm, khi một vụ cướp xe xảy ra tại một trạm xăng. Ngày 16-2, sáu cảnh sát đã đến nhà của chị Woodruff với lệnh bắt giữ về tội cướp xe. Tuy nhiên, chị Woodruff ngạc nhiên: "Cướp xe mà có súng à? Các ông đùa à? Các ông không thấy tôi đang mang bầu tám tháng sao?".

Cảnh sát đã thực hiện khám xét và đưa chị vào còng trước mặt gia đình và hàng xóm, sau đó đưa chị đi thẩm vấn. Điện thoại iPhone của chị cũng bị thu giữ để tìm chứng cứ. Chị Woodruff bị giam giữ tại trụ sở cảnh sát hơn 11 tiếng trước khi được thả tự do. Chị sau đó phải nhập viện với các tình trạng như "nhịp tim chậm do mất nước" và "co thắt do căng thẳng". Tuy nhiên, sau 15 ngày, tòa án đã hủy bỏ các cáo buộc với chị do thiếu bằng chứng.

Chị Woodruff bị bắt nhầm do sở cảnh sát Detroit đã sử dụng hệ thống nhận diện khuôn mặt DataWorks Plus để so sánh với hình ảnh của kẻ nghi ngờ trong cuộc cướp xe được ghi lại bởi camera tại trạm xăng. Kết quả tìm kiếm đã khớp với tên Porcha Woodruff từ dữ liệu cá nhân mà cảnh sát đã thu giữ năm 2015 khi chị Woodruff bị bắt vì lái xe khi bằng lái hết hạn. Thực tế là hệ thống nhận diện khuôn mặt đã gây nhầm lẫn.

Giám đốc Sở Cảnh sát Detroit thừa nhận vấn đề này rất nghiêm trọng. Ba năm trước, ông đã giải thích rằng nếu chỉ sử dụng hệ thống này mà không áp dụng các phương pháp kiểm tra khác, tỷ lệ sai sót có thể lên đến 96%. Tuy vậy, năm trước, cảnh sát Detroit đã sử dụng hệ thống này tới 125 lần.

Chị Woodruff là người thứ sáu tuyên bố bị cảnh sát Detroit bắt nhầm do lỗi hệ thống này. Tất cả đều là người da đen. Trước đó, đã có hai nạn nhân khác kiện cảnh sát Detroit.

Sau khi gặp sai lầm vào năm 2019, Sở Cảnh sát Detroit đã phải sửa đổi hướng dẫn sử dụng hệ thống nhận dạng khuôn mặt, hạn chế phạm vi sử dụng chỉ trong các vụ điều tra về tội phạm bạo lực hoặc xâm phạm gia cư.

Quan trọng là dữ liệu và huấn luyện

Trong đơn kiện, luật sư của chị Woodruff giải thích rằng công nghệ nhận diện khuôn mặt thường có sai sót, tuy nhiên, cảnh sát Detroit không áp dụng các quy định thích hợp về việc sử dụng công nghệ này và không đào tạo nhân viên đầy đủ về cách sử dụng, cho thấy sự bất cần với hậu quả mà những người bị nhận dạng sai lệch phải chịu.

Trong nhiều năm qua, công nghệ nhận dạng khuôn mặt ở Hoa Kỳ đã lộ ra nhiều điểm yếu. Để nhận diện khuôn mặt, cần sự hỗ trợ của trí tuệ nhân tạo (AI), nhưng công nghệ AI vẫn còn nhiều sai sót, không đảm bảo tính chính xác 100%.

AI hoạt động thông qua quá trình học máy, trong đó giai đoạn đầu tiên là huấn luyện máy tính, tức là dạy máy tính cách xử lý dữ liệu đầu vào để tạo ra dữ liệu đầu ra phù hợp. Tuy nhiên, sai sót trong thuật toán có thể phát sinh do dữ liệu không chuẩn.

Báo Washington Post đã nêu ví dụ vào cuối năm 2019, Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) ở Mỹ đã nghiên cứu hàng chục thuật toán và kết luận khả năng nhận diện khuôn mặt người da đen hoặc người Châu Á thấp hơn gấp 100 lần so với người da trắng.

Hai thuật toán cũng không xác định đúng giới tính của phụ nữ da đen trong 35% trường hợp. Mức độ sai lệch này thể hiện rõ hơn ở các thuật toán phát triển ở Mỹ so với các thuật toán phát triển ở châu Á.

Hơn nữa, còn nhiều nguyên nhân khác gây ra sai lầm, như hình ảnh không đủ chất lượng (độ phân giải thấp, ánh sáng không đủ) hoặc khuôn mặt thay đổi (lão hóa, trang điểm, đeo kính). Điều này dẫn đến khả năng gian lận hệ thống nhận dạng khuôn mặt hoặc sự nhầm lẫn của hệ thống trong việc phân biệt người này với người khác.

Tạm Dừng Cung Cấp Công Nghệ Nhận Dạng Khuôn Mặt Cho Cảnh Sát

Ở Mỹ, các tập đoàn lớn như Amazon, Microsoft, IBM và Google đã tạm dừng cung cấp phần mềm nhận dạng khuôn mặt cho cơ quan thực thi pháp luật.

Theo Trung tâm Nghiên Cứu Pew, không có số liệu tổng quan về số lượng cơ quan thực thi pháp luật sử dụng công nghệ nhận dạng khuôn mặt, nhưng một nhà cung cấp cho biết có tới 3.100 cơ quan thực thi pháp luật ở Mỹ đã là khách hàng của công nghệ này.