Một số AI không nên tồn tại

Кӯшиш Кунед, Ки Асбоби Моро Барои Бартараф Кардани Мушкилот Санҷед

Những nỗ lực để sửa chữa AI thành kiến ​​thực sự có thể gây hại cho người da đen, người đồng tính nam và người chuyển giới.

Một cuộc trình diễn trực tiếp sử dụng nhận dạng khuôn mặt trong một đám đông dày đặc tại triển lãm Horizon Robotics vào năm 2019.

Một cuộc trình diễn trực tiếp sử dụng nhận dạng khuôn mặt trong một đám đông dày đặc tại triển lãm Horizon Robotics vào năm 2019.

David McNew / AFP / Getty Images

Câu chuyện này là một phần của một nhóm các câu chuyện có tên là Tương lai hoàn hảo

Tìm những cách tốt nhất để làm điều tốt.

Thành kiến ​​của con người có thể ngấm vào các hệ thống AI. Amazon từ bỏ thuật toán tuyển dụng sau khi nó được chứng minh là ưu tiên hồ sơ của nam giới hơn là của nữ giới; các nhà nghiên cứu kết luận một thuật toán được sử dụng trong tuyên án tại phòng xử án khoan dung với người da trắng hơn là người da đen; một nghiên cứu cho thấy rằng thuật toán thế chấp phân biệt đối xử với người Mỹ gốc Latinh và người Mỹ gốc Phi vay.

Ngành công nghiệp công nghệ biết điều này và một số công ty, như IBM , đang phát hành bộ công cụ debiasing để giải quyết vấn đề. Những cách này cung cấp các cách để quét tìm sự thiên vị trong các hệ thống AI - chẳng hạn như bằng cách kiểm tra dữ liệu mà chúng được đào tạo - và điều chỉnh chúng để chúng công bằng hơn.

Nhưng xu hướng kỹ thuật đó là không đủ, và có thể dẫn đến tác hại thậm chí nhiều hơn, theo một báo cáo mới từ Viện AI Now .

Ba tác giả nói rằng chúng ta cần chú ý đến cách các hệ thống AI được sử dụng trong thế giới thực ngay cả khi chúng đã bị sai lệch về mặt kỹ thuật. Và chúng ta cần chấp nhận rằng một số hệ thống AI hoàn toàn không nên được thiết kế.

Các hệ thống nhận dạng khuôn mặt có thể chưa được sửa chữa

Công nghệ nhận dạng khuôn mặt khá tốt trong việc xác định người da trắng, nhưng nó nổi tiếng là tệ trong việc nhận dạng khuôn mặt người da đen. Điều đó có thể tạo ra những hậu quả rất khó chịu - như khi Hệ thống nhận dạng hình ảnh của Google gắn nhãn người Mỹ gốc Phi là khỉ đột vào năm 2015. Nhưng do công nghệ này hiện được sử dụng trong giám sát của cảnh sát, vốn nhắm mục tiêu không tương xứng đến người da màu, nên có lẽ chúng tôi không muốn nó trở nên thành công trong việc xác định người da đen. Như Zoé Samudzi gần đây đã viết trên tờ Daily Beast :

Ở một đất nước mà việc phòng chống tội phạm đã gắn sự đen đủi với tội phạm cố hữu, tại sao chúng ta lại đấu tranh để làm cho khuôn mặt của mình trở nên dễ đọc hơn trước một hệ thống được thiết kế để cảnh sát chúng ta? … Không phải là tiến bộ xã hội khi làm cho người da đen có thể nhìn thấy một cách bình đẳng với phần mềm mà chắc chắn sẽ được vũ khí hóa hơn nữa để chống lại chúng ta.

Nói cách khác, đảm bảo rằng hệ thống AI hoạt động tốt trên tất cả mọi người không có nghĩa là nó hoạt động tốt tất cả mọi người. Mặc dù báo cáo không nói rõ chúng ta nên loại bỏ các hệ thống nhận dạng khuôn mặt được sử dụng để giám sát của cảnh sát, nhưng nó nhấn mạnh rằng chúng ta không thể cho rằng việc đa dạng hóa bộ dữ liệu của họ sẽ giải quyết được vấn đề - nó có thể chỉ làm trầm trọng thêm vấn đề.

Công nghệ nhận dạng khuôn mặt cũng gây ra nhiều rắc rối cho những người chuyển giới. Ví dụ, một số tài xế chuyển tuyến Uber tài khoản của họ đã bị tạm ngưng do công ty sử dụng hệ thống nhận dạng khuôn mặt làm tính năng bảo mật tích hợp và hệ thống này không nhận dạng được khuôn mặt của những người đang chuyển đổi. Việc khởi chạy ứng dụng sẽ khiến các tài xế xe buýt phải trả giá vé và chi phí một cách hiệu quả cho họ một công việc.

Có phải giải pháp ở đây để sửa sai lệch trong hệ thống AI bằng cách đảm bảo rằng nhiều người chuyển giới được đưa vào dữ liệu đào tạo của nó? Một lần nữa, debinding nghe có vẻ hay - cho đến khi bạn nhận ra rằng điều đó sẽ đòi hỏi phải thu thập rất nhiều dữ liệu trên một cộng đồng có lý do để cảm thấy cực kỳ khó chịu với việc thu thập dữ liệu.

Một vài năm trước, một giáo sư khoa học máy tính muốn đào tạo phần mềm để nhận ra những người đang điều trị bằng liệu pháp thay thế hormone các video được thu thập từ những người dùng YouTube chuyển giới mà không có sự đồng ý của họ . Anh ấy đã nhận được rất nhiều phản hồi, như The Verge đã báo cáo:

Danielle, người được giới thiệu trong bộ dữ liệu và có hình ảnh chuyển đổi xuất hiện trong các bài báo khoa học vì nó, nói rằng cô ấy chưa bao giờ được liên lạc về việc đưa vào. Tôi hoàn toàn không 'giấu giếm' danh tính của mình ... Nhưng điều này giống như vi phạm quyền riêng tư ... Ai đó làm việc trong ngành 'khoa học nhận dạng' nên hiểu ý nghĩa của việc xác định danh tính, đặc biệt là những người mà danh tính của họ có thể khiến họ trở thành mục tiêu (tức là những người chuyển giới trong quân đội có thể không được ra ngoài).

Báo cáo mới lập luận, thay vì tham gia vào việc thu thập dữ liệu hàng loạt xâm lấn, phi thường dưới danh nghĩa sửa chữa hệ thống AI, các công ty như Uber có thể làm tốt hơn khi chỉ cho phép một phương tiện xác minh tài khoản khác cho các tài xế chuyển tuyến. Ngay cả khi một công ty khăng khăng sử dụng hệ thống đăng nhập ID khuôn mặt cho nhân viên của mình, thì không có lý do gì đó phải là lựa chọn duy nhất.

Hệ thống gaydar thuật toán không nên được xây dựng. Khoảng thời gian.

Cũng có nhiều nỗ lực lặp đi lặp lại để tạo ra các thuật toán nhận dạng khuôn mặt có thể biết được ai đó có phải là người đồng tính hay không. Trong năm 2017, một nghiên cứu của Đại học Stanford tuyên bố rằng một thuật toán có thể phân biệt chính xác giữa đàn ông đồng tính và đàn ông bình thường 81% dựa trên ảnh chụp đầu. Nó tuyên bố độ chính xác 74 phần trăm đối với phụ nữ. Nghiên cứu đã sử dụng ảnh hẹn hò trực tuyến của mọi người (tác giả không nói rõ từ trang web nào) và chỉ thử nghiệm thuật toán trên người dùng da trắng, tuyên bố rằng không thể tìm thấy đủ người da màu.

Đây là vấn đề ở rất nhiều cấp độ: Nó giả định rằng tình dục là nhị phân và nó rõ ràng dễ đọc trên các đặc điểm trên khuôn mặt của chúng ta. Và ngay cả khi có thể phát hiện tình dục đồng tính theo cách này, ai sẽ được lợi khi một gaydar thuật toán trở nên phổ biến rộng rãi? Chắc chắn không phải là những người kỳ quặc, những người có thể bị coi là trái với ý muốn của họ, bao gồm cả chính phủ ở các quốc gia nơi quan hệ tình dục với bạn tình đồng giới bị hình sự hóa. Như Ashland Johnson, giám đốc giáo dục và nghiên cứu công của Chiến dịch Nhân quyền, đặt nó :

Hãy tưởng tượng trong giây lát về hậu quả tiềm ẩn nếu nghiên cứu thiếu sót này được sử dụng để hỗ trợ những nỗ lực của một chế độ tàn bạo nhằm xác định và / hoặc bắt bớ những người mà họ cho là đồng tính. Stanford nên tách mình khỏi những thứ khoa học tạp nham như vậy hơn là cho mượn tên tuổi và uy tín của mình để nghiên cứu có sai sót nguy hiểm và khiến thế giới rời bỏ - và trường hợp này là cuộc sống của hàng triệu người - tệ hơn và kém an toàn hơn trước.

Một trong những tác giả của báo cáo AI Now, Sarah Myers West, đã nói trong một cuộc gọi báo chí rằng không nên xây dựng các hệ thống gaydar thuật toán như vậy, cả vì chúng dựa trên khoa học giả và vì chúng khiến những người LGBTQ gặp rủi ro. Các nhà nghiên cứu nói, 'Chúng tôi chỉ làm điều này vì chúng tôi muốn cho thấy những hệ thống này có thể đáng sợ như thế nào', nhưng sau đó họ giải thích chi tiết rõ ràng về cách bạn sẽ tạo ra một hệ thống như vậy, cô ấy nói.

Đồng tác giả Kate Crawford đã liệt kê các ví dụ có vấn đề khác, chẳng hạn như nỗ lực dự đoán tội phạm thông qua các đặc điểm trên khuôn mặt và để đánh giá năng lực công nhân trên cơ sở các biểu hiện vi mô. Cô cho biết, việc nghiên cứu ngoại hình như một đại diện cho tính cách gợi nhớ đến lịch sử đen tối của khoa học chủng tộc, đặc biệt là lĩnh vực khoa học chưa được tiết lộ đã tìm cách lấy ra các đặc điểm tính cách từ hình dạng hộp sọ và đã được viện dẫn bởi những người theo chủ nghĩa tối cao da trắng ở Mỹ thế kỷ 19 .

Crawford cảnh báo rằng các hệ thống này đang tái tạo các mô hình phân biệt chủng tộc và giới tính theo những cách có thể làm sâu sắc thêm và thực sự biện minh cho sự bất công, Crawford cảnh báo, đồng thời lưu ý rằng các dịch vụ nhận dạng khuôn mặt đã được chứng minh là có tác dụng nhiều cảm xúc tiêu cực (như tức giận) đối với người da đen hơn là với người da trắng bởi vì thành kiến ​​của con người len lỏi vào dữ liệu đào tạo.

Vì tất cả những lý do này, ngày càng có nhiều học giả và những người ủng hộ việc công nhận rằng không nên sửa một số hệ thống AI thiên vị mà nên từ bỏ. Như đồng tác giả Meredith Whittaker đã nói, Chúng ta cần nhìn xa hơn các bản sửa lỗi kỹ thuật cho các vấn đề xã hội. Chúng ta cần hỏi: Ai có quyền lực? Ai là người bị hại? Ai được lợi? Và cuối cùng, ai là người quyết định cách những công cụ này được xây dựng và chúng phục vụ cho những mục đích nào?


Đăng ký nhận bản tin Future Perfect. Hai lần một tuần, bạn sẽ nhận được một loạt các ý tưởng và giải pháp để giải quyết những thách thức lớn nhất của chúng tôi: cải thiện sức khỏe cộng đồng, giảm đau đớn cho con người và động vật, giảm thiểu rủi ro thảm họa và - nói một cách đơn giản - làm việc thiện tốt hơn.