
Một ngày tại công việc năm ngoái, Lade Obamehinti gặp phải một thuật toán có vấn đề với người da đen.
Quản lý chương trình của Facebook đang giúp kiểm thử một bản nguyên mẫu của thiết bị trò chuyện video Portal của công ty, sử dụng thị giác máy tính để nhận diện và phóng to vào người đang nói. Nhưng khi Obamehinti, người da đen, hứng khởi mô tả bữa sáng của mình với bánh mì nước, thiết bị không quan tâm và tập trung vào một đồng nghiệp—một người đàn ông da trắng thay vì.
Obamehinti chia sẻ trải nghiệm đó vào thứ Tư tại hội nghị phát triển hàng năm của Facebook. Ngày trước đó, CEO Mark Zuckerberg tuyên bố rằng nhiều sản phẩm của công ty sẽ trở nên riêng tư hơn.
Ngày thứ hai của hội nghị, có sự tham gia của Giám đốc công nghệ của Facebook, Mike Schroepfer, đã trở nên trầm lắng hơn. Ông, Obamehinti và các nhà lãnh đạo kỹ thuật khác đã suy ngẫm về những thách thức của việc sử dụng công nghệ—đặc biệt là trí tuệ nhân tạo—để bảo vệ hoặc nâng cao các sản phẩm của công ty mà không tạo ra những độ chệch và vấn đề mới. “Không có câu trả lời đơn giản,” Schroepfer nói.
Schroepfer và Zuckerberg đã nói rằng, ở quy mô của Facebook, trí tuệ nhân tạo là quan trọng để khắc phục những hậu quả không mong muốn của việc số hóa mối quan hệ con người của công ty. Nhưng giống như bất kỳ công nghệ nào gây rối, trí tuệ nhân tạo tạo ra những hậu quả không thể dự đoán được của riêng mình, theo lời của Giám đốc trí tuệ nhân tạo của Facebook, Joaquin Candela, nói vào cuối thứ Tư. “Đó là điều không thể dự đoán,” ông nói.
Chuyện về phân biệt đối xử theo thuật toán của Obamehinti cho thấy Facebook đã phải phát minh ra các công cụ và quy trình mới để đối phó với những vấn đề do trí tuệ nhân tạo tạo ra. Cô nói rằng việc bị bỏ qua bởi bản nguyên mẫu Portal đã thúc đẩy cô phát triển một “quy trình cho trí tuệ nhân tạo bao quát” mới đã được nhiều nhóm phát triển sản phẩm tại Facebook áp dụng.
Quá trình này liên quan đến việc đo lường độ chệch về chủng tộc và giới tính trong dữ liệu được sử dụng để tạo ra hệ thống tầm nhìn của Portal, cũng như hiệu suất của hệ thống. Cô phát hiện ra rằng phụ nữ và những người có làn da đậm ít xuất hiện trong dữ liệu đào tạo, và sản phẩm trước khi phát hành có độ chính xác kém hơn khi nhìn nhận nhóm này.

Nhiều nhà nghiên cứu trí tuệ nhân tạo gần đây đã đề xuất cảnh báo về nguy cơ của các hệ thống trí tuệ nhân tạo có độ chệch khi chúng được giao các vai trò quan trọng và cá nhân hơn. Năm 2015, dịch vụ tổ chức ảnh của Google đánh dấu ảnh của một số người da đen là “gorilla”; công ty đã phản ứng bằng cách làm mờ sản phẩm với gorilla, khỉ và tinh tinh.
Obamehinti nói rằng cô đã tìm ra một giải pháp ít tác động hơn cho hệ thống đã phớt lờ cô, và đã giảm nhẹ những điểm mù của Portal trước khi nó được xuất hàng. Cô trình bày một biểu đồ chỉ ra rằng Portal đã được sửa đổi nhận biết nam và nữ của ba tông da khác nhau hơn 90% thời gian—mục tiêu độ chính xác của Facebook—tuy nhiên, vẫn hoạt động kém hơn đối với phụ nữ và những tông da đen nhất.
Một quy trình tương tự hiện đang được sử dụng để kiểm tra xem các bộ lọc ảnh thực tế ảo của Facebook hoạt động một cách tốt nhất trên tất cả mọi người. Mặc dù thuật toán đã trở nên mạnh mẽ hơn, chúng cần sự hướng dẫn cẩn thận. “Khi trí tuệ nhân tạo gặp người,” Obamehinti nói, “có rủi ro tự nhiên về tách biệt.”

Candela, Giám đốc trí tuệ nhân tạo của Facebook, nói vào thứ Tư về cách Facebook sử dụng trí tuệ nhân tạo để chống lại thông tin sai lệch, đồng thời cũng đòi hỏi các kỹ sư phải cẩn trọng để công nghệ không tạo ra sự bất bình đẳng.
Công ty đã triển khai một hệ thống lọc nội dung để xác định các bài đăng có thể đang lan truyền thông tin sai lệch chính trị trong suốt cuộc bầu cử quốc gia kéo dài một tháng của Ấn Độ. Hệ thống này đưa ra nhấn mạnh cho việc đánh giá của con người và hoạt động trong nhiều ngôn ngữ khác nhau của đất nước. Candela nói rằng các kỹ sư đã so sánh cẩn thận độ chính xác của hệ thống giữa các ngôn ngữ để đảm bảo rằng các hướng dẫn của Facebook được thi hành một cách công bằng.
Những lo ngại tương tự đã xuất hiện trong một dự án thử nghiệm xem Facebook có thể nhận biết tin giả nhanh hơn bằng cách sử dụng sự đồng cộng tác của người dùng để xác định bằng chứng hỗ trợ hoặc bác bỏ. Candela nói rằng một nhóm làm việc về độ chệch trong trí tuệ nhân tạo và các vấn đề liên quan đã giúp xác định cách đảm bảo rằng nhóm tình nguyện viên đánh giá bài đăng cụ thể nào đó là đa dạng về quan điểm, không tất cả đến từ một khu vực hoặc cộng đồng.
Chuyên gia trí tuệ nhân tạo của Facebook hy vọng một số thách thức trong việc làm cho công nghệ của họ hoạt động một cách công bằng sẽ giảm đi khi công nghệ trở nên mạnh mẽ hơn. Schroepfer, Giám đốc công nghệ của công ty, đã nhấn mạnh nghiên cứu đã cho phép hệ thống xử lý hình ảnh hoặc văn bản của Facebook đạt được độ chính xác cao với lượng dữ liệu đào tạo ít. Tuy nhiên, ông không chia sẻ bất kỳ con số nào cho thấy Facebook đã cải thiện việc đánh dấu nội dung vi phạm quy tắc của mình, thay vào đó lặp lại các con số được công bố vào tháng 11 năm trước.
Candela thừa nhận rằng sự tiến bộ của trí tuệ nhân tạo và các công cụ được phát triển để phơi bày và đo lường nhược điểm của các hệ thống trí tuệ nhân tạo không đủ để khắc phục vấn đề của Facebook một cách đơn lẻ. Điều đó đòi hỏi các kỹ sư và nhà lãnh đạo của Facebook phải làm đúng điều. “Mặc dù các công cụ là cần thiết nhưng chúng không đủ vì sự công bằng là một quy trình,” ông nói.
Những Điều Tuyệt Vời Hơn từ Mytour
- “Nếu bạn muốn giết ai đó, chúng tôi là những người đúng đắn”
- Những vận động viên leo tường tốt nhất leo lên tường bằng cú nhảy này
- Mọi thứ bạn cần biết về phần mềm mã nguồn mở
- Kitty Hawk, ô tô bay và những thách thức của “đi 3D”
- Tristan Harris thề chiến đấu với “đánh giá con người xuống cấp”
- 🏃🏽♀️ Muốn có những công cụ tốt nhất để duy trì sức khỏe? Hãy kiểm tra những lựa chọn của đội Gear chúng tôi cho các bộ theo dõi sức khỏe tốt nhất, đồ chạy bộ (bao gồm giày và tất chạy bộ), và tai nghe tốt nhất.
- 📩 Đừng bỏ lỡ nhiều hơn nữa với bản tin Backchannel hàng tuần của chúng tôi
