Muốn phát triển trí tuệ nhân tạo đạo đức? Vậy thì chúng ta cần nhiều giọng điệu châu Phi hơn
Trí tuệ nhân tạo (AI) trước đây chỉ là đề tài của khoa học viễn tưởng. Nhưng nó đang trở nên phổ biến. Nó được sử dụng trong công nghệ điện thoại di động và xe ô tô. Nó đưa sức mạnh cho các công cụ trong nông nghiệp và chăm sóc sức khỏe.
Tuy nhiên, lo ngại về sự chịu trách nhiệm của AI và các công nghệ liên quan như học máy đã nảy sinh. Tháng 12 năm 2020, một nhà khoa học máy, Timnit Gebru, bị sa thải khỏi đội Ethical AI của Google. Cô trước đây đã cảnh báo về tác động xã hội của độ chệch trong các công nghệ AI. Ví dụ, trong một bài báo năm 2018, Gebru và một nghiên cứu viên khác, Joy Buolamwini, đã chỉ ra làm thế nào phần mềm nhận diện khuôn mặt không chính xác khi nhận biết phụ nữ và người màu da so với nam giới da trắng. Độ chệch trong dữ liệu đào tạo có thể có tác động sâu rộng và không mong muốn.
Hiện đã có một lượng lớn nghiên cứu về đạo đức trong AI. Điều này nhấn mạnh tầm quan trọng của nguyên tắc để đảm bảo các công nghệ không chỉ làm tồi tệ hơn độ chệch mà thậm chí còn giới thiệu các tác hại xã hội mới. Như đề xuất nháp của UNESCO về đạo đức của AI nói:
Chúng ta cần có chính sách quốc tế và quy định để đảm bảo rằng những công nghệ mới nổi này mang lại lợi ích cho nhân loại như một toàn thể.
Trong những năm gần đây, nhiều khuôn khổ và hướng dẫn đã được tạo ra để xác định mục tiêu và ưu tiên cho trí tuệ nhân tạo đạo đức.
Điều này chắc chắn là một bước tiến trong hướng đúng. Nhưng cũng quan trọng để nhìn xa hơn những giải pháp kỹ thuật khi giải quyết vấn đề độ chệch hoặc tính bao dung. Độ chệch có thể xuất hiện ở cấp độ ai đặt ra mục tiêu và cân bằng ưu tiên.
TNW Conference 2024 - Gọi tất cả các Startup tham gia vào ngày 20-21 tháng 6
Trình bày Startup của bạn trước mặt các nhà đầu tư, những người thay đổi và khách hàng tiềm năng với các gói Startup được chọn lọc của chúng tôi.
Trong một bài báo gần đây, chúng tôi đề xuất rằng tính bao dung và đa dạng cũng cần được xem xét ở cấp độ xác định giá trị và định nghĩa khung của điều gì được coi là trí tuệ nhân tạo đạo đức ban đầu. Điều này đặc biệt quan trọng khi xem xét sự phát triển của nghiên cứu AI và học máy trên lục địa châu Phi.
Bối cảnh
Nghiên cứu và phát triển các công nghệ trí tuệ nhân tạo và học máy đang phát triển ở các nước châu Phi. Các chương trình như Data Science Africa, Data Science Nigeria, và Deep Learning Indaba cùng với các sự kiện IndabaX tại các quốc gia châu Phi khác nhau, đã minh họa sự quan tâm và đầu tư nhân sự trong lĩnh vực này.
Tiềm năng của trí tuệ nhân tạo và các công nghệ liên quan để thúc đẩy cơ hội cho sự phát triển và dân chủ hóa ở châu Phi là một động lực chính của nghiên cứu này.
Tuy nhiên, rất ít giọng điệu châu Phi đã tham gia vào các khuôn khổ đạo đức quốc tế mà mục tiêu là hướng dẫn nghiên cứu. Điều này có thể không phải là một vấn đề nếu những nguyên tắc và giá trị trong những khuôn khổ đó có ứng dụng phổ quát. Nhưng không rõ rằng chúng có.
Ví dụ, khuôn khổ châu Âu AI4People đưa ra một tổng hợp của sáu khuôn khổ đạo đức khác. Nó xác định sự tôn trọng đối với tự chủ là một trong những nguyên tắc chính của nó. Nguyên tắc này đã bị phê phán trong lĩnh vực đạo đức áp dụng của đạo đức sinh học. Nó được coi là không công bằng với các giá trị cộng đồng phổ biến trên toàn châu Phi. Những giá trị này tập trung ít hơn vào cá nhân và hơn nữa vào cộng đồng, thậm chí đòi hỏi phải có các ngoại lệ để duy trì nguyên tắc này để cho phép các biện pháp hiệu quả.
Những thách thức như thế này - hoặc thậm chí việc nhận thức rằng có thể có những thách thức như vậy - đa phần vắng mặt trong các cuộc thảo luận và khuôn khổ về trí tuệ nhân tạo đạo đức.
Giống như dữ liệu đào tạo có thể củng cố những bất bình đẳng và bất công tồn tại, việc không nhận ra khả năng của các bộ giá trị đa dạng có thể thay đổi theo ngữ cảnh xã hội, văn hóa và chính trị cũng có thể.
Kết quả không sử dụng được
Ngoài ra, việc không xem xét ngữ cảnh xã hội, văn hóa và chính trị có thể dẫn đến việc ngay cả một giải pháp kỹ thuật đạo đức hoàn hảo cũng có thể không hiệu quả hoặc đi lạc đường khi triển khai.
Để học máy có hiệu suất trong việc đưa ra dự đoán hữu ích, mọi hệ thống học cần truy cập vào dữ liệu đào tạo. Điều này liên quan đến các mẫu dữ liệu quan trọng: đầu vào dưới dạng nhiều đặc trưng hoặc đo lường và đầu ra là các nhãn mà các nhà khoa học muốn dự đoán. Trong hầu hết các trường hợp, cả hai đặc trưng và nhãn này đều đòi hỏi kiến thức con người về vấn đề. Nhưng việc không tính đến đúng ngữ cảnh địa phương có thể dẫn đến các hệ thống hoạt động kém hiệu quả.
Ví dụ, hồ sơ cuộc gọi điện thoại di động đã được sử dụng để ước lượng kích thước dân số trước và sau thảm họa. Tuy nhiên, các nhóm dân số dễ tổn thương hơn ít có khả năng truy cập vào thiết bị di động. Do đó, loại tiếp cận này có thể mang lại kết quả không hữu ích.
Tương tự, các công nghệ thị giác máy tính để nhận diện các loại cấu trúc khác nhau trong một khu vực có thể hoạt động kém hiệu quả khi sử dụng vật liệu xây dựng khác nhau. Trong cả hai trường hợp này, như chúng tôi và các đồng nghiệp khác thảo luận trong một bài báo gần đây khác, việc không tính đến sự khác biệt khu vực có thể ảnh hưởng sâu sắc đến mọi thứ từ việc cung cấp viện trợ thảm họa đến hiệu suất của các hệ thống tự động.
Hướng đi phía trước
Công nghệ trí tuệ nhân tạo không nên chỉ làm tồi tệ hơn hoặc tích hợp các khía cạnh khó khăn của xã hội con người hiện tại.

Bài viết này của Mary Carman, Giảng viên Triết học, Đại học Witwatersrand và Benjamin Rosman, Giáo sư Khoa học Máy tính và Toán ứng dụng, Đại học Witwatersrand, được tái bản từ The Conversation dưới giấy phép Creative Commons. Đọc bài viết gốc.
