
Tháng Tư vừa qua, người đồng sáng lập Google Sergey Brin đã viết thư tới cổ đông với một cảnh báo về những khía cạnh tiêu cực có thể xuất hiện của trí tuệ nhân tạo. Tháng Sáu, CEO của Google, Sundar Pichai, công bố một bộ nguyên tắc hướng dẫn cho các dự án trí tuệ nhân tạo của công ty sau khi bị các nhân viên biểu tình, buộc ông phải từ bỏ hợp đồng với Bộ Quốc phòng để tạo ra các thuật toán giải thích hình ảnh từ máy bay không người lái. Bây giờ, Google đã phát hành một bản sách trắng yêu cầu các chính phủ đề xuất một số quy tắc cho trí tuệ nhân tạo—nhưng làm ơn, đừng quá nhiều!
Như bạn có thể mong đợi, tài liệu 30 trang mà Google phát hành tuần trước ca ngợi sức mạnh của trí tuệ nhân tạo. “Trí tuệ nhân tạo có thể mang lại nhiều lợi ích tuyệt vời cho nền kinh tế và xã hội, và hỗ trợ ra quyết định công bằng, an toàn và thông tin hơn,” nói trong tài liệu. Bản sách tiếp tục lý luận rằng nhược điểm của sức mạnh tuyệt vời đó có thể tránh được mà không cần thêm quy định “trong đa số lớn các trường hợp.”
Các nhà lập pháp và chính phủ đang thể hiện sự quan tâm ngày càng tăng về việc áp đặt giới hạn về việc sử dụng trí tuệ nhân tạo. Một chính trị gia San Francisco gần đây đã đề xuất một lệnh cấm việc sử dụng nhận diện khuôn mặt bởi các cơ quan thành phố, và Tổng thống Pháp Emmanuel Macron đã nói về việc tạo ra các quy định mới xoay quanh công nghệ này.
Charina Choi, người đứng đầu chính sách toàn cầu về công nghệ mới của Google, cho biết một động cơ của bản báo cáo là cung cấp lời khuyên cho chính phủ về những nơi mà sự đóng góp của họ sẽ hữu ích nhất. “Chúng tôi đã nghe rất nhiều chính phủ nói, 'Chúng ta có thể làm gì, theo góc độ thực tế không?'" nói Choi, một trong những tác giả của báo cáo. Trong lúc này, theo cô, câu trả lời không phải là ngay lập tức soạn thảo các quy tắc mới về nơi và cách sử dụng thuật toán trí tuệ nhân tạo.
"Lúc này, không nhất thiết là rõ ràng điều gì nên được quy định và điều gì không nên," Choi nói. "Mục tiêu của bản báo cáo này là thực sự nghĩ về: Các nhà chính trị cần phải trả lời những loại câu hỏi gì và [quyết định] chúng ta, như một xã hội, cần phải đưa ra?" Để đưa ra những quyết định đó, bản báo cáo nói, sự đóng góp từ các nhóm xã hội dân sự và các nhà nghiên cứu ngoại ngành cũng sẽ cần thiết.
Các lĩnh vực mà Google mời gọi quy tắc hoặc hướng dẫn từ phía chính phủ bao gồm chứng chỉ an toàn cho một số sản phẩm có sử dụng trí tuệ nhân tạo bên trong, như dấu CE được sử dụng để chỉ định tuân thủ các tiêu chuẩn an toàn trên sản phẩm tại châu Âu. Bản sách trắng đưa ra ví dụ về các khóa thông minh sử dụng dữ liệu sinh trắc học, chẳng hạn như hình ảnh khuôn mặt hoặc vết ngón tay.
Một dấu an toàn có thể cho biết rằng trí tuệ nhân tạo của khóa đã được kiểm tra để hoạt động chính xác đối với một mẫu đại diện của con người, theo bản báo cáo. Các nghiên cứu đã phát hiện rằng các thuật toán học máy có thể thu nhận và thậm chí làm tăng cường độ chệch xã hội, và rằng các thuật toán phân tích khuôn mặt hoạt động hiệu quả hơn đối với người da trắng hơn là những người có làn da tối. Cuộc thử nghiệm của ACLU năm ngoái đã phát hiện rằng một dịch vụ nhận diện khuôn mặt mà Amazon đã bán cho các đội cảnh sát phạm phát hiện nhiều lỗi hơn đối với khuôn mặt người da đen.
Bản sách trắng của Google xuất hiện giữa những lời kêu gọi về các biện pháp bảo vệ đạo đức và quy định về việc sử dụng công nghệ từ phía các nhà nghiên cứu, giáo sư, và, gần đây hơn, ngay từ chính các công ty công nghệ. Amazon đã nói rằng họ “rất quan tâm” đến việc hợp tác với các nhà lập pháp về hướng dẫn hoặc luật lệ cho nhận diện khuôn mặt. Microsoft đã đi xa hơn, kêu gọi đến việc lập pháp liên bang về nhận diện khuôn mặt, bao gồm yêu cầu về “thông báo rõ ràng” khi nó được sử dụng.
Bản sách trắng của Google có phạm vi rộng lớn hơn đáng kể so với các đề xuất của Microsoft về nhận diện khuôn mặt, và xem xét nhiều hơn về các ứng dụng và lo ngại của trí tuệ nhân tạo. Nó cũng thận trọng hơn, và không mạnh mẽ ủng hộ cho các quy định mới cụ thể. Công ty tìm kiếm này ủng hộ chính quy hoạch của chính mình, nhấn mạnh cách họ đã chọn không cung cấp dịch vụ nhận diện khuôn mặt đa dụng—như Microsoft và Amazon làm—do lo ngại nó có thể được sử dụng để “thực hiện giám sát cực kỳ nghiêm trọng.” Bản sách cũng nói rằng Google đã giới hạn một số mã nghiên cứu trí tuệ nhân tạo mà nó đã phát hành, để giảm thiểu rủi ro sử dụng sai mục đích.

Công ty tìm kiếm này yêu cầu sự hướng dẫn từ phía chính phủ về lúc nào và cách nào hệ thống trí tuệ nhân tạo nên giải thích quyết định của chúng—ví dụ, khi tuyên bố rằng một người nào đó mắc bệnh ung thư dường như đã quay trở lại. Tài liệu đề xuất rằng chính phủ và các nhóm xã hội dân sự có thể đặt ra “tiêu chuẩn chấp nhận tối thiểu” cho các giải thích thuật toán cho các ngành công nghiệp khác nhau.
Bản sách chính sách của Google cũng trầm ngâm về thách thức của việc cân bằng vai trò của con người và thuật toán trong quyết định; nó đề xuất rằng con người nên luôn luôn được “tham gia một cách có ý nghĩa” trong quyết định liên quan đến pháp luật hình sự hoặc các vấn đề y tế quyết định cuộc sống. Công ty cũng mời gọi chính phủ xem xét liệu một số quy định về trí tuệ nhân tạo có nên hạn chế con người, ví dụ như cấm họ tắt các hệ thống an toàn trí tuệ nhân tạo có thể đáng tin cậy hơn con người.
Những người nghĩ về chính sách trí tuệ nhân tạo bên ngoài Google cho rằng bản sách trắng của công ty là một bước tích cực nhưng vẫn là một bước ban đầu đối mặt với những thách thức mà trí tuệ nhân tạo có thể đặt ra cho xã hội.
Nhiều cuộc thảo luận về đạo đức và chính sách trí tuệ nhân tạo từ các công ty và chính phủ đã quá trình lên và không đủ thực tế, theo lời của Sandra Wachter, một nghiên cứu viên tại Viện Internet Đại học Oxford. “Chúng ta cần rời xa khỏi những ý tưởng trừu tượng cấp cao này, nơi mọi người đều nói rằng trí tuệ nhân tạo nên công bằng,” cô nói.
Bản sách của Google cho thấy công ty đang cố gắng nói cụ thể hơn, nhưng không đi xa, theo lời của Wachter. “Tôi nghĩ đây là một danh sách khởi đầu tốt. Nơi tôi nghĩ vẫn còn một khoảng trống là cách để quản lý những thứ đó.” Trong một số trường hợp, như cách hệ thống trí tuệ nhân tạo giải thích các quyết định quan trọng trong lĩnh vực như y tế, cô ủng hộ quy định chặt chẽ, điều mà Google và các công ty khác dường như không muốn xem xét. “Với những giải thích, tôi không muốn thấy một nguyên tắc ứng xử, tôi muốn thấy những luật lệ cứng nhắc, vì đó là một vấn đề nhân quyền,” Wachter nói.
Những bước tiếp theo của Google sẽ được theo dõi một cách cẩn thận. Eleonore Pauwels, người dẫn dắt dự án quản lý trí tuệ nhân tạo tại Trung tâm Nghiên cứu Chính sách của Đại học Liên hợp quốc, nói rằng tài liệu là một bước khởi đầu tốt, nhưng công ty cần chứng minh rằng nó sẽ điều hướng đến đâu.
Pauwels muốn thấy Google tương tác một cách có ý nghĩa hơn với bên ngoài về việc sử dụng và tác động của công nghệ mà họ đang phát triển. Cách mà Google nhanh chóng đối phó với sự phản đối từ công chúng và nhân viên về dự án điện thoại giống con người và dự án Pentagon năm ngoái cho thấy ý chí này không tự nhiên. Pauwels nói rằng chăm sóc sức khỏe, một lĩnh vực mà Google đang tăng cường dự án trí tuệ nhân tạo để tìm kiếm nguồn thu nhập mới, là một lĩnh vực đáng lo ngại. “Chúng ta sẽ thấy rất nhiều dữ liệu cá nhân và riêng tư được sử dụng một cách mới trong những sản phẩm đó,” cô nói.
Những điều tuyệt vời hơn từ Mytour
- Tại sao điện thoại của bạn (và các thiết bị khác) gặp sự cố khi trời lạnh
- Ảnh hưởng mà Hoa Kỳ không thể phớt lờ: chính mình
- Làng bắc cực có truyền hình vệ tinh nhưng không có nước chảy
- Một “toilet đa văn hóa” và những đổi mới khác để sửa chữa vấn đề khi bay
- Tài liệu Fyre Festival phân tích FOMO của người tham dự—và cả bạn
- 👀 Đang tìm kiếm những công nghệ mới nhất? Kiểm tra lựa chọn của chúng tôi, hướng dẫn mua sắm, và những ưu đãi tốt nhất suốt năm
- 📩 Muốn nhiều hơn? Đăng ký nhận bản tin hàng ngày của chúng tôi và đừng bao giờ bỏ lỡ những câu chuyện mới và tuyệt vời nhất của chúng tôi
