Bên trong chiến lược an toàn trí tuệ nhân tạo của Google DeepMind
Bài viết này đưa ra cuộc phỏng vấn với Lila Ibrahim, Giám đốc điều hành của Google DeepMind. Ibrahim sẽ phát biểu tại Hội nghị TNW, diễn ra vào ngày 15 & 16 tháng 6 tại Amsterdam. Nếu bạn muốn trải nghiệm sự kiện (và chào hỏi đội biên tập của chúng tôi!), chúng tôi có một điều đặc biệt dành cho độc giả trung thành của chúng tôi. Sử dụng mã khuyến mãi READ-TNW-25 và nhận giảm giá 25% cho vé kinh doanh của bạn cho Hội nghị TNW. Hẹn gặp bạn tại Amsterdam!
Độ an toàn của trí tuệ nhân tạo đã trở thành mối quan tâm chínhstream. Sự phát triển nhanh chóng của các công cụ như ChatGPT và deepfakes đã gây ra lo ngại về mất việc làm, thông tin sai lệch — và thậm chí là tiêu diệt. Tháng trước, một cảnh báo rằng trí tuệ nhân tạo đặt ra “mối nguy hiểm tuyệt chủng” đã thu hút sự chú ý của báo chí trên toàn thế giới.
Cảnh báo đó đến từ một tuyên bố được ký bởi hơn 350 người nặng ký trong ngành. Trong số họ có Lila Ibrahim, Tổng giám đốc điều hành của Google DeepMind. Là một người lãnh đạo của phòng thí nghiệm trí tuệ nhân tạo tiên phong, Ibrahim có cái nhìn trực tiếp về những rủi ro — và cơ hội.
DeepMind đã đưa ra một số đột phá nổi bật nhất trong lĩnh vực này, từ việc chinh phục các trò chơi phức tạp đến việc tiết lộ cấu trúc của vũ trụ protein.
Sứ mệnh tối thượng của công ty là tạo ra trí tuệ nhân tạo tổng quát, một khái niệm mơ hồ mà nói chung đề cập đến máy tính có khả năng nhận thức tương đương với con người. Đó là một ước mơ tầm nhìn cần phải giữ chân ở thực tế — đó là nơi mà Ibrahim đến.
Năm 2018, Ibrahim được bổ nhiệm làm COO đầu tiên của DeepMind. Vai trò của cô giám sát hoạt động kinh doanh và sự phát triển, với tập trung mạnh mẽ vào việc xây dựng trí tuệ nhân tạo một cách có trách nhiệm.
“Những rủi ro mới và nổi lên — như độ chệch lệch, an toàn và bất bình đẳng — cần được đối xử một cách cực kỳ nghiêm túc,” Ibrahim nói với TNW qua email. “Tương tự, chúng tôi muốn đảm bảo rằng chúng tôi đang làm những gì chúng tôi có thể để tối đa hóa các kết quả có lợi.”
Prior to joining DeepMind, Ibrahim was COO of Coursera, where she helped open up access to education. Credit: Google DeepMindNhiều thời gian của Ibrahim được dành để đảm bảo rằng công việc của công ty mang lại kết quả tích cực cho xã hội. Ibrahim nhấn mạnh bốn phương diện của chiến lược này.
1. Phương pháp khoa học
Để khám phá các khối xây dựng của trí tuệ nhân tạo tiên tiến, DeepMind tuân theo phương pháp khoa học.
“Điều này có nghĩa là xây dựng và kiểm tra giả thuyết, thử nghiệm phương pháp và kết quả của chúng tôi qua sự kiểm tra kỹ lưỡng của đồng nghiệp,” Ibrahim nói. “Chúng tôi tin rằng phương pháp khoa học là đúng cho trí tuệ nhân tạo vì lộ trình xây dựng thông minh tiên tiến vẫn mơ hồ.”
2. Đội ngũ đa ngành
DeepMind sử dụng các hệ thống và quy trình đa dạng để hướng dẫn nghiên cứu của mình vào thế giới thực. Một ví dụ là ủy ban đánh giá nội bộ.
Đội ngũ đa ngành bao gồm các nhà nghiên cứu máy học, đạo đức gia, chuyên gia an toàn, kỹ sư, chuyên gia an ninh và chuyên gia chính sách. Tại các cuộc họp đều xuyên, họ thảo luận về cách mở rộng lợi ích của công nghệ, thay đổi về lĩnh vực nghiên cứu và các dự án cần thêm sự tham khảo bên ngoại.
“Có một đội ngũ đa ngành với một bộ quan điểm đặc biệt là một thành phần quan trọng để xây dựng một tương lai có trí tuệ nhân tạo an toàn, đạo đức và bao quát mang lại lợi ích cho tất cả chúng ta,” Ibrahim nói.
3. Nguyên tắc chung
Để hướng dẫn sự phát triển trí tuệ nhân tạo của công ty, DeepMind đã tạo ra một loạt các nguyên tắc rõ ràng, được chia sẻ. Nguyên tắc vận hành của công ty, ví dụ, xác định cam kết của phòng thí nghiệm đối với việc giảm thiểu rủi ro, đồng thời chỉ rõ những gì nó từ chối theo đuổi — như vũ khí tự động.
“Họ cũng hóa thạch mục tiêu của chúng tôi để ưu tiên lợi ích rộng rãi,” nói Ibrahim.
4. Tư vấn chuyên gia bên ngoài
Một trong những lo ngại hàng đầu của Ibrahim liên quan đến sự đại diện. Trí tuệ nhân tạo thường xuyên củng cố độ chệch lệch, đặc biệt là đối với nhóm thiểu số, người thường bị thiếu đại diện cả trong dữ liệu đào tạo và trong các đội xây dựng hệ thống.
Để giảm thiểu những rủi ro này, DeepMind hợp tác với các chuyên gia bên ngoài về các chủ đề như độ chệch, thuyết phục, an ninh sinh học và triển khai có trách nhiệm của mô hình. Công ty cũng tương tác với một loạt các cộng đồng để hiểu rõ về tác động của công nghệ đối với họ.
“Phản hồi này giúp chúng tôi làm cho các mô hình của mình trở nên phù hợp với một loạt đông đảo đối tượng,” nói Ibrahim.
Sự tương tác này đã mang lại kết quả mạnh mẽ.
Lợi ích kinh doanh của an toàn trí tuệ nhân tạo
Trong năm 2021, DeepMind đã vượt qua một trong những thách thức lớn nhất của sinh học: vấn đề gập protein.
Sử dụng một chương trình trí tuệ nhân tạo có tên là AlphaFold, công ty đã dự đoán cấu trúc 3D của gần như mọi protein được biết đến trong vũ trụ — khoảng 200 triệu protein. Các nhà khoa học tin rằng công việc này có thể đẩy nhanh quá trình phát triển thuốc.
“AlphaFold là bước tiến độc đáo và quan trọng trong lĩnh vực khoa học sinh mệnh, chứng minh sức mạnh của trí tuệ nhân tạo,” nói Eric Topol, giám đốc Viện Nghiên cứu Dịch chuyển Scripps. “Trước đây, xác định cấu trúc 3D của một protein mất nhiều tháng hoặc nhiều năm, giờ chỉ mất vài giây.”
Thành công của AlphaFold được hướng dẫn bởi một loạt các chuyên gia bên ngoài. Trong những giai đoạn đầu của công việc, DeepMind nghiên cứu một loạt các câu hỏi lớn. Làm thế nào AlphaFold có thể tăng tốc nghiên cứu và ứng dụng sinh học? Có thể xảy ra những hậu quả không mong muốn nào? Và làm thế nào tiến triển có thể được chia sẻ một cách có trách nhiệm?
Trong tìm kiếm câu trả lời, DeepMind tìm kiếm ý kiến từ hơn 30 nhà lãnh đạo trên nhiều lĩnh vực từ an ninh sinh học đến nhân quyền. Phản hồi của họ đã hướng dẫn chiến lược của DeepMind cho AlphaFold.
Trong một ví dụ, DeepMind ban đầu đã xem xét việc loại bỏ các dự đoán mà AlphaFold có độ tin cậy thấp hoặc không chắc chắn cao. Nhưng các chuyên gia bên ngoài đã khuyến khích giữ lại những dự đoán này khi công bố.
DeepMind tuân theo lời khuyên đó. Kết quả là, người dùng của AlphaFold hiện đã biết rằng nếu hệ thống có độ tin cậy thấp đối với một cấu trúc dự đoán, đó là một dấu hiệu tốt về một protein có trạng thái không gắn kết.
Các nhà khoa học trên toàn thế giới đang thu hoạch những thành tựu đó. Vào tháng 2, DeepMind thông báo rằng cơ sở dữ liệu protein hiện đã được sử dụng bởi hơn 1 triệu nhà nghiên cứu. Công việc của họ đang giải quyết các thách thức toàn cầu lớn, từ phát triển vaccine cho sốt rét đến chống ô nhiễm nhựa.
“Bây giờ bạn có thể tìm kiếm cấu trúc 3D của một protein gần như một cách dễ dàng như tìm kiếm trên Google — đó là khoa học tại tốc độ số,” nói Ibrahim.
Trí tuệ nhân tạo có trách nhiệm cũng đòi hỏi một đội ngũ tài năng đa dạng. Để mở rộng đường ống, DeepMind hợp tác với giáo dục đại học, các nhóm cộng đồng, và tổ chức từ thiện để hỗ trợ cộng đồng ít được đại diện.
Động cơ không chỉ là lòng vị tha. Việc bảo đảm đầy đủ tài năng sẽ tạo ra thêm nhiều tài năng cho DeepMind và lĩnh vực công nghệ rộng lớn hơn.
Như AlphaFold đã chứng minh, trí tuệ nhân tạo có trách nhiệm cũng có thể đẩy nhanh tiến bộ khoa học. Và giữa những lo ngại ngày càng tăng và áp lực từ quy định, lợi ích kinh doanh chỉ càng trở nên mạnh mẽ hơn.
Để biết thêm thông tin từ Lila Ibrahim, sử dụng mã khuyến mãi READ-TNW-25 và nhận giảm giá 25% cho vé tham dự hội nghị TNW của bạn.
