Trí Tuệ Nhân Tạo Phổ Biến Có Thể Gây Hậu Quả Chết Người

Trong tháng 9 năm 2021, các nhà khoa học Sean Ekins và Fabio Urbina đang thực hiện một thí nghiệm mà họ đã đặt tên là 'Dự án Tiến sĩ Ác quỷ'. Phòng thí nghiệm Spiez của chính phủ Thụy Sĩ đã yêu cầu họ tìm hiểu xem điều gì sẽ xảy ra nếu nền tảng phát hiện thuốc AI của họ, MegaSyn, rơi vào tay sai trái.
Giống như sinh viên hóa học đại học chơi với bộ mô hình quả cầu và que để hiểu cách các nguyên tố hóa học khác nhau tương tác để tạo ra các hợp chất phân tử, Ekins và đội ngũ của ông tại Collaborations Pharmaceuticals đã sử dụng cơ sở dữ liệu công khai chứa cấu trúc phân tử và dữ liệu hoạt tính sinh học của hàng triệu phân tử để dạy MegaSyn cách tạo ra các hợp chất mới có tiềm năng dược phẩm. Kế hoạch là sử dụng nó để tăng tốc quá trình phát hiện thuốc cho các bệnh hiếm và bị bỏ rơi. Các loại thuốc tốt nhất là những loại có đặc tính cao - chỉ tác động vào tế bào hoặc neuroreceptors mong muốn, chẳng hạn - và độc hại thấp để giảm thiểu tác động xấu.
Thông thường, MegaSyn sẽ được lập trình để tạo ra các phân tử càng cụ thể và độc hại càng thấp. Thay vào đó, Ekins và Urbina đã lập trình nó để tạo ra VX, một chất kích thích thần kinh không mùi và vị, và là một trong những chất chiến tranh hóa học do con người tạo ra nguy hiểm nhất và có tác động nhanh nhất hiện nay.
Ekins dự định sẽ trình bày các kết quả tại hội nghị Spiez Convergence - một cuộc họp hai năm một lần để chuyên gia thảo luận về các rủi ro an ninh tiềm ẩn của các tiến bộ mới nhất trong lĩnh vực hóa học và sinh học - trong một bài thuyết trình về cách AI trong phát hiện thuốc có thể bị lạm dụng để tạo ra vũ khí sinh học. “Với tôi, đó là việc thử nghiệm xem công nghệ có thể thực hiện được hay không,” Ekins nói. “Đó là yếu tố sự tò mò.”
Trong văn phòng của họ tại Raleigh, Bắc Carolina, Ekins đứng sau Urbina, người mở nền tảng MegaSyn trên chiếc MacBook năm 2015 của mình. Trong dòng mã thường chỉ dẫn nền tảng tạo ra các phân tử ít độc hại nhất, Urbina đơn giản là thay đổi số 0 thành số 1, đảo ngược mục tiêu cuối cùng của nền tảng về độc tính. Sau đó, họ đặt một ngưỡng độc tính, yêu cầu MegaSyn chỉ tạo ra các phân tử độc hại như VX, mà chỉ cần vài hạt muối có kích thước của hạt muối để giết người.
Ekins và Urbina để chương trình chạy qua đêm. Sáng hôm sau, họ sốc khi biết MegaSyn đã tạo ra khoảng 40.000 phân tử khác nhau có độc tính như VX.
“Đó là lúc mọi thứ trở nên rõ ràng,” Ekins nói.
MegaSyn đã tạo ra VX, cùng với hàng nghìn tác nhân sinh học đã biết, nhưng nó cũng đã tạo ra hàng nghìn phân tử độc hại không được liệt kê trong bất kỳ cơ sở dữ liệu công khai nào. MegaSyn đã thực hiện bước nhảy tính toán để tạo ra các phân tử hoàn toàn mới.
Tại hội nghị và sau đó trong một bài báo ba trang, Ekins và đồng nghiệp của ông đưa ra cảnh báo nghiêm trọng. “Mặc dù không muốn quá lo lắng, điều này nên làm báo hiệu cảnh báo đối với các đồng nghiệp trong cộng đồng 'AI trong phát hiện thuốc',” Ekins và đồng nghiệp của ông viết. “Mặc dù vẫn cần một số chuyên môn trong lĩnh vực hóa học hoặc độc học để tạo ra các chất độc hại hoặc tác nhân sinh học có thể gây hại nặng, khi những lĩnh vực này giao nhau với các mô hình học máy, nơi bạn chỉ cần khả năng mã hóa và hiểu đầu ra của chính mô hình, chúng giảm đáng kể ngưỡng kỹ thuật.”
Các nhà nghiên cứu cảnh báo rằng trong khi trí tuệ nhân tạo trở nên mạnh mẽ và ngày càng dễ tiếp cận đối với bất kỳ ai, thì hầu như không có quy định hoặc giám sát cho công nghệ này và chỉ có sự nhận thức hạn chế giữa các nhà nghiên cứu, giống như ông.
“Việc xác định thiết bị/vật liệu/knowledge có thể sử dụng đồng thời trong lĩnh vực khoa học sinh học là đặc biệt khó khăn, và đã mất hàng thập kỷ để phát triển các khuôn khổ để làm điều này. Có rất ít quốc gia có các quy định pháp luật cụ thể về vấn đề này,” nói Filippa Lentzos, giảng viên cấp cao về khoa học và an ninh quốc tế tại King’s College London và là một trong những tác giả của bài báo. “Có một số thảo luận về việc sử dụng đồng thời trong lĩnh vực trí tuệ nhân tạo nói chung, nhưng trọng tâm chính là các vấn đề xã hội và đạo đức khác, như quyền riêng tư. Và ít thảo luận về việc sử dụng đồng thời, và ít hơn nữa trong lĩnh vực con của trí tuệ nhân tạo phát hiện thuốc,” cô nói.
Mặc dù đã có một lượng lớn công việc và chuyên môn được đầu tư vào việc phát triển MegaSyn, theo Ekins, hàng trăm công ty trên khắp thế giới đã sử dụng trí tuệ nhân tạo để phát hiện thuốc, và hầu hết các công cụ cần thiết để lặp lại thí nghiệm VX của ông đều có sẵn công khai.
“Trong khi chúng tôi đang làm điều này, chúng tôi nhận ra bất kỳ ai có một máy tính và kiến thức hạn chế về việc tìm các bộ dữ liệu và tìm kiếm những loại phần mềm này mà tất cả đều có sẵn công khai và chỉ cần kết hợp chúng có thể làm điều này,” Ekins nói. “Làm thế nào bạn theo dõi hàng ngàn người, có lẽ là triệu người, có thể làm điều này và có quyền truy cập vào thông tin, thuật toán và cũng là kiến thức chuyên môn?”
Từ tháng 3, bài báo đã thu hút hơn 100.000 lượt xem. Một số nhà khoa học đã chỉ trích Ekins và các tác giả vì đã vượt qua đường ranh giới đạo đức mơ hồ khi thực hiện thí nghiệm VX của họ. “Đây thực sự là một cách tàn ác để sử dụng công nghệ, và khiến tôi cảm thấy không tốt,” Ekins thừa nhận. “Sau đó tôi có cơn ác mộng.”
Những nhà nghiên cứu và nhà đạo đức sinh học khác đã hoan nghênh các nhà nghiên cứu vì đã cung cấp một minh chứng cụ thể, chứng minh được cách trí tuệ nhân tạo có thể bị lạc lõng.
“Khi đọc bài báo này lần đầu tiên, tôi đã khá bất ngờ, nhưng cũng không ngạc nhiên. Chúng ta biết rằng các công nghệ trí tuệ nhân tạo đang trở nên mạnh mẽ hơn, và việc chúng có thể được sử dụng theo cách này không có vẻ là điều đáng ngạc nhiên,” nói Bridget Williams, bác sĩ y tế cộng đồng và nghiên cứu sinh sau tiến sĩ tại Trung tâm Đạo đức Sinh học Dân số tại Đại học Rutgers.
“Ban đầu tôi tự hỏi liệu việc công bố bài viết này có phải là một sai lầm, vì nó có thể dẫn đến việc những người có ý định xấu sử dụng thông tin này một cách hại ý. Nhưng lợi ích của việc có một bài báo như vậy là nó có thể thúc đẩy nhiều nhà khoa học, và cộng đồng nghiên cứu nói chung, bao gồm những người tài trợ, các tạp chí và máy chủ trước in, để xem xét cách công việc của họ có thể bị lạc lõng và thực hiện các bước để phòng ngừa điều đó, giống như những người viết bài này đã làm,” cô nói.
Tháng 3, Văn phòng Chính sách và Công nghệ Khoa học Hoa Kỳ (OSTP) triệu tập Ekins và đồng nghiệp của ông đến Nhà Trắng để họp. Điều đầu tiên mà đại diện của OSTP hỏi là Ekins có chia sẻ bất kỳ phân tử chết người nào mà MegaSyn đã tạo ra với bất kỳ ai không, theo Ekins. (OSTP không phản hồi lại các yêu cầu phỏng vấn lặp đi lặp lại.) Câu hỏi thứ hai của đại diện của OSTP là họ có thể có tệp với tất cả các phân tử không. Ekins nói rằng ông từ chối họ. “Người khác cũng có thể đi và làm điều này bất cứ khi nào. Chắc chắn là không có sự giám sát. Không có kiểm soát. Ý nghĩa là chỉ là ở chúng tôi, phải không?” ông nói. “Chúng ta chỉ phụ thuộc nặng nề vào đạo đức và luân lý của chúng ta.”
Ekins và đồng nghiệp của ông đang kêu gọi thêm thảo luận về cách quy định và giám sát ứng dụng trí tuệ nhân tạo trong việc phát hiện thuốc và các lĩnh vực sinh học và hóa học khác. Điều này có thể có nghĩa là xem xét lại những dữ liệu và phương pháp nào được công bố cho công chúng, theo dõi chặt chẽ hơn ai tải xuống một số bộ dữ liệu mã nguồn mở cụ thể, hoặc thiết lập các ủy ban giám sát đạo đức cho trí tuệ nhân tạo, tương tự như những người đã tồn tại cho nghiên cứu liên quan đến con người và động vật.
“Nghiên cứu liên quan đến đối tượng con người được quy định chặt chẽ, với tất cả các nghiên cứu đều cần sự chấp thuận của một hội đồng đánh giá nghiên cứu cơ sở. Chúng ta nên xem xét việc có một cấp độ giám sát tương tự đối với các loại nghiên cứu khác, như nghiên cứu trí tuệ nhân tạo như thế này,” Williams nói. “Những loại nghiên cứu này có thể không liên quan đến con người như làm thử nghiệm, nhưng chắc chắn chúng tạo ra rủi ro đối với một lượng lớn người.”
Những nhà nghiên cứu khác đã đề xuất rằng các nhà khoa học cần có thêm giáo dục và đào tạo về rủi ro sử dụng đồng thời. “Điều khiến tôi ấn tượng ngay lập tức là sự thừa nhận của các tác giả rằng họ chưa bao giờ nghĩ đến việc công nghệ của họ có thể được sử dụng một cách dễ dàng cho mục đích độc hại. Như họ nói, điều này cần phải thay đổi; những điểm mù đạo đức như điều này vẫn còn quá phổ biến trong cộng đồng STEM,” Jason Millar, chủ cái ghế nghiên cứu về Kỹ thuật đạo đức của Robot và Trí tuệ nhân tạo và giám đốc của Phòng thiết kế đạo đức Robot và Trí tuệ nhân tạo Canada tại Đại học Ottowa nói. “Chúng ta thực sự nên coi trọng việc đào tạo đạo đức như là một phần không thể tách rời, cùng với việc đào tạo kỹ thuật cơ bản khác. Điều này đúng đối với mọi công nghệ,” ông nói.
Cơ quan chính phủ và các tổ chức tài trợ dường như không có một hướng đi rõ ràng. “Điều này không phải là lần đầu tiên vấn đề này được đặt ra, nhưng các chiến lược giảm nhẹ phù hợp và ai sẽ chịu trách nhiệm cho các khía cạnh nào (nhà nghiên cứu, tổ chức của họ, NIH và chương trình chọn lọc đặc biệt của Liên bang có khả năng đều có vai trò) vẫn chưa được xác định,” Christine Colvis, giám đốc Chương trình Đối tác Phát triển Thuốc trong Trung tâm Quốc gia Tiến bộ Nghiên cứu Trình diễn (NCATS), và Alexey Zakharov, nhóm trưởng AI trong Chương trình chống virus cho đại dịch và nhóm trưởng thông tin trong nhóm Dịch chuyển Sớm của NCATS, nói trong một email.
Trong công ty của mình, Ekins đang nghĩ qua cách giảm thiểu rủi ro sử dụng kép của MegaSyn và các nền tảng Trí tuệ Nhân tạo khác, như hạn chế quyền truy cập vào phần mềm MegaSyn và cung cấp đào tạo đạo đức cho nhân viên mới trong khi vẫn tiếp tục tận dụng sức mạnh của Trí tuệ Nhân tạo để phát hiện thuốc. Ông cũng đang nghĩ lại một dự án đang diễn ra được tài trợ bởi Viện Khoa học Y tế Quốc gia mà mục tiêu là tạo ra một trang web công cộng với các mô hình MegaSyn.
“Như thể việc phải mang trên vai trọng lượng của thế giới để cố gắng tạo ra các loại thuốc điều trị các căn bệnh thực sự kinh khủng không đủ khó khăn, bây giờ chúng ta phải nghĩ về cách chúng ta không làm cho người khác lạm dụng các công nghệ mà chúng ta đã cố gắng sử dụng vì mục đích tốt. [Chúng tôi] nhìn qua vai, nói 'Đây có phải là một cách sử dụng tốt của công nghệ không? Liệu chúng ta có nên công bố điều này thực sự không? Chúng ta có chia sẻ quá nhiều thông tin không?'” Ekins nói. “Tôi nghĩ rằng khả năng lạm dụng trong các lĩnh vực khác hiện nay rất rõ ràng và rõ ràng.”
