
Đầu năm nay, CEO của Google Sundar Pichai mô tả trí tuệ nhân tạo như một điều sâu sắc hơn đối với nhân loại so với lửa. Thứ Năm, sau những cuộc biểu tình từ hàng ngàn nhân viên Google về một dự án của Bộ Quốc phòng, Pichai đưa ra hướng dẫn về cách Google sẽ—và sẽ không—sử dụng công nghệ này. Một điều Pichai nói là Google sẽ không làm: phát triển trí tuệ nhân tạo cho vũ khí. Nhưng các hướng dẫn để lại nhiều điều trong tay quyền quyết định của các nhà lãnh đạo công ty và cho phép Google tiếp tục làm việc cho quân đội.
Những nguyên tắc cơ bản là một phản ứng đối với hơn 4.500 nhân viên Google ký tên dưới một lá thư phản đối sự tham gia của công ty trong dự án của Bộ Quốc phòng có tên Maven, sử dụng học máy để giải mã video giám sát từ máy bay không người lái.
Những nhân viên phản đối đã yêu cầu Google tuyệt đối không tham gia vào bất kỳ công việc quân sự nào. Phản ứng của Pichai? Chúng tôi lắng nghe bạn, nhưng bạn có thể tin tưởng chúng tôi làm điều này một cách có trách nhiệm. "Chúng tôi sẽ tiếp tục công việc với chính phủ và quân đội trong nhiều lĩnh vực khác nhau," bài đăng của Pichai nói. "Những hợp tác này quan trọng và chúng tôi sẽ tích cực tìm kiếm cách để nâng cao công việc quan trọng của những tổ chức này và bảo vệ an toàn cho các thành viên và dân thường."
Điều đó có thể được hiểu như cho phép tiếp tục làm việc trên Dự án Maven. Nhưng Google thông báo cho nhân viên tuần trước rằng công ty sẽ không gia hạn hợp đồng Maven khi nó hết hạn vào năm sau. Và một người phát ngôn nói thứ Năm rằng nếu Maven lại xuất hiện hôm nay, công ty có lẽ sẽ không tham gia, vì dự án không tuân theo tinh thần của hướng dẫn mới.
Mặc dù được khuyến khích bởi cuộc biểu tình về Maven, nhưng hướng dẫn được đăng thứ Năm đề cập đến một loạt rộng lớn các vấn đề. Google cam kết tránh tạo ra các hệ thống củng cố định kiến xã hội về giới tính, chủng tộc hoặc tình dục, ví dụ. Họ nói rằng các biện pháp bảo vệ quyền riêng tư nên được tích hợp vào công nghệ trí tuệ nhân tạo, thường đạt được sức mạnh từ việc đào tạo trên bộ dữ liệu rộng lớn như những bộ dữ liệu mà Google sở hữu từ tỷ lệ khách hàng tỷ đô của mình.
“Cách mà trí tuệ nhân tạo được phát triển và sử dụng sẽ có ảnh hưởng lớn đối với xã hội trong nhiều năm tới,” Pichai viết trong một bài giới thiệu về hướng dẫn. “Là một nhà lãnh đạo trong lĩnh vực trí tuệ nhân tạo, chúng tôi cảm thấy có trách nhiệm đặc biệt để làm đúng điều này.” Google cũng công bố một loạt các “thực hành khuyến nghị” về các chủ đề như sự công bằng và kiểm thử các hệ thống trí tuệ nhân tạo để giúp các công ty khác sử dụng và phát triển trí tuệ nhân tạo một cách có trách nhiệm.

Dự án Maven là một nỗ lực rộng lớn tại Bộ Quốc phòng để đưa thêm trí tuệ nhân tạo vào các hoạt động. Dự án đầu tiên liên quan đến việc sử dụng trí tuệ nhân tạo để theo dõi các đối tượng như tòa nhà, phương tiện và người trong video của máy bay không người lái. Vai trò chính xác của Google trong dự án không rõ ràng, nhưng công ty đã khẳng định rằng nó bị giới hạn trong mục đích “không tấn công.”
Hướng dẫn mới của Google mở rộng trên điều đó, nói rằng sẽ không áp dụng trí tuệ nhân tạo vào vũ khí hoặc “các công nghệ khác có mục đích chính hoặc triển khai làm gì trực tiếp làm hại cho người.” Tài liệu cũng nói rằng Google sẽ không làm việc trên công nghệ giám sát “vi phạm các tiêu chuẩn quốc tế được chấp nhận về nhân quyền.”
Một nhân viên của Google liên lạc trước ngày công bố hướng dẫn nói rằng bất kỳ quy tắc nào như vậy sẽ khó tin nếu chỉ được giải thích và thực hiện nội bộ. Người này lập luận rằng cần có sự giám sát bên ngoại để giảm nguy cơ các quan ngại về kinh doanh làm cong vẹo quyết định, Google đang đấu giá cho một hợp đồng đám mây tính toán của Bộ Quốc phòng được gọi là JEDI trị giá hàng tỷ đô la.
Peter Eckersley, nhà khoa học máy tính chính tại Tổ chức Frontier Điện tử, đồng ý rằng Google nên có sự giúp đỡ từ bên ngoại. “Nếu bất kỳ công ty công nghệ nào muốn đưa mình vào một lĩnh vực đạo đức phức tạp như hợp đồng quốc phòng AI, chúng tôi khuyến khích họ thành lập một hội đồng đạo đức độc lập để hướng dẫn công việc của họ,” ông nói. “Google có cơ hội thực sự trở thành một nhà lãnh đạo về đạo đức AI ở đây, và họ không nên lãng phí nó.”
Trong một lá thư gửi tới đồng sáng lập Google Sergey Brin được công bố thứ Năm, Faisal ali bin Jaber, người nói rằng anh họ Salem đã bị tiêu diệt bởi một cuộc tấn công drone của Hoa Kỳ ở Yemen, tự đề xuất mình làm cố vấn đạo đức bên ngoại cho Google về công việc quốc phòng trong tương lai. “Google có thể bảo vệ những người như Salem thay vì làm cho việc giết họ dễ dàng hơn,” ông viết. “Hãy thảo luận về cách Google có thể đặt tiêu chuẩn đạo đức trong lĩnh vực này để các công ty khác theo đuổi, thay vì bị chính phủ lợi dụng.”
Những Sáng Tạo Tuyệt Vời Khác Từ Mytour
- Trận đấu laser chống lại những ký sinh trùng hút máu dưới biển
- ESSAY ẢNH: Những người phụ nữ tiên phong chiến đấu chống cháy rừng ở California
- 'Cormorant' tự bay của Israel nhanh chóng đưa binh sĩ bị thương đến nơi an toàn
- Biến đổi khí hậu đã làm cho kiến 'zombie' trở nên tinh ranh hơn
- Tình trạng an ninh mạng của chính phủ liên bang đen tối hơn bạn nghĩ
- Khao khát tìm hiểu sâu hơn về chủ đề yêu thích tiếp theo của bạn? Đăng ký nhận bản tin Backchannel
