Quân đội Mỹ đang cố gắng một cách tuyệt vọng để chiếm ưu thế trong lĩnh vực trí tuệ nhân tạo, mà các quan chức cao cấp tin rằng sẽ mang lại chiến thắng trong chiến tranh tương lai. Nhưng các tài liệu nội bộ của Bộ Quốc phòng và cuộc phỏng vấn với các quan chức cấp cao làm rõ rằng Bộ Quốc phòng đang chịu ảnh hưởng từ sự từ chối của một công ty công nghệ lớn và đang cố gắng phát triển một kế hoạch có thể hoạt động trong một loại chiến tranh mới—để chiếm trọn trái tim và tâm trí tại Silicon Valley.
Cuộc chiến bắt đầu với một mất mát bất ngờ. Vào tháng 6, Google thông báo rút khỏi một chương trình của Bộ Quốc phòng—dự án nổi tiếng Maven—that sử dụng phần mềm trí tuệ nhân tạo của công ty. Hai tháng trước đó, hàng nghìn nhân viên của công ty đã ký một đơn kiến nghị kêu gọi chấm dứt công việc của họ trên dự án, một nỗ lực để tạo ra thuật toán có thể giúp các nhà phân tích tình báo nhận diện mục tiêu quân sự từ cảnh quay video.
Bên trong Bộ Quốc phòng, sự rút lui của Google mang lại sự kết hợp giữa sự thất vọng và lo lắng—thậm chí là sự tức giận—mà theo năm nguồn tin quen biết với các cuộc thảo luận nội bộ về Maven, nỗ lực đầu tiên của quân đội sử dụng trí tuệ nhân tạo trong chiến tranh.
“Chúng ta đã vấp phải một cuộc thi về câu chuyện chiến lược mà không chuẩn bị gì,” một ghi chú nội bộ của Bộ Quốc phòng được phổ biến cho khoảng 50 quan chức quốc phòng vào ngày 28 tháng 6. Ghi chú mô tả một bộ phận bị đánh bại và đột ngột đang đối mặt với nguy cơ mất liên lạc với những chuyên gia quan trọng đối với kế hoạch phát triển trí tuệ nhân tạo của quân đội.
“Chúng ta sẽ không cạnh tranh hiệu quả trước đối thủ nếu chúng ta không chiến thắng 'trái tim và tâm trí' của những người ủng hộ quan trọng,” nó cảnh báo.
Dự án Maven thực sự chưa hoàn chỉnh và chỉ tốn khoảng 70 triệu đô la vào năm 2017, một phần nhỏ trong ngân sách khổng lồ 600 tỷ đô la của Bộ Quốc phòng trong năm đó. Nhưng thông báo của Google là một ví dụ điển hình cho thách thức truyền thông công cộng và khoa học lớn mà bộ phận vẫn đang cố gắng giải quyết. Cho đến nay, họ đã cố gắng tạo ra một hình ảnh công cộng mới cho công việc AI của mình và tìm kiếm đánh giá về chính sách AI của bộ phận từ một hội đồng tư vấn của các nhà điều hành hàng đầu từ các công ty công nghệ.
Lý do khiến Bộ Quốc phòng lo lắng rõ ràng: Họ muốn một con đường mượt mà để sử dụng trí tuệ nhân tạo trong vũ khí của tương lai, một mong muốn đã được hỗ trợ bởi hứa hẹn của vài tỷ đô la để cố gắng đảm bảo các hệ thống như vậy được tin tưởng và chấp nhận bởi các chỉ huy quân sự, cộng thêm hàng tỷ đô la chi tiêu cho các công nghệ chính nó.
Vai trò chính xác mà Trí tuệ Nhân tạo sẽ đóng trong chiến tranh vẫn chưa rõ. Nhiều vũ khí với AI sẽ không liên quan đến quyết định của các thuật toán máy tính, nhưng khả năng về điều đó vẫn tồn tại. Như một văn bản chiến lược của Bộ Quốc phòng nói vào tháng 8: “Các công nghệ làm nền tảng cho các hệ thống không người lái sẽ làm cho nó có khả năng phát triển và triển khai các hệ thống tự động có thể tự chọn và tấn công mục tiêu với lực lượng chết người.”
Phát triển trí tuệ nhân tạo, các quan chức nói, không giống như việc tạo ra các công nghệ quân sự khác. Trong khi quân đội có thể dễ dàng hợp tác với các nhà thầu quốc phòng lớn để thực hiện công việc tiên tiến trên máy bay chiến đấu và bom, nhưng trái tim của sự đổi mới về AI và máy học nằm trong những gã khổng lồ công nghệ ở Silicon Valley không liên quan đến quốc phòng. Nếu thiếu sự giúp đỡ của họ, các quan chức lo lắng rằng họ có thể thua cuộc trong cuộc đua vũ khí toàn cầu ngày càng leo thang, trong đó trí tuệ nhân tạo sẽ đóng một vai trò ngày càng quan trọng, điều mà các quan chức cao cấp nói rằng họ không chấp nhận.
“Nếu bạn quyết định không làm việc trên Maven, thì thực sự bạn không thực sự đang thảo luận về việc trí tuệ nhân tạo hoặc máy học có sẽ được sử dụng trong các hoạt động quân sự hay không,” Chris Lynch, một doanh nhân công nghệ trước đây giờ đây làm việc tại Dịch vụ Kỹ thuật Số Quốc phòng của Bộ Quốc phòng, nói trong một cuộc phỏng vấn. Ông nói rằng AI đang đến với chiến tranh, vì vậy câu hỏi là, các nhà khoa học máy tính người Mỹ nào sẽ làm nên điều đó?
Lynch, người tuyển dụng chuyên gia kỹ thuật để dành vài năm làm việc giải quyết vấn đề của Bộ Quốc phòng trước khi trở lại khu vực tư nhân, nói rằng công nghệ trí tuệ nhân tạo quá quan trọng, và cơ quan sẽ tiến hành ngay cả nếu phải dựa vào các chuyên gia kém chất lượng. Nhưng nếu thiếu sự giúp đỡ từ những tâm hồn xuất sắc nhất của ngành công nghiệp, Lynch thêm vào đó, “chúng ta sẽ trả cho ai đó kém có khả năng hơn để xây dựng một sản phẩm kém có khả năng hơn có thể đặt nam và nữ thanh niên vào vị trí nguy hiểm, và có thể xảy ra lỗi do đó.”
Google không có khả năng chuyển đổi hướng sớm. Chưa đầy một tuần sau khi thông báo rằng công ty sẽ không tìm kiếm gia hạn hợp đồng Maven vào tháng 6, Google phát hành một bộ nguyên tắc AI mà trong đó xác định rằng công ty sẽ không sử dụng AI cho “vũ khí hoặc các công nghệ khác có mục đích chính hoặc thực hiện làm tổn thương người.”
Một số quan chức quốc phòng đã phàn nàn từ đó rằng Google đang không trung thành với quốc gia, chú ý rằng công ty vẫn đang theo đuổi công việc với chính phủ Trung Quốc, đối thủ hàng đầu của Hoa Kỳ trong công nghệ trí tuệ nhân tạo.
“Tôi gặp khó khăn với những công ty đang cố gắng nỗ lực tham gia vào thị trường bên trong Trung Quốc, và tham gia vào các dự án trong đó sở hữu trí tuệ được chia sẻ với Trung Quốc, điều đồng nghĩa với việc chia sẻ nó với quân đội Trung Quốc, và sau đó không muốn làm việc cho quân đội Hoa Kỳ,” Tổng tư lệnh Joe Dunford, chủ tịch Hội đồng Quân chung Hoa Kỳ, bình luận khi phát biểu tại một hội nghị vào tháng 11.
Trong lời khai trước Quốc hội vào tháng 12, Giám đốc điều hành Google Sundar Pichai thừa nhận rằng Google đã thử nghiệm một chương trình liên quan đến Trung Quốc, Dự án Dragonfly, nhằm phát triển một mô hình về những kết quả tìm kiếm bị kiểm duyệt của chính phủ sẽ như thế nào ở Trung Quốc. Tuy nhiên, Pichai tuyên bố rằng hiện tại Google “không có kế hoạch ra mắt ở Trung Quốc.”
Mục tiêu của Dự án Maven là đơn giản hóa công việc cho các nhà phân tích tình báo bằng cách gắn nhãn vào các loại đối tượng trong cảnh quay video từ máy bay không người lái và các nền tảng khác, giúp nhà phân tích thu thập thông tin và hạn chế sự chú ý của họ vào các mục tiêu tiềm năng, theo nguồn tin quen biết với chương trình được phân loại một phần. Nhưng thuật toán không chọn mục tiêu hoặc ra lệnh tấn công, đó là nỗi lo lâu dài của những người lo lắng về sự giao cắt giữa máy tính tiên tiến và các hình thức mới của bạo lực chết người.
Nhiều người tại Google tuy nhiên nhìn nhận chương trình theo cách đáng lo ngại.
“Họ ngay lập tức nghe nói về máy bay không người lái và sau đó họ nghĩ đến học máy và nhận dạng mục tiêu tự động, và tôi nghĩ nó đã tăng lên cho họ khá nhanh về việc khả năng cho sự giết mục tiêu, khả năng cho chiến tranh có mục tiêu,” một cựu nhân viên Google quen biết với các cuộc thảo luận nội bộ nói.
Google chỉ là một trong những ông lớn công nghệ mà Bộ Quốc phòng đã cố gắng thu hút vào nỗ lực của mình để tích hợp trí tuệ nhân tạo vào công nghệ chiến tranh hiện đại. Trong số những ông khác: Microsoft và Amazon. Sau thông báo của Google vào tháng 6, hơn một tá công ty quốc phòng lớn tiếp cận các quan chức quốc phòng, đề xuất sẽ tiếp quản công việc, theo các quan chức quốc phòng hiện tại và cũ.
Nhưng những nhà hoạt động tại Silicon Valley cũng nói rằng ngành công nghiệp không thể dễ dàng phớt lờ những nghi ngờ về đạo đức của các nhân viên công nghệ. “Có một sự chia rẽ giữa những người phải chịu trách nhiệm trước cổ đông, muốn có quyền truy cập vào các hợp đồng của Bộ Quốc phòng có giá hàng triệu đô la, và những người thường dân phải xây dựng những thứ và cảm thấy có trách nhiệm đạo đức với những điều họ không đồng ý,” người cũ của Google nói.
Nhằm mục tiêu chắp cánh khoảng cách này và giảm bớt sự phản đối gay gắt từ các kỹ sư trí tuệ nhân tạo, Bộ Quốc phòng đã thực hiện hai sáng kiến cho đến nay.
Sáng kiến đầu tiên, chính thức bắt đầu vào cuối tháng 6, là tạo ra một Trung tâm Trí tuệ Nhân tạo Hợp nhất dự kiến sẽ giám sát và quản lý tất cả các nỗ lực trí tuệ nhân tạo của quân đội, với sự tập trung ban đầu là các nhiệm vụ nhân đạo thân thiện với công chúng. Nó sẽ do Đại tướng Jack Shanahan quản lý, người cuối cùng đã chịu trách nhiệm chính trong việc chạy Dự án Maven. Trong một quyết định chính trị khôn ngoan, sáng kiến lớn đầu tiên của nó là tìm ra cách sử dụng trí tuệ nhân tạo để giúp tổ chức phản ứng tìm kiếm và cứu hộ của quân đội đối với thảm họa tự nhiên.
“Mục tiêu của chúng tôi là cứu mạng,” Brendan McCord, một trong những kiến trúc sư chính của chiến lược trí tuệ nhân tạo của Bộ Quốc phòng, nói trong một hội nghị kỹ thuật vào tháng 10. “Vai trò cơ bản của quân đội chúng ta, nhiệm vụ của nó, là duy trì hòa bình. Đó là để ngăn chặn chiến tranh và bảo vệ đất nước chúng ta. Đó là để cải thiện ổn định toàn cầu, và nó cuối cùng là để bảo vệ bộ giá trị xuất phát từ Thời kỳ Chiếu sáng.”
Sáng kiến thứ hai là mở đơn đặt hàng một đánh giá mới về đạo đức trí tuệ nhân tạo bởi một hội đồng tư vấn của các chuyên gia công nghệ, Ban Đổi mới Quốc phòng, bao gồm cựu Giám đốc điều hành Google Eric Schmidt và người sáng lập LinkedIn Reid Hoffman.
Đánh giá đó, được thiết kế để phát triển nguyên tắc sử dụng trí tuệ nhân tạo của quân đội, đang được quản lý bởi Joshua Marcuse, một cựu cố vấn cho Bộ trưởng Quốc phòng về các vấn đề đổi mới, người hiện là giám đốc điều hành của hội đồng. Dự kiến mất khoảng chín tháng, hội đồng tư vấn sẽ tổ chức cuộc họp công cộng với các chuyên gia trí tuệ nhân tạo, trong khi một nhóm nội bộ của Bộ Quốc phòng cũng xem xét các câu hỏi. Sau đó, nó sẽ chuyển đề xuất đến Bộ trưởng Quốc phòng James Mattis về cách mà trí tuệ nhân tạo nên hoặc không nên được tích hợp vào các chương trình vũ khí.
“Điều này phải là về việc nhìn vào gương và sẵn lòng đặt ra một số hạn chế về những gì chúng ta sẽ làm, về những gì chúng ta sẽ không làm, biết những ranh giới là gì,” Marcuse nói trong một cuộc phỏng vấn.
Để đảm bảo cuộc tranh luận mạnh mẽ, Marcuse nói rằng hội đồng đang tìm kiếm những người phê phán vai trò của quân đội trong lĩnh vực trí tuệ nhân tạo.
“Họ có một loạt các lo ngại, tôi nghĩ là lo ngại thực sự hợp lý và hợp pháp, về cách Bộ Quốc phòng sẽ áp dụng những công nghệ này, vì chúng ta có quyền pháp lý để xâm phạm quyền riêng tư của người dân trong một số trường hợp, chúng ta có quyền pháp lý để thực hiện bạo lực, chúng ta có quyền pháp lý để thực hiện chiến tranh,” ông nói.
Giải quyết những lo ngại đó là quan trọng, các quan chức nói, bởi sự khác biệt trong cách Washington và Bắc Kinh quản lý tài năng trí tuệ nhân tạo. Trung Quốc có thể bắt buộc các chuyên gia làm việc trên các vấn đề quân sự, trong khi Hoa Kỳ phải tìm cách làm cho những chuyên gia bên ngoài quan tâm và hấp dẫn.
“Họ phải chọn làm việc với chúng tôi, nên chúng tôi cần phải đưa ra một cam kết có ý nghĩa, có thể kiểm chứng được rằng có cơ hội thực sự làm việc với chúng tôi, nơi họ có thể cảm thấy tự tin rằng họ là những người tốt,” Marcuse nói.
Mặc dù ông sẵn sàng thảo luận về các ràng buộc tiềm năng trong việc sử dụng trí tuệ nhân tạo, Marcuse nói rằng ông không nghĩ hội đồng sẽ cố gắng thay đổi chính sách hiện tại của Bộ Quốc phòng về vũ khí tự động dựa trên trí tuệ nhân tạo, được đặt ra bởi chính quyền Obama vào năm 2012.
Chính sách đó, đã trải qua một sửa đổi kỹ thuật nhỏ bởi chính quyền Trump vào tháng 5 năm 2017, không ngăn cản quân đội sử dụng trí tuệ nhân tạo trong bất kỳ hệ thống vũ khí nào của mình. Nó yêu cầu chỉ huy có “mức độ phán đoán của con người phù hợp” đối với bất kỳ hệ thống vũ khí nào được tích hợp trí tuệ nhân tạo, mặc dù cụm từ này không được định nghĩa cụ thể hơn và vẫn là nguồn nhầm lẫn trong Bộ Quốc phòng, theo nhiều quan chức ở đó.
Tuy nhiên, nó đòi hỏi trước khi máy tính có thể được lập trình để thực hiện hành động chết người, hệ thống vũ khí chứa nó phải trải qua một đánh giá đặc biệt của ba quan chức cấp cao của Bộ Quốc phòng - trước khi mua. Đến nay, đánh giá đặc biệt đó chưa được tiến hành.
Vào cuối năm 2016, trong những ngày cuối cùng của chính quyền Obama, Bộ Quốc phòng xem xét lại chính sách năm 2012 và quyết định trong một bản báo cáo bí mật rằng không cần thay đổi lớn, theo một cựu quan chức quốc phòng biết về chi tiết. “Không có gì bị giữ lại, không có ai nghĩ, ‘Ôi chúng ta phải cập nhật các chỉ thị,’” cựu quan chức nói.
Tuy nhiên, chính quyền Trump nội bộ vẫn đã thảo luận về việc làm cho rõ ràng hơn với các kỹ sư vũ khí trong quân đội—mà nó lo ngại đã do dự trong việc tích hợp trí tuệ nhân tạo vào thiết kế của họ—rằng chính sách không cấm việc sử dụng tính tự động trong các hệ thống vũ khí. Mâu thuẫn ở Silicon Valley về Dự án Maven ít nhất là tạm dừng cuộc thảo luận đó, khiến các lãnh đạo của bộ trước hết cố gắng giành được sự ủng hộ của Hội đồng Đổi mới Quốc phòng.
Nhưng bằng cách nào đó, Bộ Quốc phòng dự định tích hợp thêm trí tuệ nhân tạo vào vũ khí của mình. “Chúng tôi sẽ không ngồi nhìn từ xa khi một công nghệ mới cách mạng hóa chiến trường,” Marcuse nói. “Điều này không công bằng với nhân dân Mỹ, không công bằng với các thành viên của dịch vụ chúng tôi gửi vào đường nguy hiểm, và không công bằng với những đồng minh phụ thuộc vào chúng tôi.”
Trung tâm Truyền thông Công cộng là một tổ chức tin tức điều tra phi lợi nhuận, không đảng phái tại Washington, DC. Bạn có thể tìm thấy thêm thông tin về báo cáo an ninh quốc gia của nó tại đây.
Những bài viết tuyệt vời khác từ Mytour
- Alexa đã trưởng thành trong năm nay, chủ yếu là do chúng ta đã nói chuyện với nó
- 8 nhà văn khoa học viễn tưởng tưởng tượng về tương lai công việc táo bạo và mới mẻ
- Sự cuộc đua điên đảo cho viên thiên thạch được săn đón nhất thế giới
- Galileo, krypton, và cách chiều dài đo thực sự đã ra đời
- Mọi thứ bạn muốn biết về hứa hẹn của 5G
- 👀 Đang tìm kiếm những thiết bị công nghệ mới nhất? Kiểm tra các lựa chọn của chúng tôi, hướng dẫn mua sắm và các ưu đãi tốt nhất suốt cả năm
- 📩 Nhận thêm thông tin nội bộ của chúng tôi với bản tin hàng tuần Backchannel của chúng tôi
