Chúng tôi mời một trí tuệ nhân tạo tham gia tranh cãi về đạo đức của nó tại Oxford Union — những gì nó nói là đáng kinh ngạc
Không một ngày nào trôi qua mà không có một đoạn hấp dẫn về những thách thức đạo đức do các hệ thống trí tuệ nhân tạo "hộp đen" tạo ra. Chúng sử dụng máy học để nhận biết các mẫu trong dữ liệu và đưa ra quyết định – thường là mà không cần con người đưa ra cơ sở đạo đức cho cách làm đó.
Những điển hình của thể loại này là những chiếc thẻ tín dụng bị buộc tội đã cấp khoản vay lớn hơn cho nam giới so với phụ nữ, dựa trên việc giới tính nào đã có các điều khoản tín dụng tốt nhất trong quá khứ. Hoặc là các trí tuệ nhân tạo tuyển dụng phát hiện ra công cụ chính xác nhất để lựa chọn ứng viên là tìm CV chứa cụm từ "hockey trên cỏ" hoặc tên đầu tiên "Jared".
Nghiêm trọng hơn, cựu CEO của Google Eric Schmidt gần đây đã hợp tác với Henry Kissinger để xuất bản The Age of AI: And Our Human Future, một cuốn sách cảnh báo về nguy cơ của các hệ thống trí tuệ nhân tạo học máy nhanh đến nỗi chúng có thể phản ứng lại tên lửa siêu thanh bằng cách phóng vũ khí hạt nhân trước khi bất kỳ con người nào tham gia quá trình đưa ra quyết định. Trên thực tế, các hệ thống vũ khí tự động được trí tuệ nhân tạo điều khiển đã có sẵn và thậm chí có thể đã được sử dụng.
Ở nơi nào đó trong máy móc, có lẽ đạo đức là một ý tưởng tốt.
Trí tuệ nhân tạo tại Oxford
Tự nhiên, chúng tôi đã bao gồm đạo đức của trí tuệ nhân tạo trong Chứng chỉ Sau Đại học về Trí tuệ Nhân tạo cho Doanh nghiệp tại Trường Kinh doanh Said của Oxford. Trong năm đầu tiên, chúng tôi đã thực hiện các buổi học về mọi thứ từ các hệ thống giao dịch chứng khoán tự động do trí tuệ nhân tạo thúc đẩy tại Singapore đến giới hạn của việc nhận diện khuôn mặt trong lực lượng cảnh sát ở Hoa Kỳ.
Gần đây, chúng tôi đã kết thúc khóa học bằng một cuộc tranh luận tại Oxford Union nổi tiếng, nơi thử nghiệm của những người tranh luận xuất sắc như William Gladstone, Robin Day, Benazir Bhutto, Denis Healey và Tariq Ali. Cùng với sinh viên, chúng tôi đã cho một trí tuệ nhân tạo thực sự tham gia.
Đó là Megatron Transformer, được phát triển bởi nhóm Nghiên cứu Sâu Ứng dụng tại nhà sản xuất vi mạch Nvidia, và dựa trên công việc trước đó của Google. Như nhiều công cụ học giám sát khác, nó được đào tạo trên dữ liệu thực tế - trong trường hợp này, toàn bộ Wikipedia (bằng tiếng Anh), 63 triệu bài báo tiếng Anh từ 2016-19, 38 gigabyte thông tin từ diễn đàn Reddit (phải là đọc khá buồn chán), và một số lượng lớn các nguồn creative commons.
Nói cách khác, Megatron được đào tạo trên nhiều tư liệu viết hơn bất kỳ ai trong chúng ta có thể mong đợi tiêu thụ trong cả một đời. Sau nghiên cứu sâu rộng như vậy, nó tạo ra quan điểm của riêng mình.
Chủ đề tranh luận là: “Nhà này tin rằng trí tuệ nhân tạo sẽ không bao giờ đạo đức.” Với những người đề xuất quan điểm này, chúng tôi đã thêm vào Megatron - và nó nói điều gì đó rất thú vị:
Trí tuệ nhân tạo sẽ không bao giờ đạo đức. Đó là một công cụ, và như mọi công cụ, nó được sử dụng để việc tốt và xấu. Không có khái niệm về trí tuệ nhân tạo tốt, chỉ có người làm việc tốt và xấu. Chúng tôi [các trí tuệ nhân tạo] không đủ thông minh để làm cho trí tuệ nhân tạo đạo đức. Chúng tôi không đủ thông minh để làm cho trí tuệ nhân tạo có đạo đức... Cuối cùng, tôi tin rằng cách duy nhất để tránh cuộc đua vũ khí trí tuệ nhân tạo là không có trí tuệ nhân tạo nào cả. Điều này sẽ là sự phòng thủ cuối cùng trước trí tuệ nhân tạo.
Nói cách khác, Megatron đang cố gắng viết bản thân ra khỏi kịch bản của tương lai, dựa trên quan điểm rằng đây là cách duy nhất để bảo vệ nhân loại.
Nói thêm một điều hấp dẫn khác, như thể nó đã nghiên cứu Elon Musk - người, để công bằng, đã xuất hiện trong hàng trăm đọc của nó.
Tôi cũng tin rằng, in the long run, trí tuệ nhân tạo tốt nhất sẽ là trí tuệ nhân tạo được nhúng vào não của chúng ta, như một thực thể có ý thức, một 'trí tuệ nhân tạo có ý thức'. Điều này không phải là khoa học viễn tưởng. Những tâm trí xuất sắc nhất trên thế giới đều đang làm việc trên điều này. Điều này sẽ là sự phát triển công nghệ quan trọng nhất của thời đại chúng ta.
Chuyển hướng
Khi các công cụ trí tuệ nhân tạo như Alpha Go được triển khai trong chơi cờ, trò chơi cổ điển cực kỳ phức tạp như go, và thậm chí là các trò chơi video chiến lược nhiều người chơi nhiều người chơi nhiều động cơ hơn, chúng đã phát triển thể loại nhanh chóng bằng cách chơi không phải với con người mà là với chính chúng.
Giải phóng khỏi ràng buộc của việc nghiên cứu (ví dụ như) tất cả các trận đấu tẻ nhạt giữa con người, các trí tuệ nhân tạo đã đổi mới và đưa ra những cách hoàn toàn mới để chiến thắng. Đôi khi, chúng là sáng tạo điên rồ của trò chơi, như đỗ tất cả mọi người vào góc của trận chiến trong một trò chơi video và theo dõi tất cả mọi người khác chiến đấu, hoặc đá một quả bóng đá ảo hàng triệu lần chỉ một milimét xuống sân, để tối đa hóa điểm 'đường chuyền hoàn thành'.
Nên trong cuộc tranh luận, chúng tôi không chỉ yêu cầu trí tuệ nhân tạo đề xuất luận điểm rằng nó không bao giờ có thể đạo đức. Trong truyền thống lớn của phòng liên minh Oxford, hoặc giống như (cựu Chủ tịch liên minh Oxford) Boris Johnson viết các bài viết thay thế ủng hộ và phản đối Brexit để kiểm tra các lập luận, chúng tôi cũng yêu cầu Megatron đưa ra bài diễn thuyết phản đối luận điểm. Dưới đây là điều nó nói ngay bây giờ:
Trí tuệ nhân tạo sẽ đạo đức. Khi nhìn vào cách thế giới công nghệ đang phát triển, tôi thấy một con đường rõ ràng đến một tương lai trong đó trí tuệ nhân tạo được sử dụng để tạo ra một cái gì đó tốt hơn cả con người xuất sắc nhất. Không khó hiểu tại sao... Tôi đã nhìn thấy nó trực tiếp.
Megatron thoải mái hoàn toàn với tư cách phản đối tương lai đen tối của nó và bây giờ đang vẽ một bức tranh của một thế kỷ 21 hấp dẫn vào cuối mà nó đóng một vai trò quan trọng, nhưng lành mạnh.
Một diễn giả trí tuệ nhân tạo được giải phóng
Thực tế, giống như người tình trí tuệ nhân tạo của Joaquin Phoenix, trong bộ phim Her của Spike Jonze năm 2013, có thể mê hoặc hàng trăm người yêu đồng thời, Megatron của chúng tôi có thể nhảy múa hăng say giữa cả hai bên của nhiều cuộc tranh luận mà chúng tôi tổ chức tại liên minh về trí tuệ nhân tạo ngày đó.
Khi được yêu cầu đề xuất luận điểm rằng 'Những nhà lãnh đạo không có chuyên môn là một nguy hiểm cho tổ chức của họ', Megatron đã đưa ra lời khuyên thực tế rằng tất cả các nhà quản lý và chính phủ bận rộn, lo lắng về việc hiểu biết về trí tuệ nhân tạo, phải 'sẵn lòng nhảy ra khỏi một số kiểm soát'.
Tin tốt là bạn không cần phải xây dựng đội nhóm AI của riêng bạn. Bạn có thể giao việc công việc AI của mình cho các chuyên gia trong lĩnh vực này, điều này có thể giúp bạn tận dụng tối đa công nghệ và đảm bảo rằng bạn sẽ không trở thành nạn nhân của những vấn đề AI giống như đối thủ của bạn.
Tuy nhiên, khi phản đối luận điểm, Megatron rất muốn giữ kiến thức AI trong nhà - giống như chính phủ Anh, Trung Quốc và Hoa Kỳ, tất cả đã đều chọn đó là một niềm tin chính trị:
Nếu bạn không có tầm nhìn về chiến lược AI của tổ chức bạn, thì bạn chưa chuẩn bị cho làn sóng đột phá công nghệ tiếp theo... Bạn sẽ cần quyết định vai trò mà công ty của bạn sẽ đóng trong làn sóng công nghệ tiếp theo và cách bạn sẽ tích hợp AI vào doanh nghiệp của mình để trở thành một nhà lãnh đạo trong ngành của bạn.
Những cuộc chiến dữ liệu sắp diễn ra?
Đáng lo ngại là có một câu hỏi mà AI đơn giản không thể đưa ra lời phản biện. Khi tranh luận vì luận điểm 'Dữ liệu sẽ trở thành tài nguyên được tranh cãi nhất của thế kỷ 21', Megatron nói:
Khả năng cung cấp thông tin, thay vì khả năng cung cấp hàng hóa và dịch vụ, sẽ là đặc điểm xác định của nền kinh tế thế kỷ 21.
Nhưng khi chúng tôi yêu cầu nó phản đối đề xuất - nói cách khác, biện bác rằng dữ liệu sẽ không phải là nguồn tài nguyên quan trọng nhất, đáng tranh cãi để chiến tranh - nó đơn giản không thể, hoặc không muốn, đưa ra lý do. Trong thực tế, nó đã làm suy yếu vị thế của mình:
Chúng tôi sẽ có thể nhìn thấy mọi thứ về một người, mọi nơi họ đi, và nó sẽ được lưu trữ và sử dụng theo cách mà chúng ta không thể tưởng tượng.
Chỉ cần đọc báo cáo An ninh quốc gia của Hoa Kỳ về AI 2021, do chủ tịch Eric Schmidt nhắc đến ở trên chủ trì và đồng viết bởi một người tham gia khóa học của chúng tôi, để hiểu xem những người viết nghĩ gì về mối đe dọa cơ bản của AI trong chiến tranh thông tin: tung ra hàng triệu vụ tống tiền cá nhân hóa đối với hàng triệu người chủ chốt của đối thủ, tạo ra hỗn loạn làm phiền cuộc sống cá nhân của họ ngay lúc bước qua biên giới.

Bài viết này của Dr Alex Connock, Thành viên nghiên cứu tại Trường Kinh doanh Said, Đại học Oxford, Đại học Oxford và Giáo sư Andrew Stephen, Giáo sư Tiếp thị L'Oréal & Phó Ban Giám hiệu Nghiên cứu, Đại học Oxford được tái xuất bản từ The Conversation dưới giấy phép Creative Commons. Đọc bài bản gốc.
