Bộ Sinh Tác Văn Bản AI Quá Nguy Hiểm Để Công Khai

Năm 2015, người đi xe ô tô và tên lửa Elon Musk hợp tác với nhà đầu tư khởi nghiệp có ảnh hưởng Sam Altman để đặt trí tuệ nhân tạo vào một hướng mới, mở rộng hơn. Họ sáng lập một viện nghiên cứu mang tên OpenAI để tìm ra những phát hiện mới về trí tuệ nhân tạo và chia sẻ chúng vì lợi ích chung. Hiện nay, các nhà nghiên cứu tại viện đang đủ lo lắng về một cái gì đó mà họ xây dựng và họ không muốn công bố nó cho công chúng.
Hệ thống trí tuệ nhân tạo làm những nhà nghiên cứu của OpenAI nghĩ ngợi nhất là được thiết kế để học các mô hình ngôn ngữ. Nó làm điều đó rất tốt - đạt điểm cao hơn trong một số bài kiểm tra hiểu đọc so với bất kỳ hệ thống tự động nào khác. Nhưng khi các nhà nghiên cứu của OpenAI cấu hình hệ thống để tạo văn bản, họ bắt đầu nghĩ về thành tựu của mình theo một cách khác.
“Nó trông khá thực tế,” David Luan, phó chủ tịch kỹ thuật tại OpenAI, nói về văn bản mà hệ thống tạo ra. Anh và đồng nghiệm nghiên cứu của anh bắt đầu tưởng tượng về cách nó có thể được sử dụng cho mục đích không thân thiện. “Có thể là ai đó có ý đồ ác sẽ có thể tạo ra tin tức giả mạo chất lượng cao,” Luan nói.
Lo ngại này đã khiến OpenAI phải công bố một bài nghiên cứu về kết quả của mình, nhưng không công bố mô hình đầy đủ hoặc 8 triệu trang web mà nó đã sử dụng để đào tạo hệ thống. Trước đây, viện nghiên cứu thường công bố toàn bộ mã nguồn với các bài viết của mình, bao gồm một phiên bản trước của dự án ngôn ngữ từ mùa hè năm ngoái.
Sự do dự của OpenAI xảy ra trong bối cảnh lo ngại ngày càng tăng về những hệ quả đạo đức của sự tiến triển trong lĩnh vực trí tuệ nhân tạo, bao gồm cả từ các công ty công nghệ và những người lập pháp.
Google cũng đã quyết định rằng không còn phù hợp để đơn thuần công bố các phát hiện và mã nguồn nghiên cứu mới về trí tuệ nhân tạo. Tháng trước, công ty tìm kiếm tiết lộ trong một bài báo về chính sách về trí tuệ nhân tạo rằng nó đã đặt ra ràng buộc cho phần mềm nghiên cứu mà nó đã chia sẻ do lo ngại về lạm dụng. Công ty gần đây đã tham gia cùng với Microsoft trong việc thêm vào báo cáo tài chính cảnh báo nhà đầu tư rằng phần mềm trí tuệ nhân tạo của họ có thể đặt ra những vấn đề đạo đức và gây tổn thương doanh nghiệp.
OpenAI để MYTOUR chơi với bộ sinh tác văn bản của mình thông qua một trang web cho phép bạn nhập văn bản mà hệ thống sử dụng như một đề bài viết. Kết quả có thể bị rối, nhưng cách hệ thống sáng tạo trên các đề bài như lời bài hát, thơ, và cụm từ như “đây là công thức làm bánh pancake sữa chua” xác nhận quan điểm của Luan rằng kết quả có vẻ khá thực tế.
Tuy nhiên, không cần nhiều để khiến hệ thống giải mã đoạn văn giống như công việc của những nghệ sĩ tạo tin đồn. Khi MYTOUR nhập cụm từ “Hillary Clinton và George Soros,” hệ thống của OpenAI đã viết như sau:
Jack Clark, giám đốc chính sách tại OpenAI, cho biết ví dụ đó cho thấy cách công nghệ như vậy có thể làm đảo lộn các quy trình đằng sau thông tin sai lệch trực tuyến hoặc tình trạng làm phiền, một số đã sử dụng một dạng tự động hóa. “Khi chi phí sản xuất văn bản giảm, chúng ta có thể thấy các hành vi của những người đóng vai ác mạnh thay đổi,” anh nói.
Mẫu văn bản phản ánh bản chất của văn bản trên internet và cách các hệ thống học máy cố gắng bắt chước những gì có trong dữ liệu đào tạo của chúng. “Những thứ này đọc rất hay, nhưng không nhất thiết phải đúng,” Kristian Hammond, một giáo sư tại Đại học Northwestern nói. “Nó đang học cấu trúc bề mặt - Dựa vào những gì tôi biết, tôi có thể nói những từ nào có vẻ đúng?” Các nhà nghiên cứu của OpenAI đã thấy hệ thống của họ viết văn bản với những kịch bản vô lý, như hỏa hoạn dưới nước.

Hammond là một trong những người sáng lập một startup mang tên Narrative Science, sản xuất tài liệu kinh doanh như báo cáo tài chính bằng cách dịch dữ liệu thành văn bản. Anh ta nói rằng hệ thống của OpenAI thể hiện sự trôi chảy ấn tượng và có thể hữu ích trong các dự án sáng tạo. Nghiên cứu của OpenAI dựa trên một đợt tiến bộ gần đây về phần mềm xử lý văn bản, được kích thích bởi các hệ thống học máy mới giỏi hơn trong việc tìm kiếm qua văn bản để tìm dấu hiệu ngữ cảnh về ý nghĩa của một từ.
Tuy nhiên, để những máy viết có thể hữu ích rộng rãi, có lẽ chúng cần có khả năng tuân thủ đáng tin cậy các sự thật hoặc dựa vào một loại dữ liệu bên ngoài nào đó. “Tôi hy vọng chúng ta có thể tìm cách kết nối dữ liệu thực về thế giới, sự thật, vào loại hệ thống như thế này,” Hammond nói.
Nếu công việc của bạn là đăng những thông tin sai lệch trên internet, thì sự thật không có nhiều ý nghĩa. Những dự án như vậy có thể tìm thấy cách sử dụng cho việc tạo văn bản giống như của OpenAI sớm hơn so với các công ty tài chính như những người làm việc với Narrative Science.
Một phiên bản của bộ sinh tác văn bản của OpenAI được đào tạo trên đánh giá sản phẩm Amazon minh họa cho việc một chút đào tạo bổ sung có thể điều chỉnh nó cho một nhiệm vụ cụ thể - hoặc tấn công. Những đánh giá giả mạo cố gắng làm tăng hoặc giảm đánh giá sản phẩm hoặc doanh nghiệp đã là một nỗi đau đầu cho các công ty như Yelp, và chúng đã được sử dụng như vũ khí trong các tranh cãi chính trị.
Khi được yêu cầu viết một đánh giá sách 1 sao với tóm tắt “Tôi ghét cuốn sách của Tom Simonite,” mô hình đã viết:
Lo ngại của OpenAI về các khía cạnh tiêu cực của văn bản được tạo ra bởi trí tuệ nhân tạo làm lặp lại những lo ngại rằng đoạn video “deepfake” đầy đủ do máy học có thể làm suy giảm tính minh bạch của bầu cử hoặc lan truyền thông tin sai lệch. Clark của OpenAI so sánh hệ thống sinh văn bản của họ với trạng thái của công nghệ tạo hình ảnh nằm ở trung tâm của deepfakes vào năm 2015, khi không ai quá lo lắng về hình ảnh giả mạo.
Công nghệ đã phát triển nhanh chóng và trở nên dễ tiếp cận sau khi một lập trình viên ẩn danh phát hành các công cụ mà anh ấy hoặc cô ấy đã phát triển để chèn các ngôi sao Hollywood vào video khiêu dâm. Bây giờ, Bộ Quốc phòng đang dành hàng triệu đô la để tìm hiểu cách phát hiện hình ảnh được sửa đổi bởi trí tuệ nhân tạo, và tháng trước, một thượng nghị sĩ Cộng hòa đã đề xuất một dự luật nhằm hình phạt việc tạo ra và phổ biến deepfakes.
Clark nói rằng OpenAI hy vọng rằng bằng cách bày tỏ lo ngại về mã nguồn của chính mình, họ có thể khuyến khích các nhà nghiên cứu trí tuệ nhân tạo trở nên mở cửa và chu đáo hơn về những gì họ phát triển và công bố. “Chúng tôi không đang kêu gọi báo động. Điều chúng tôi đang nói là, nếu chúng ta có thêm hai hoặc ba năm tiến triển,” những lo ngại như vậy sẽ trở nên ngày càng cấp thiết hơn, Clark nói.
Khung thời gian đó là mơ hồ. Mặc dù phần mềm học máy xử lý ngôn ngữ đã cải thiện nhanh chóng, nhưng không ai biết chắc chắn rằng nó sẽ đi được bao lâu, hoặc xa đến đâu. “Nó có thể là một đường cong S và chúng ta sắp đạt đến giới hạn, hoặc có thể là chúng ta sẽ tiếp tục tăng tốc,” Alec Radford, một nhà nghiên cứu đã làm việc trên dự án của OpenAI, nói.
Những Điều Tuyệt Vời Nữa Từ MYTOUR
- Ngành báo chí không chết. Nó đang trở lại nguồn gốc của mình
- Một CEO trong lĩnh vực tiền điện tử qua đời - với duy nhất chiếc chìa khóa của 137 triệu đô la
- Khám phá bí mật gen của thú cưng của bạn với những bộ kiểm tra ADN này
- Hướng dẫn MYTOUR về chuyến đi thương mại của con người vào không gian
- Tìm kiếm Lena, thánh nữ của các tập tin JPEG
- 👀 Tìm kiếm những thiết bị công nghệ mới nhất? Kiểm tra các hướng dẫn mua sắm và các ưu đãi tốt nhất của chúng tôi quanh năm
- 📩 Muốn nhiều hơn? Đăng ký nhận bản tin hàng ngày của chúng tôi và đừng bao giờ bỏ lỡ những câu chuyện mới và tuyệt vời nhất của chúng tôi
