
Tháng 10 năm 2019, Idaho đề xuất thay đổi chương trình Medicaid của mình. Bang cần sự chấp thuận từ chính phủ liên bang, đã yêu cầu ý kiến phản hồi từ cộng đồng qua trang Medicaid.gov.
Khoảng 1,000 ý kiến được gửi đến. Nhưng một nửa không phải từ công dân quan tâm hoặc thậm chí là những troll trực tuyến. Chúng được tạo ra bởi trí tuệ nhân tạo. Và một nghiên cứu cho thấy người ta không thể phân biệt ý kiến thật và ý kiến giả mạo.
Dự án này là công việc của Max Weiss, một sinh viên tài năng về công nghệ tại Harvard, nhưng không nhận được nhiều sự chú ý vào thời điểm đó. Bây giờ, với hệ thống ngôn ngữ AI phát triển nhanh chóng, có người nói rằng chính phủ và các công ty internet cần phải suy nghĩ lại cách họ thu thập và lọc ý kiến để bảo vệ trước sự can thiệp của văn bản deepfake và các tác động khác của trí tuệ nhân tạo.
“Việc mà một bot có thể dễ dàng tạo và gửi văn bản phù hợp giả mạo tiếng nói của con người trên các trang web chính phủ là điều đáng ngạc nhiên và quan trọng để biết,” nói Latanya Sweeney, một giáo sư tại Học viện Kennedy của Harvard, người đã tư vấn cho Weiss về cách thức thực hiện thí nghiệm một cách đạo đức.
Sweeney nói rằng vấn đề này không chỉ giới hạn trong lĩnh vực dịch vụ chính phủ, nhưng quan trọng là các cơ quan công cộng phải tìm ra giải pháp. “Trí tuệ nhân tạo có thể làm cho tiếng nói của con người trở nên yếu đuối,” bà nói. “Trang web chính phủ phải thay đổi.”
Trung tâm Dịch vụ Bảo hiểm y tế và Medicaid cho biết họ đã thêm các biện pháp bảo vệ mới vào hệ thống ý kiến công cộng như phản ứng với nghiên cứu của Weiss, mặc dù họ từ chối thảo luận chi tiết. Weiss cho biết ông đã được Liên minh Dịch vụ Tổng hợp Hoa Kỳ liên lạc, đang phát triển một phiên bản mới của trang web chính phủ liên bang để xuất bản quy định và ý kiến, về cách bảo vệ tốt hơn khỏi ý kiến giả mạo.
Hệ thống chính phủ đã làm mục tiêu của các chiến dịch ảnh hưởng tự động trước đây. Năm 2017, các nhà nghiên cứu phát hiện rằng hơn một triệu ý kiến được gửi đến Ủy ban Truyền thông Liên bang liên quan đến kế hoạch hủy bỏ quy tắc về net neutrality đã được tạo tự động, với một số cụm từ được sao chép và dán vào các thông điệp khác nhau.
Dự án của Weiss đặt ra một mối đe dọa nghiêm trọng hơn. Có sự tiến triển đáng kể trong việc áp dụng Trí tuệ Nhân tạo vào ngôn ngữ trong những năm gần đây. Khi các thuật toán máy học mạnh mẽ được cung cấp lượng lớn dữ liệu đào tạo—dưới dạng sách và văn bản thu thập từ web—chúng có thể tạo ra các chương trình có khả năng tạo ra văn bản thuyết phục. Ngoài các ứng dụng hữu ích đa dạng, điều này nâng cao khả năng thông điệp, ý kiến và bài đăng trên internet có thể dễ dàng và ít phát hiện hơn bị làm giả.
“Khi công nghệ trở nên tốt hơn,” Sweeney nói, “các không gian diễn đạt của con người trở nên dễ bị thao túng mà không có sự nhận biết từ con người rằng điều đó đã xảy ra.” Weiss làm việc tại một tổ chức bảo vệ quyền lợi người tiêu dùng trong mùa hè năm 2019 khi ông biết về quy trình phản hồi công cộng cần thiết để thay đổi Medicaid. Biết rằng những ý kiến công cộng này đã làm thay đổi những nỗ lực trước đó để thay đổi chương trình Medicaid của các bang, Weiss tìm kiếm các công cụ có thể tự động tạo ra ý kiến.
“Tôi đã bất ngờ khi chỉ thấy có nút gửi đứng giữa ý kiến của bạn và việc trở thành một phần của hồ sơ công cộng,” ông nói.

Weiss khám phá ra GPT-2, một chương trình được phát hành vào đầu năm đó bởi OpenAI, một công ty Trí tuệ Nhân tạo tại San Francisco, và nhận ra rằng ông có thể tạo ra ý kiến giả mạo để mô phỏng sự phổ biến của dư luận. “Tôi cũng bất ngờ về việc làm thế nào để điều chỉnh GPT-2 để thực sự tạo ra các ý kiến,” Weiss nói. “Điều này làm tôi lo lắng ở nhiều khía cạnh khác nhau.”
Ngoài công cụ tạo ý kiến, Weiss xây dựng phần mềm để tự động gửi ý kiến. Ông cũng tiến hành một thí nghiệm trong đó những người tình nguyện được yêu cầu phân biệt giữa các ý kiến được tạo ra bởi trí tuệ nhân tạo và những ý kiến được viết bởi con người. Những người tình nguyện không có hiệu suất tốt hơn so với việc đoán ngẫu nhiên.
Sau khi gửi ý kiến, Weiss thông báo cho Trung tâm Dịch vụ Bảo hiểm y tế và Medicaid. Ông đã thêm một số ký tự để dễ dàng nhận biết mỗi ý kiến giả mạo. Tuy nhiên, anh nói, phản hồi của Trí tuệ nhân tạo vẫn được đăng trực tuyến trong vài tháng.
OpenAI phát hành một phiên bản có khả năng mạnh mẽ hơn của chương trình tạo văn bản của mình, được gọi là GPT-3, vào tháng 6 năm ngoái. Cho đến nay, chỉ có một số nghiên cứu và công ty Trí tuệ nhân tạo mới được sử dụng, với một số người xây dựng các ứng dụng hữu ích như chương trình tạo email từ điểm chính. Khi GPT-3 được phát hành, OpenAI nói trong một bài báo nghiên cứu rằng họ không thấy dấu hiệu của việc sử dụng GPT-2 một cách ác ý, mặc dù họ đã biết đến nghiên cứu của Weiss.
OpenAI và các nhà nghiên cứu khác đã phát hành một số công cụ có khả năng nhận diện văn bản do trí tuệ nhân tạo tạo ra. Chúng sử dụng các thuật toán trí tuệ nhân tạo tương tự để phát hiện các dấu hiệu nổi bật trong văn bản. Không rõ liệu có ai sử dụng chúng để bảo vệ nền tảng bình luận trực tuyến hay không. Facebook từ chối thông báo về việc họ có sử dụng các công cụ như vậy hay không; Google và Twitter không đáp lại yêu cầu bình luận.
Cũng không rõ liệu các công cụ trí tuệ nhân tạo phức tạp đã được sử dụng để tạo ra nội dung giả mạo hay chưa. Vào tháng 8, các nhà nghiên cứu tại Google đăng thông tin chi tiết về một thí nghiệm sử dụng các công cụ phát hiện văn bản deepfake để phân tích hơn 500 triệu trang web. Họ phát hiện rằng các công cụ có thể nhận diện các trang chứa văn bản tự động tạo ra và spam. Nhưng không rõ liệu bất kỳ nội dung nào được tạo ra bằng các công cụ trí tuệ nhân tạo như GPT-2 hay không.
Renée DiResta, quản lý nghiên cứu tại Quan sát Internet Stanford, theo dõi lạm dụng trực tuyến, nói rằng cô mong đợi các trang web của chính phủ sẽ bị nhắm đến bởi văn bản giả mạo. “Mỗi khi có công nghệ mới, nó là một công cụ trong tay một số người và là một vũ khí trong tay người khác,” cô nói.
Thông tin sai lệch với động cơ chính trị đã trở thành một vấn đề quan trọng trong chính trị Mỹ. Joan Donovan, giám đốc nghiên cứu của Trung tâm Shorenstein về Truyền thông, Chính trị và Chính sách Công cộng tại Học viện Kennedy của Harvard, cảnh báo rằng có thể không cần sử dụng Trí tuệ Nhân tạo phức tạp để làm suy giảm giác quan về sự thật của người dân. “Tâm trạng của người dân đang căng trải, điều này làm cho họ trở nên rất dễ tổn thương trước những giải thích thuận tiện thay vì sự thật khó khăn,” Donovan nói.
Những bài viết tuyệt vời khác trên Mytour
- 📩 Muốn cập nhật thông tin mới nhất về công nghệ, khoa học và nhiều hơn nữa? Đăng ký nhận bản tin của chúng tôi!
- Sự thật đáng sợ về người đi bộ “Mostly Harmless”
- AlphaGo có thể dạy cho chúng ta về cách con người học
- Đạt được mục tiêu về sức khỏe đạp xe của bạn bằng cách sửa chữa xe đạp của bạn
- 6 sự thay thế tập trung vào quyền riêng tư cho các ứng dụng bạn sử dụng hàng ngày
- Vắc xin đã đến. Chúng ta cần phải nói về các tác dụng phụ
- 🎮 Mytour Games: Nhận những mẹo, đánh giá và nhiều hơn nữa
- 🏃🏽♀️ Muốn có những công cụ tốt nhất để trở nên khỏe mạnh? Xem xét lựa chọn của đội ngũ Gear chúng tôi cho những bộ theo dõi sức khỏe tốt nhất, đồ đạp (bao gồm giày và tất chạy), và tai nghe tốt nhất
