Mỗi khi bạn đăng một bức ảnh, phản hồi trên mạng xã hội, tạo một trang web, hoặc có thể thậm chí gửi một email, dữ liệu của bạn được thu thập, lưu trữ và sử dụng để huấn luyện công nghệ trí tuệ nhân tạo tạo văn bản, âm thanh, video, và hình ảnh chỉ với vài từ. Điều này có hậu quả thực tế: các nhà nghiên cứu của OpenAI đang nghiên cứu tác động của mô hình ngôn ngữ lớn (LLMs) như ChatGPT đến thị trường lao động ước tính rằng khoảng 80% lực lượng lao động của Mỹ có thể gặp ít nhất 10% công việc của họ bị ảnh hưởng, trong khi khoảng 19% công nhân có thể thấy ít nhất một nửa công việc của họ bị ảnh hưởng. Chúng ta đang chứng kiến một sự chuyển đổi ngay lập tức trong thị trường lao động với việc tạo ra hình ảnh, qua đó dữ liệu mà bạn tạo ra có thể khiến bạn mất việc làm.
Khi một công ty xây dựng công nghệ của mình trên một nguồn tài nguyên công cộng - internet - thì hợp lý khi nói rằng công nghệ đó nên được sẵn có và mở cho tất cả mọi người. Nhưng các nhà phê bình lưu ý rằng GPT-4 thiếu thông tin hoặc thông số rõ ràng nào cho phép bất kỳ ai bên ngoài tổ chức có thể tái tạo, kiểm tra, hoặc xác minh bất kỳ khía cạnh nào của mô hình. Một số công ty này đã nhận số tiền lớn từ các tập đoàn lớn khác để tạo ra các sản phẩm thương mại. Đối với một số người trong cộng đồng AI, điều này là một dấu hiệu nguy hiểm cho thấy các công ty này sẽ tìm kiếm lợi nhuận hơn lợi ích công cộng.
Mức độ minh bạch của mã nguồn không đủ để đảm bảo rằng những mô hình AI tạo sinh như vậy phục vụ lợi ích công cộng. Có ít lợi ích ngay lập tức có thể nhìn thấy đối với một nhà báo, nhà phân tích chính sách hoặc kế toán viên (tất cả đều là ngành nghề 'tiếp xúc cao' theo nghiên cứu của OpenAI) nếu dữ liệu cơ sở của một mô hình LLM có sẵn. Chúng ta ngày càng có luật pháp, như Digital Services Act, yêu cầu một số công ty này mở mã nguồn và dữ liệu của họ để được kiểm tra bởi chuyên gia. Mã nguồn mở đôi khi cũng có thể tạo điều kiện cho những kẻ tấn công độc ác, cho phép hacker phá vỡ các biện pháp an toàn mà các công ty đang xây dựng. Minh bạch là một mục tiêu đáng ghi nhận, nhưng chính điều đó không đảm bảo rằng AI tạo sinh sẽ được sử dụng để cải thiện xã hội.
Để thực sự tạo ra lợi ích công cộng, chúng ta cần các cơ chế chịu trách nhiệm. Thế giới cần một tổ chức quản trị toàn cầu về AI tạo sinh để giải quyết những rối loạn xã hội, kinh tế và chính trị vượt ra ngoài khả năng của bất kỳ chính phủ nào, của bất kỳ nhóm học thuật hoặc xã hội dân sự nào có thể triển khai, hoặc của bất kỳ tập đoàn nào sẵn lòng hoặc có khả năng làm. Đã có tiền lệ cho sự hợp tác toàn cầu của các công ty và quốc gia để tự chịu trách nhiệm với các kết quả công nghệ. Chúng ta có ví dụ về các nhóm và tổ chức chuyên gia độc lập, được tài trợ tốt và có thể ra quyết định thay mặt lợi ích công cộng. Một tổ chức như vậy có nhiệm vụ suy nghĩ về lợi ích cho nhân loại. Hãy xây dựng trên những ý tưởng này để giải quyết những vấn đề cơ bản mà AI tạo sinh đã nảy sinh.
Trong thời kỳ lan rộng của vũ khí hạt nhân sau Thế chiến II, ví dụ như, có sự lo lắng đáng tin cậy và đáng kể về các công nghệ hạt nhân trở nên độc ác. Niềm tin phổ biến rằng xã hội phải hành động cùng nhau để tránh thảm họa toàn cầu làm cho nhiều cuộc thảo luận ngày nay xoay quanh các mô hình AI tạo sinh. Như một phản ứng, các quốc gia trên khắp thế giới, do Mỹ dẫn đầu và dưới sự hướng dẫn của Liên Hợp Quốc, đã tụ họp để thành lập Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA), một tổ chức độc lập không liên kết với chính phủ và doanh nghiệp nào, sẽ cung cấp các giải pháp cho những hậu quả xa rộng và khả năng vô tận của các công nghệ hạt nhân. Nó hoạt động trong ba lĩnh vực chính: năng lượng hạt nhân, an toàn và an ninh hạt nhân, và kiểm soát. Ví dụ, sau thảm họa Fukushima năm 2011, nó cung cấp tài nguyên, giáo dục, kiểm tra và báo cáo tác động quan trọng, và giúp đảm bảo an toàn hạt nhân liên tục. Tuy nhiên, cơ quan này bị hạn chế: Nó phụ thuộc vào các quốc gia thành viên tự nguyện tuân thủ các tiêu chuẩn và hướng dẫn của nó, và vào sự hợp tác và hỗ trợ từ phía họ để thực hiện nhiệm vụ của mình.
Trong lĩnh vực công nghệ, Hội đồng Quản trị của Facebook là một cố gắng làm việc để cân bằng giữa minh bạch và trách nhiệm. Các thành viên Hội đồng là một nhóm toàn cầu đa ngành nghề, và các quyết định của họ, như việc bác bỏ quyết định của Facebook về việc gỡ bỏ một bài đăng miêu tả quấy rối tình dục ở Ấn Độ, có tính ràng buộc. Mô hình này cũng không hoàn hảo; có những cáo buộc về việc tập đoàn chiếm đa số, vì hội đồng được tài trợ hoàn toàn bởi Meta, mặc dù thông qua một quỹ độc lập, và chủ yếu quan tâm đến việc gỡ bỏ nội dung.
Cập nhật vào ngày 4-7-2023, 12:30 giờ chiều theo giờ Đông Dương: Một phiên bản trước của bài viết này đã nêu rằng Hội đồng Giám sát của Facebook chỉ có thể xem xét các trường hợp mà chính Facebook đề cập. và rằng nó không giải quyết các vấn đề hệ thống như thuật toán hoặc chính sách kiểm duyệt. Trên thực tế, người dùng cũng có thể gửi khiếu nại, và Hội đồng đã đưa ra các đề xuất chính sách rộng lớn hơn. Ngoài ra, bài viết này đã được cập nhật để làm rõ rằng Hội đồng Giám sát của Facebook được Meta tài trợ thông qua một quỹ độc lập.
Ý KIẾN Mytour đăng các bài viết của các đóng góp viên bên ngoài đại diện cho nhiều quan điểm khác nhau. Đọc thêm ý kiến tại đây, và xem hướng dẫn gửi bài của chúng tôi tại đây. Gửi một bài viết ý kiến tại [email protected].
