Chatbot AI siêu hot được OpenAI đào tạo từ 300 tỷ từ trực tuyến, và nó là một ác mộng về quyền riêng tư cá nhân.
ChatGPT đã gây sốt trên toàn cầu. Chỉ trong hai tháng sau khi ra mắt, nó đã thu hút 100 triệu người dùng tích cực, biến nó thành ứng dụng tiêu dùng phát triển nhanh nhất từ trước đến nay. Mọi người đều bị cuốn hút bởi khả năng tiên tiến của nó và lo lắng về việc nó có thể thay thế con người trong nhiều lĩnh vực khác nhau.
Tuy nhiên, có một khía cạnh ít được thảo luận hơn về chatbot AI này. Đó là nguy cơ về quyền riêng tư mà ChatGPT có thể mang lại cho mỗi người trong chúng ta. Mới đây, Google đã tiết lộ AI đàm thoại của họ có tên là Bard, và sẽ có nhiều cái tên khác nữa trong tương lai. Các công ty công nghệ đang bước vào cuộc đua vũ trang về AI.
Vấn đề nằm ở dữ liệu cá nhân của chúng ta, của tôi và của bạn.
300 tỷ từ. Bạn có bao nhiêu trong đó?
ChatGPT được xây dựng trên một kiến trúc ngôn ngữ khổng lồ, yêu cầu lượng dữ liệu khổng lồ để hoạt động và cải thiện. Mô hình được huấn luyện trên nhiều dữ liệu hơn để phát hiện ra mẫu tốt hơn và dự đoán chính xác hơn.
OpenAI, công ty đứng sau ChatGPT, đã cung cấp cho công cụ của họ khoảng 300 tỷ từ. Dữ liệu này được thu thập từ nhiều nguồn khác nhau như internet, sách, bài báo, và trang web. Và tất nhiên, dữ liệu cũng bao gồm thông tin cá nhân mà không có sự đồng ý.
Nếu bạn đã từng viết bất kỳ bài đăng nào trên blog, đánh giá sản phẩm hoặc bình luận về một bài báo trực tuyến, có thể thông tin của bạn đã được ChatGPT sử dụng.
Vậy tại sao điều đó là một vấn đề?
Việc thu thập dữ liệu để huấn luyện ChatGPT có vấn đề vì một số lý do sau đây.
Đầu tiên, không có ai được hỏi xin sự đồng ý trước khi OpenAI sử dụng dữ liệu của họ. Điều này là vi phạm rõ ràng đến quyền riêng tư, đặc biệt khi thông tin là nhạy cảm và có thể được sử dụng để nhận dạng cá nhân, gia đình hoặc vị trí.
Ngay cả khi chúng là dữ liệu công khai, việc sử dụng chúng có thể vi phạm tính toàn vẹn của văn bản. Đây là một nguyên tắc quan trọng trong cuộc thảo luận về quyền riêng tư. Nó đòi hỏi thông tin cá nhân không được tiết lộ ra ngoài bối cảnh ban đầu. Đơn giản là bạn không muốn ai đó cắt ghép lời nói hoặc đoạn văn của bạn khi trích dẫn lại, dù trong trường hợp nào.
OpenAI không cung cấp cơ chế cho cá nhân kiểm tra xem công ty có lưu trữ thông tin cá nhân của họ hay không, hoặc có thể yêu cầu xóa nó. Điều này là quan trọng theo GDPR và các quy định khác.
Quyền được quên là quyền được xóa, chỉnh sửa, hoặc hạn chế thông tin liên quan đến cá nhân nếu gây hại hoặc đã lỗi thời. ChatGPT thường đưa ra thông tin không chính xác hoặc gây hiểu lầm.
Dữ liệu sử dụng để huấn luyện ChatGPT có thể có giá trị bản quyền. Công cụ này có thể tạo ra đoạn văn trong các tác phẩm có bản quyền. ChatGPT không xem xét việc bảo vệ bản quyền khi tạo ra kết quả.
OpenAI không trả tiền cho dữ liệu từ internet. Các chủ sở hữu trang web không được bồi thường. Điều này đặc biệt quan trọng khi giá trị của OpenAI tăng lên đến 29 tỷ USD vào năm 2021.
OpenAI cũng vừa công bố ChatGPT Plus, gói đăng ký trả phí sẽ cung cấp quyền truy cập liên tục và ưu tiên vào các tính năng mới. Kế hoạch này dự kiến đóng góp vào doanh thu ước tính 1 tỷ USD vào năm 2024.
Hãy nhớ rằng không con số nào được nhắc tới ở trên nếu không có dữ liệu - dữ liệu của chúng ta - được thu thập và sử dụng mà không có sự cho phép.
Chính sách bảo mật của ChatGPT không đáng tin cậy.
Việc cung cấp dữ liệu dưới dạng lời nhắc hoặc câu hỏi có thể tiết lộ thông tin nhạy cảm và công cụ này sẽ thu nhận và sử dụng nó.
ChatGPT có thể sử dụng dữ liệu người dùng cho mục đích đào tạo và phản hồi.
OpenAI thu thập nhiều loại thông tin người dùng khác nhau, bao gồm địa chỉ IP, loại trình duyệt, và dữ liệu về tương tác của họ với trang web.
OpenAI thu thập thông tin về hoạt động duyệt web của người dùng và có thể chia sẻ thông tin cá nhân của họ với bên thứ ba mà không cần thông báo.
Có nên kiểm soát ChatGPT ngay bây giờ?
ChatGPT được xem là điểm bùng phát của AI và có thể thay đổi cách chúng ta làm việc, học tập và suy nghĩ.
Rủi ro về quyền riêng tư liên quan đến ChatGPT là một cảnh báo cần lưu ý.
Nguồn: Gizmodo