Chatbot AI nổi tiếng được OpenAI huấn luyện dựa trên 300 tỷ từ trên mạng, và nó gây ra lo ngại về việc xâm phạm quyền riêng tư cá nhân.
ChatGPT đã làm náo động cộng đồng toàn cầu. Chỉ trong hai tháng sau khi ra mắt, nó đã thu hút 100 triệu người dùng tích cực, biến nó thành ứng dụng tiêu dùng phát triển nhanh nhất từng có. Mọi người bị lôi cuốn bởi khả năng nâng cao của nó và lo ngại về việc nó có thể thay thế con người trong nhiều lĩnh vực khác nhau.
Tuy nhiên, một khía cạnh ít được bàn luận về chatbot AI này là nguy cơ về quyền riêng tư mà ChatGPT có thể mang lại cho mỗi cá nhân. Mới đây, Google đã công bố AI đàm thoại riêng của họ mang tên là Bard và các đối thủ khác sẽ sớm theo. Các công ty công nghệ đang bước vào cuộc đua vũ trang về AI.
Vấn đề nằm ở việc tất cả đều được dẫn dắt bởi dữ liệu cá nhân của chúng ta, cả bạn và tôi.
300 tỷ từ. Bạn đã đóng góp bao nhiêu?

ChatGPT sẽ theo dõi bạn, một cách bạn không ngờ đến.
ChatGPT được xây dựng và cải thiện bằng một mô hình ngôn ngữ lớn, cần có một lượng dữ liệu lớn để hoạt động. Mô hình được huấn luyện trên nhiều dữ liệu hơn để nhận biết mẫu tốt hơn, dự đoán và tạo ra văn bản hợp lý hơn.
OpenAI, công ty phát triển ChatGPT, đã cung cấp cho công cụ của họ khoảng 300 tỷ từ, thu thập từ internet: sách, bài báo, trang web và bài viết. Điều đó có thể bao gồm thông tin cá nhân mà không có sự đồng ý.
Nếu bạn đã từng viết bài blog, đánh giá sản phẩm hoặc nhận xét về một bài báo trực tuyến, có thể dữ liệu này đã được ChatGPT sử dụng.
Vậy tại sao điều này trở thành vấn đề?
Việc sử dụng dữ liệu để huấn luyện ChatGPT có vấn đề vì một số lý do.
Đầu tiên, không ai được hỏi xin sự đồng ý từ OpenAI để sử dụng dữ liệu của họ. Điều này có thể là vi phạm quyền riêng tư, đặc biệt khi dữ liệu nhạy cảm có thể được sử dụng để nhận dạng cá nhân, gia đình hoặc vị trí.
Ngay cả khi dữ liệu là công khai, việc sử dụng chúng có thể làm mất tính toàn vẹn của văn bản, một nguyên tắc cơ bản trong các cuộc thảo luận pháp lý về quyền riêng tư. Nó yêu cầu thông tin không được tiết lộ ra khỏi ngữ cảnh gốc. Tóm lại, bạn không muốn ai cắt ghép nội dung của bạn mà không được phép, dù là trong bất kỳ tình huống nào.
Ngoài ra, OpenAI không cung cấp bất kỳ quy trình nào cho các cá nhân kiểm tra xem công ty có lưu trữ thông tin riêng tư của họ hay không, hoặc có thể yêu cầu xóa thông tin đó. Đây là quyền được đảm bảo theo Quy định bảo vệ dữ liệu chung của Châu Âu (GDPR) cũng như một số quy định khác.
Tiếp theo là “Quyền được quên”. Đó là quyền được xóa, chỉnh sửa hoặc hạn chế thông tin hoặc liên kết có liên quan đến cá nhân nếu những thông tin này gây hại hoặc không còn cần thiết. Lưu ý rằng, ChatGPT thường xuyên đưa ra các thông tin không chính xác hoặc gây hiểu lầm ra cộng đồng.

Hãy cẩn thận với thông tin mà bạn nhận và cung cấp cho các công cụ AI. Ảnh từ Internet
Hơn nữa, dữ liệu thu thập để sử dụng cho việc huấn luyện ChatGPT có thể là tài sản độc quyền hoặc có bản quyền. Ví dụ, khi được yêu cầu, công cụ này đã tạo ra một số đoạn văn trong các cuốn sách hoặc tiểu thuyết có bản quyền. ChatGPT không quan tâm đến việc bảo vệ bản quyền khi tạo kết quả đầu ra. Nghĩa là, bất kỳ ai sử dụng kết quả đầu ra ở một nơi nào khác, như trong luận văn hoặc tác phẩm của họ, đều có thể vô tình rơi vào tình huống “đạo văn”.
Cuối cùng, OpenAI không thanh toán cho dữ liệu mà họ thu thập từ internet. Các cá nhân, chủ sở hữu trang web và công ty sản xuất nội dung sẽ không nhận được bất kỳ khoản bồi thường nào. Điều này đặc biệt quan trọng khi giá trị của OpenAI đã tăng gấp đôi vào năm 2021, lên đến 29 tỷ USD.
OpenAI cũng mới công bố ChatGPT Plus, gói đăng ký trả phí sẽ cung cấp cho khách hàng quyền truy cập liên tục vào công cụ, với thời gian phản hồi nhanh hơn và quyền truy cập ưu tiên vào các tính năng mới. Dự kiến, kế hoạch này sẽ đóng góp vào doanh thu dự kiến là 1 tỷ USD vào năm 2024.
Hãy nhớ rằng không có con số nào được đề cập ở trên có thể tồn tại nếu không có dữ liệu - dữ liệu của chúng ta - được thu thập và sử dụng mà không có sự cho phép.
Chính sách bảo mật nhạy cảm và linh hoạt của ChatGPT
Một rủi ro khác về quyền riêng tư liên quan đến dữ liệu được cung cấp cho ChatGPT dưới dạng lời nhắc hoặc câu hỏi từ người dùng. Khi yêu cầu công cụ trả lời câu hỏi hoặc thực hiện tác vụ, chúng ta có thể không ý thức chuyển giao thông tin nhạy cảm, và công cụ có thể nhận và bao gồm thông tin đó vào dữ liệu công cộng.
Ví dụ, một luật sư có thể yêu cầu công cụ xem lại bản thảo thỏa thuận ly hôn hoặc một lập trình viên có thể yêu cầu công cụ kiểm tra đoạn mã của họ. Bản thỏa thuận và đoạn mã đó sẽ trở thành một phần của cơ sở dữ liệu của ChatGPT, có thể được sử dụng để đào tạo công cụ thêm và đưa ra phản hồi cho người dùng khác.

Ngoài ra, OpenAI cũng thu thập nhiều loại thông tin người dùng khác. Theo chính sách quyền riêng tư của công ty, nó thu thập địa chỉ IP, loại trình duyệt và cài đặt của người dùng cũng như dữ liệu về tương tác của người dùng với trang web - bao gồm loại nội dung mà họ tương tác, tính năng họ sử dụng và hành động họ thực hiện.
Nó cũng thu thập thông tin về hoạt động duyệt web của người dùng theo thời gian và trên các trang web. Đáng lo ngại, OpenAI cũng cho biết họ có thể chia sẻ thông tin cá nhân của người dùng với các bên thứ ba không xác định mà không thông báo cho họ, nhằm mục đích kinh doanh.
Đã đến lúc kiểm soát ChatGPT?
Một số chuyên gia cho rằng ChatGPT đánh dấu một bước đột phá trong lĩnh vực Trí tuệ Nhân tạo, mở ra cánh cửa cho sự phát triển công nghệ và có thể thay đổi cách chúng ta làm việc, học tập, viết và thậm chí là tư duy. Tuy nhiên, dù có nhiều lợi ích tiềm ẩn, chúng ta không nên quên rằng OpenAI là một doanh nghiệp tư nhân. Họ hoạt động vì lợi nhuận và quy tắc thương mại của họ không nhất thiết phải phù hợp với lợi ích cộng đồng.
Rủi ro về quyền riêng tư liên quan đến ChatGPT là một điều cần được chú ý. Với vai trò người tiêu dùng ngày càng sử dụng nhiều công nghệ Trí tuệ Nhân tạo, chúng ta cần phải rất cẩn thận về thông tin mà chúng ta chia sẻ với những công cụ này.
Tham khảo Gizmodo
