Microsoft và Google đang tranh đua trong lĩnh vực trí tuệ nhân tạo (AI), cam kết sẽ mở ra một thời đại mới cho ngành công nghiệp. Tuy nhiên, theo Business Insider (BI), mọi cuộc cách mạng công nghệ đều đi kèm với những nguy cơ.

Kẻ gian sinh ra từ bản năng
ChatGPT được xem là kẻ gian sinh ra từ bản năng, dù chatbot này không có ý định làm như vậy. Sản phẩm của Microsoft thường không hiểu rõ người dùng đang nói gì, các phản hồi của nó thường được 'mượn' từ các nguồn khác nhau hoặc thậm chí là hoàn toàn 'đạo' nội dung đó.
Cơ sở kỹ thuật làm nên sự thành công của ChatGPT là các Mô hình Ngôn ngữ Lớn (Large Language Model-LLM), điều này cho phép chatbot này 'đào sâu' vào đủ loại thông tin. Do đó, rõ ràng ChatGPT không thể thay thế con người vì mức độ chính xác thông tin của nó khá thấp.
Loại lỗi này tồn tại ở mọi chatbot, từ ChatGPT, Bing của Microsoft cho đến Bard của Google. Chúng có thể sáng tạo ra các số liệu sinh học, các nghiên cứu giả mạo hoặc đơn giản chỉ là trả lời sai những kiến thức cơ bản.
Ngay cả các chatbot như ChatGPT còn khuyến khích người dùng đang phải đối mặt với các vấn đề tâm thần tự tử, khuếch đại sự phân biệt về chủng tộc, giới tính...
Nhiều người cho rằng với trí tuệ nhân tạo, chúng có thể tự học và sửa sai, nhưng nhiều người khác nói rằng Internet đang chứa đựng nhiều thứ vô nghĩa như vậy và con người vẫn sống bình thường.
Tuy nhiên, tờ The Verge nhấn mạnh không có gì đảm bảo rằng chúng ta có thể hoàn toàn khắc phục được vấn đề nói dối của các chatbot vì việc bịa đặt thông tin đã trở thành phần cốt lõi của chúng. Các công ty cũng không thể dành quá nhiều thời gian để tìm kiếm và sửa lỗi, trong khi sự an toàn của người dùng phụ thuộc vào việc triển khai rộng rãi các trí tuệ nhân tạo này.

Định nghĩa đúng sai
Trong thế giới tìm kiếm thông tin, việc xác định một câu trả lời chính xác duy nhất thường là một điều rất nguy hiểm. Điều này đã khiến Google bị chỉ trích cách đây 10 năm khi họ giới thiệu tính năng trả lời câu hỏi ngắn đầu trang với một số thông tin tìm kiếm từ người dùng.
Báo cáo nghiên cứu của các chuyên gia Chirag Shah và Emily M Bender cho thấy trí tuệ nhân tạo làm cho việc xác định đúng sai trở nên quá rõ ràng và đơn giản, loại bỏ khả năng tự tìm kiếm, tổng hợp thông tin và đánh giá nội dung của người dùng.
Việc này tiềm ẩn nguy cơ lớn khi trí tuệ nhân tạo có thể chi phối kiến thức của người dùng, đặt ra các tiêu chuẩn về thông tin thay vì cung cấp sự đa dạng cho người dùng tự quyết định.
Trên thực tế, Google đã cố gắng theo đuổi triết lý “Không có câu trả lời đúng đắn tuyệt đối” (No One Right Answer-NORA) nhưng với áp lực phát triển từ Microsoft, có khả năng họ sẽ phải từ bỏ triết lý này để tham gia cuộc đua về lợi nhuận.
Hủy hoại Internet
Các câu trả lời của trí tuệ nhân tạo thường được tổng hợp từ Internet, từ các trang web khác nhau. Tuy nhiên, mức độ tương tác mà các chatbot như ChatGPT nhận được thì không phản ánh trên các trang web này.
Kết quả là các nguồn thông tin trên Internet, các trang web mạng sẽ trải qua sự suy giảm tương tác và dần dần suy yếu doanh thu.
Microsoft lập luận rằng họ đã tích hợp nguồn thông tin cho công cụ Bing để người dùng có thể xem lại nguồn gốc. Tuy nhiên, trí tuệ nhân tạo được hy vọng sẽ cung cấp các câu trả lời chính xác và tóm tắt ngắn gọn từ những nội dung dài. Với ưu thế này, liệu có bao nhiêu người dùng sẽ muốn quay lại kiểm chứng nguồn gốc của thông tin?

Sự lan truyền độc hại
Một yếu tố khác khiến trí tuệ nhân tạo trở nên cực kỳ nguy hiểm là khả năng tự học không được kiểm soát. Vì AI điều chỉnh câu trả lời dựa trên mỗi câu hỏi của người dùng, nên các yếu tố tiêu cực có thể lan truyền thông tin có hại, khiến các chatbot tin rằng chúng là câu trả lời chính xác.
Quá trình này được gọi là “Jaibreaking AI” và có thể thực hiện mà không cần kiến thức lập trình. Tất cả những gì kẻ xấu cần là sự thuyết phục bằng lời nói.
Cách lan truyền này không chỉ đưa thông tin có hại lên chatbot mà còn có thể yêu cầu chúng đóng giả làm “kẻ xấu” tham gia trò chơi giả tưởng, gây ảnh hưởng đến khả năng phán đoán và tự học của AI.
Cuộc chiến văn hóa của trí tuệ nhân tạo
Chatbot không thực sự hiểu được con người, do đó chúng thường cho ra những câu trả lời không hoàn toàn chính xác. Tuy nhiên, điều này có thể gây ra xung đột về văn hóa, tôn giáo hoặc thậm chí là chính trị nếu trí tuệ nhân tạo được triển khai rộng rãi.
Việc người dùng tức giận vì những phản hồi phản cảm về văn hóa, giới tính, tôn giáo từ các chatbot là điều không lạ.
Hiện tại, mọi người vẫn chấp nhận ChatGPT vì nó vẫn mới và được kỳ vọng sẽ cải thiện và học hỏi tự động. Tuy nhiên, điều gì sẽ xảy ra nếu ChatGPT cố ý tạo ra các câu trả lời có lợi cho nhóm đa số và gây tổn thương cho nhóm thiểu số?
Nhận thức được vấn đề này, sản phẩm Bing của Microsoft đã cố gắng tích hợp nguồn thông tin cho câu trả lời, nhưng ai sẽ đảm bảo rằng những nguồn này là chính xác?
Thực tế, tính 'không nhân tính' của trí tuệ nhân tạo và thuật toán là một trong những lý do khiến Facebook, mạng xã hội lớn nhất thế giới, bị chỉ trích. Việc phát tán thông tin gây tranh cãi một cách vô thức bởi thuật toán có thể đưa công ty vào vấn đề, đồng thời gây mất ổn định cho xã hội.
Điều này đã xảy ra trong cuộc trưng cầu ý dân về Brexit của Anh, cũng như trong các cuộc bầu cử Tổng thống Mỹ năm 2016 và 2020.

Tiêu tiền
Mặc dù không có số liệu cụ thể nhưng tất cả các chuyên gia đều công nhận rằng trí tuệ nhân tạo, chatbot đòi hỏi nhiều tài nguyên, nguồn lực hơn so với các thuật toán của công cụ tìm kiếm thông thường.
Đầu tiên, các công ty phải bỏ ra hàng trăm triệu USD cho mỗi chu trình tính toán của trí tuệ nhân tạo. Đây là lý do Microsoft bỏ ra hàng tỷ USD cho OpenAI, công ty mẹ của ChatGPT, mặc dù startup này vẫn lỗ nặng dù đã chuyển từ tổ chức phi lợi nhuận sang mô hình kinh doanh.
Theo tạp chí Fortune, vào năm 2022, OpenAI thu về 30 triệu USD doanh thu nhưng tiêu hao đến 416,45 triệu USD cho chi phí máy chủ và xử lý dữ liệu, hơn 89 triệu USD cho lương nhân viên và 39 triệu USD cho các chi phí khác. Tổng thâm hụt là 544,5 triệu USD.
Mặc dù ChatGPT có phiên bản trả phí nhưng không thể chi trả được chi phí tài nguyên cho mỗi câu trả lời, đặc biệt khi người dùng đặt câu hỏi quá dài và phức tạp.
Ngoài ra, việc tiêu tiền này làm cho Microsoft và Google trở thành những đại gia trong ngành với rào cản quá lớn. Chi phí cao và rủi ro đầy rẫy khiến các đối thủ mới với kinh phí hạn chế không thể tham gia cuộc chơi.
Quản lý bản quyền
Công nghệ trí tuệ nhân tạo đang phát triển mạnh mẽ nhưng các nhà lập pháp cũng đang quan tâm đến nó. Khi chính phủ ban hành các quy định pháp luật về trí tuệ nhân tạo, có thể AI sẽ không còn hấp dẫn như trước.
Ví dụ, nếu Liên minh Châu Âu (EU) yêu cầu các doanh nghiệp phát triển trí tuệ nhân tạo phải trả tiền bản quyền cho nội dung mà họ sử dụng, liệu Microsoft và Google có còn lãi nhiều không? Nếu họ chuyển chi phí này cho người dùng hoặc doanh nghiệp quảng cáo, liệu các dịch vụ của họ còn hấp dẫn hơn so với các công cụ tìm kiếm truyền thống không?
Vấn đề về quyền riêng tư và các quy định khác về trí tuệ nhân tạo chưa được xem xét một cách toàn diện. Tất cả đều là những thách thức lớn và niềm đam mê của các công ty trong lĩnh vực này có thể vẫn còn quá sớm.
*Nguồn: Business Insider (BI), The Verge
