Châu Âu cần hành động ngay trước những đánh giá được tạo ra bởi trí tuệ nhân tạo trước khi quá muộn
Một số khía cạnh của cuộc sống hiện đại không thể tránh khỏi. Chúng ta đều sử dụng phần mềm định vị để điều hướng, kiểm tra tin tức trên điện thoại và đọc đánh giá trực tuyến về sản phẩm trước khi mua chúng.
Công nghệ không tạo ra những điều này, nhưng điều mà nó đã làm là phổ cập chúng, làm cho chúng dễ tiếp cận hoặc thêm vào. Hãy lấy ví dụ về đánh giá trực tuyến. Ngày nay, mọi người có thể chia sẻ ý kiến trung thực của họ về sản phẩm và dịch vụ một cách mà, trong quá khứ, là không thể.
Tuy nhiên, điều internet đã mang lại, nó cũng có thể, à, lấy đi nữa?
Không mất nhiều thời gian cho những kẻ hành hiện ác nhận ra họ có thể lợi dụng khả năng mới này của công nghệ để đổ lũ đánh giá giả mạo ra thị trường, tạo nên một ngành công nghiệp hoàn toàn mới trong quá trình.
Hội nghị TNW 2024 - Kêu gọi tất cả các Startup tham gia vào ngày 20-21 tháng 6
Trình diễn startup của bạn trước các nhà đầu tư, những người làm thay đổi và khách hàng tiềm năng với các gói Startup được chọn lọc của chúng tôi.
Trong những năm gần đây, nhiều cuộc thảo luận xoay quanh đánh giá giả đã giảm bớt, nhưng bây giờ? Chúng quay trở lại mạnh mẽ — và tất cả đều nhờ vào trí tuệ nhân tạo.
Sự thăng hạng của các mô hình ngôn ngữ lớn (LLMs) như ChatGPT có nghĩa là chúng ta đang bước vào một thời đại mới của đánh giá giả, và các chính phủ ở Châu Âu và phần còn lại của thế giới cần phải hành động trước khi quá muộn.
Đánh giá do trí tuệ nhân tạo viết? Ai quan tâm?
Mặc dù nghe có vẻ ngắn gọn nhưng đó là một câu hỏi hợp lý. Đánh giá giả đã là một phần của cuộc sống trực tuyến gần như từ khi internet tồn tại. Liệu mọi thứ có thực sự thay đổi nếu máy móc tinh vi viết chúng thay vì con người không tinh vi hơn không?
Nhá báo: có. Có thật sự sẽ thay đổi.
Yếu tố quyết định chính là quy mô. Trước đây, phần mềm tạo văn bản khá thiếu tinh vi. Những gì chúng tạo ra thường lòe loẹt và mơ hồ, có nghĩa là công chúng có thể ngay lập tức nhận ra đó là không đáng tin cậy, được tạo ra bởi một máy tính ngốc nghếch thay vì một người không ngốc một chút nào.
Điều này có nghĩa là để những đánh giá giả mạo được viết bởi máy móc có thể thành công và đánh lừa mọi người, những con người khác phải tham gia với văn bản. Sự gia tăng của LLMs và trí tuệ nhân tạo có nghĩa là không còn là trường hợp đó nữa.
Sử dụng ChatGPT, hầu hết mọi người đều có thể tạo ra hàng trăm đánh giá giả mạo mà, với mọi ý định và mục đích, đọc như chúng có thể được viết bởi một người thực sự.
Nhưng, lại nói thế nào? Thêm nhiều đánh giá giả mạo hơn? Ai quan tâm? Tôi đưa ra ý kiến này với Kunal Purohit, Giám đốc Dịch vụ Kỹ thuật số chính tại Tech Mahindra, một công ty tư vấn công nghệ thông tin.
Ông nói với tôi rằng “đánh giá là rất quan trọng đối với doanh nghiệp bất kỳ kích thước nào.” Lý do là nó giúp họ “xây dựng nhận thức thương hiệu và sự tin tưởng với khách hàng tiềm năng hoặc triển vọng.”
Điều này trở nên ngày càng quan trọng trong thế giới hiện đại, khi sự cạnh tranh trong ngành kinh doanh khiến khách hàng trở nên nhận thức và đòi hỏi cao hơn đối với các công ty.
Bây giờ, trải nghiệm người dùng là một điểm bán hàng cốt lõi — và các thương hiệu ưu tiên khía cạnh này của doanh nghiệp của họ — Purohit nói rằng đánh giá xấu có thể phá hủy khả năng của tổ chức thực hiện kinh doanh một cách hiệu quả.
Nói một cách khác, đánh giá giả mạo không chỉ là điều có thể thuyết phục bạn mua một cuốn sách được đánh giá tốt mà thực tế là hơi nhạt nhòa. Chúng có thể được sử dụng vì cả lý do tích cực và tiêu cực, và khi nhắm vào một công ty, có thể ảnh hưởng nghiêm trọng đến danh tiếng và khả năng làm việc của doanh nghiệp đó.
Đây là lý do tại sao chúng tôi — và Liên minh châu Âu — phải nghiêm túc xem xét đánh giá được tạo ra bởi máy tính.
Nhưng thực sự đang diễn ra điều gì ở đây?
Tại điểm này, phần lớn cuộc thảo luận chỉ là học thuật. Vâng, chúng tôi nhận thức rằng đánh giá được viết bởi trí tuệ nhân tạo có thể là một vấn đề, nhưng chúng đang diễn ra như thế nào? Điều gì thực sự đang xảy ra?
Purohit nói với tôi rằng, hiện tại, “các chatbot được trang bị trí tuệ nhân tạo đang được sử dụng để tạo ra đánh giá giả mạo về các sản phẩm trên thị trường.” Mặc dù nỗ lực tốt nhất của các nền tảng, chúng đã bị ngập tràn bởi đánh giá được tạo ra bởi máy tính.
Điều này được xác nhận bởi Keith Nealon, Giám đốc điều hành của Bazaarvoice, một công ty giúp nhà bán lẻ hiển thị nội dung do người dùng tạo ra trên trang web của họ. Ông nói rằng ông đã thấy “trí tuệ nhân tạo tạo ra đánh giá giả mạo sản phẩm gần đây,” với mục tiêu là “tăng cường số lượng đánh giá cho một sản phẩm với ý định thúc đẩy chuyển đổi lớn hơn.”
Đánh giá được viết bởi trí tuệ nhân tạo đang ngày càng thu hút sự chú ý, nhưng, bạn bè ơi, điều này chỉ là khởi đầu.
Những năm dài và khó khăn đang nằm trước mắt
Sự tin tưởng chúng ta dành cho đánh giá sắp bị phá vỡ.
Nealon từ Bazaarvoice nói rằng việc sử dụng trí tuệ nhân tạo ở quy mô lớn có thể có “tác động nghiêm trọng đối với tương lai của mua sắm trực tuyến,” đặc biệt là nếu chúng ta đến một tình huống “người mua không thể tin tưởng liệu đánh giá sản phẩm có thật hay không.”
Khiến cho sự cám dỗ sử dụng đánh giá được tạo ra bởi máy tính trong lĩnh vực kinh doanh cũng sẽ tăng lên.
“Chúng ta ai cũng muốn ứng dụng của mình đứng đầu bảng xếp hạng, và chúng ta đều biết một cách để làm điều này là thông qua sự tương tác của người dùng với đánh giá,” Simon Bain — CEO của OmniIndex, một nền tảng dữ liệu được mã hóa — nói với tôi. “Nếu có khả năng sản xuất hàng loạt chúng nhanh chóng với trí tuệ nhân tạo, thì một số công ty sẽ chọn lựa con đường đó, giống như một số công ty đã làm với click farms cho các hình thức tương tác người dùng khác.”
Ông tiếp tục, nói rằng trong khi nguy cơ của đánh giá được viết bởi máy tính là xấu, thì thực tế phương pháp này trở thành một công cụ bổ sung cho click farms còn xấu hơn. Bain dự đoán một thế giới trong đó văn bản do trí tuệ nhân tạo tạo ra có thể “kết hợp với các hoạt động khác như lừa đảo click và được sản xuất hàng loạt một cách chuyên nghiệp với giá rất rẻ.”
Điều này có nghĩa là thay vì đánh giá được viết bởi trí tuệ nhân tạo là một vấn đề đứng riêng, chúng có tiềm năng trở thành một bộ phận lớn trong một máy thông tin lừa đảo ngày càng lớn. Điều này có thể dẫn đến sự mòn mất niềm tin trong mọi khía cạnh của cuộc sống trực tuyến.
Vậy... có cách nào để giải quyết không?
Phản công đối với đánh giá được viết bởi trí tuệ nhân tạo
Có hai chủ đề chung trên tất cả các chuyên gia mà tôi nói chuyện với về việc chống lại đánh giá được tạo ra bởi máy tính. Đầu tiên là điều đó sẽ rất khó khăn. Và thứ hai? Chúng ta sẽ cần trí tuệ nhân tạo để chống lại... trí tuệ nhân tạo.
“Có thể rất khó nhận biết nội dung do trí tuệ nhân tạo tạo ra — đặc biệt là nếu nó được sản xuất bởi các chuyên gia,” Bain nói. Ông tin rằng chúng ta cần trấn áp thực hành này cách chúng ta đã làm với các hoạt động gian lận tương tự: bằng trí tuệ nhân tạo.
Theo Bain, điều này sẽ hoạt động bằng cách phân tích các nguồn dữ liệu lớn về việc sử dụng ứng dụng và tương tác. Điều này sẽ sử dụng các chiến lược như “nhận dạng mẫu, xử lý ngôn ngữ tự nhiên và học máy” để nhận diện nội dung gian lận.
Purohit và Nealon đồng ý với điều này, mỗi người chỉ ra tiềm năng mà trí tuệ nhân tạo có để giải quyết vấn đề trong cuộc trò chuyện của chúng tôi.
Tuy nhiên, Chelsea Ashbrook — Quản lý cấp cao, Trải nghiệm số của Doanh nghiệp tại Genentech, một công ty công nghệ sinh học — là người tóm tắt tốt nhất: “Nhìn vào tương lai, chúng ta có thể cần phát triển công cụ và kỹ thuật mới. Điều đó là điều hiển nhiên; trí tuệ nhân tạo đang trở nên thông minh hơn, và chúng ta cũng phải thế.”
Chính phủ phải tham gia vào
Ở giai đoạn này, chúng ta gặp một vấn đề khác: có, các công cụ trí tuệ nhân tạo có thể chống lại đánh giá được tạo ra bởi máy tính, nhưng điều này hoạt động thực sự như thế nào? Có thể làm gì?
Và đây là nơi các cơ quan quản lý như Liên minh châu Âu đến.
Tôi đặt câu hỏi này cho Ashbook: “Chắc chắn họ đã có nhiều công việc phải làm,” cô nói. Sau đó, Ashbrook đề xuất một cách mà chính phủ có thể chống lại đại dịch sắp tới có thể là “thiết lập các hướng dẫn yêu cầu sự minh bạch về nguồn gốc của đánh giá.”
Bain từ OmniIndex, ngược lại, đề cập đến sự quan trọng của việc đảm bảo rằng các luật lệ và quy định hiện tại về các yếu tố như “gian lận và tội phạm mạng” cần được cập nhật theo cách [trí tuệ nhân tạo] đang được sử dụng.”
Purohit từ Tech Mahindra tin rằng chúng ta đã thấy nhiều sáng kiến và chính sách tích cực từ phía chính phủ và các chuyên gia hàng đầu ngành công nghiệp trí tuệ nhân tạo về việc sử dụng công nghệ một cách có trách nhiệm. Mặc dù vậy, “có nhiều cách mà các cơ quan chính thức như Liên minh châu Âu … có thể ngăn chặn [nó] tránh khỏi sự kiểm soát.”
Anh ấy chỉ đến “tăng cường nghiên cứu và phát triển, [và] củng cố các khung pháp định chế” như hai yếu tố quan trọng của chiến lược này.
Vượt xa điều đó, Purohit tin rằng chính phủ nên cập nhật các luật bảo vệ người tiêu dùng để chống lại nguy cơ do nội dung được tạo ra bởi trí tuệ nhân tạo. Điều này có thể bao gồm nhiều điều, bao gồm “áp đặt mức phạt đối với việc lạm dụng hoặc làm giả mạo đánh giá được tạo ra bởi trí tuệ nhân tạo” hoặc “đưa ra trách nhiệm cho các nền tảng cung cấp thông tin chính xác và đáng tin cậy cho người tiêu dùng.”
Đây là ý tưởng cho châu Âu, hãy sử dụng tự do để bắt đầu quá trình này.
Đánh giá do trí tuệ nhân tạo: Ở lại mãi
Muốn đọc điều ít gây sốc nhất mà bạn đã thấy trong một khoảng thời gian dài? Trí tuệ nhân tạo sẽ thay đổi thế giới.
Mặc dù vậy, các chủ đề mà báo chí thường ám ảnh thường là những điều như sự duy nhất của một ngày tận thế có thể được động viên bởi trí tuệ nhân tạo. Điều đó, để nói trung thực, nghe có vẻ gợi cảm hơn nhiều — và thu hút nhiều lượt nhấp chuột hơn.
Nhưng theo quan điểm của tôi, đó là những điều nhỏ như đánh giá do trí tuệ nhân tạo sẽ có ảnh hưởng lớn nhất đến cuộc sống ngay lập tức của chúng ta.
Về cơ bản, xã hội dựa trên sự tin tưởng, trên ý nghĩa rằng có những người xung quanh chúng ta chia sẻ một bộ giá trị tương đối giống nhau. Việc sử dụng trí tuệ nhân tạo trong những cách nhỏ như vậy có tiềm năng làm suy giảm điều đó. Nếu chúng ta không còn tin vào những gì chúng ta thấy, nghe, hoặc đọc, thì chúng ta không còn tin vào bất cứ điều gì.
Và nếu điều đó xảy ra? Hãy chờ đợi cho đến khi mọi thứ bắt đầu sụp đổ xung quanh chúng ta.
Chính vì vậy, các cơ quan chính phủ như Liên minh châu Âu không thể áp dụng một phương pháp “chờ xem” để quy định các lĩnh vực có vẻ như không quan trọng như đánh giá do trí tuệ nhân tạo. Phải có quy định — và phải nhanh chóng. Bởi vì nếu chúng ta chần chừ quá lâu, có thể đã quá muộn.
