
Nhớ lại khi, vào năm 2011, một siêu máy tính đã giành chiến thắng trong một trò chơi truyền hình? Đó không phải là lâu, nhưng ý tưởng về một công cụ trả lời dựa trên trí tuệ nhân tạo giành chiến thắng trong một cuộc thi trí tuệ gần như trở nên lạc quan so với tiêu chuẩn ngày nay về những gì có thể thực hiện được với các công cụ AI sinh tạo. Rủi ro đã được đặt ra từ những thủ thuật nhỏ như trong các cuộc thi trò chơi đến những thành tựu cụ thể hơn trong thế giới thực như vượt qua kỳ thi luật sư và LSAT. Nhưng điều đó có ý nghĩa gì đối với người lao động chuyên nghiệp?
Những kỳ công nghệ kỳ diệu này khiến các nhà lãnh đạo doanh nghiệp đặt câu hỏi về cách AI sẽ biến đổi ngành của họ. Tương tự như sự phấn khích chúng ta đã thấy vào năm 2011 sau màn trình diễn trong cuộc thi trò chơi—hầu hết mọi tờ báo lớn đều đưa tin về nó vào thời điểm đó—những câu trả lời đều chứa đựng sự kích thích và nhận thức thực tế. Có lẽ nơi nào đó, sự phấn khích đó nóng hơn cả trong lĩnh vực pháp lý, nơi những ước đoán về tiềm năng của AI sinh tạo trong mọi thứ từ nghiên cứu pháp lý đến phát triển hợp đồng đã được xây dựng trong nhiều năm. Bây giờ, chúng ta đã đến điểm một thẩm phán ở Colombia đã sử dụng AI để đưa ra quyết định trong một vụ án tòa án. Trên thực tế, theo nghiên cứu mới từ Thomson Reuters, 82% chuyên gia pháp lý tin rằng các giải pháp AI sinh tạo có thể được áp dụng vào công việc pháp lý và 59% nói rằng nên áp dụng vào công việc pháp lý.

Xử Lý Luật Pháp
Giống như sự xuất hiện của siêu máy tính trí tuệ nhân tạo trong cuộc thi trí tuệ không ngay lập tức dịch thành thành công thương mại, có một số thách thức quan trọng cần vượt qua trước khi các giải pháp AI sinh tạo ngày nay từ việc vượt qua kỳ thi luật sư chuyển sang việc thêm giá trị trong một bối cảnh pháp lý chuyên nghiệp thực tế.
Trong số đó, dữ liệu đứng đầu—dữ liệu để đào tạo và dữ liệu được cung cấp cho các mô hình trong các đề xuất. Trong khi công nghệ đằng sau AI sinh tạo thực sự khéo léo trong việc nhanh chóng tiếp thu thông tin và tạo ra những câu trả lời có vẻ thuyết phục, những phản ứng đó không phải lúc nào cũng là đúng. Điều kỳ lạ trong thông tin được sử dụng để đào tạo hệ thống và sự tinh tế trong các chủ đề phức tạp như tiền lệ pháp lý có thể tạo ra một số hậu quả không mong muốn cho người dùng không xem xét kỹ lưỡng chi tiết.
“Chúng tôi đã thấy vô số ví dụ nơi công nghệ AI sinh tạo tự tin tạo ra thông tin sai lệch hoặc đánh lừa, còn được biết đến là ảo tưởng,” nói David Wong, giám đốc sản phẩm chính tại Thomson Reuters. Một ảo tưởng xảy ra khi thuật toán AI xem xét một bộ văn bản và đưa ra dự đoán dựa trên các mẫu nó thấy—nhưng không tích hợp tất cả thông tin liên quan vào quy trình nhận biết mẫu đó.

“Nhóm của tôi thường xuyên gặp phải điều này khi chúng tôi bắt đầu làm việc với phiên bản đầu tiên của một công cụ AI sinh tạo cụ thể vào năm 2020,” nói Wong. “Khi chúng tôi hỏi về một câu hỏi pháp lý về luật về quyền riêng tư thông tin tại Michigan, ví dụ, công nghệ có thể chính xác trích dẫn Đạo luật Bảo vệ Thông tin Sinh học của Michigan—đối với đó có các luật tương tự nhưng hơi khác nhau tại bốn tiểu bang khác nhau trong toàn bộ Hoa Kỳ. Nhưng do lặp lại ngôn ngữ và sự giống nhau trong các luật, khi AI được hỏi về một câu hỏi liên quan đến luật về quyền riêng tư thông tin ở một tiểu bang khác, nó tạo ra kết quả tương tự và sau đó trích dẫn một luật không tồn tại bằng cách thay thế tên tiểu bang.”
“Một điều kỳ quặc khác mà chúng tôi quan sát khi áp dụng các giải pháp AI sinh tạo sẵn có vào các ứng dụng pháp lý thực tế là sự không ổn định của câu trả lời,” Wong tiếp tục. “Đơn giản là, chúng tôi có thể đặt cùng một câu hỏi về sự thật nhiều lần và nhận được kết quả khác nhau một chút mỗi lần.”

Không Có Chỗ Cho Sự Sai Lầm
Những ví dụ này làm nổi bật tầm quan trọng của việc xây dựng sản phẩm cung cấp quyền truy cập cho mô hình AI sinh tạo vào dữ liệu tham khảo toàn diện, có uy tín—qua đầu vào đào tạo hoặc đưa ra các kết quả từ giao diện tìm kiếm đến dữ liệu tham chiếu đó. Quá trình đó cũng cần được can thiệp bởi các chuyên gia chủ đề nhân văn hiểu rõ những sự tinh tế và ngữ cảnh đằng sau thông tin.
“Trong ngữ cảnh thực tế, điều đó có nghĩa là các trường hợp sử dụng AI sinh tạo cụ thể rất cụ thể, như tập trung vào luật pháp kỹ thuật rất cụ thể, phải có khả năng tổng hợp dữ liệu từ các cơ sở dữ liệu ngôn ngữ lớn hiện tại kết hợp với sự thật và thông tin từ các cơ sở dữ liệu nội dung độc quyền để đưa ra các câu trả lời chính xác và trích dẫn nguồn đúng để hỗ trợ kết quả,” Wong nói. Nói cách khác, AI cần có khả năng thể hiện cách nó thực hiện công việc, không chỉ là câu trả lời. Để đạt được mức độ minh bạch và chắc chắn đó yêu cầu một công cụ tìm kiếm mạnh mẽ ở phía trước và dữ liệu tham khảo đã được chứng minh ở phía sau.
Cho đến khi đó, quan trọng cho các chuyên gia đặt câu hỏi như: Mô hình được đào tạo như thế nào? Các truy vấn tìm kiếm và kết quả tìm kiếm nào được sử dụng để tạo ra kết quả? Những vai trò nào mà các chuyên gia nhân văn đóng trong việc định cấu hình kết quả và kiểm tra sự không chính xác?

“Chúng ta đang trong giai đoạn thú vị nhất của sự biến đổi công nghệ kể từ sự xuất hiện của internet,” Wong nói. “Nhưng, đối với mỗi câu chuyện thành công, sẽ có vô số câu chuyện cảnh báo về các công ty đã đi theo làn sóng phấn khích nhưng không chú ý đến chi tiết.”
Khi chúng ta tiến sâu hơn vào thế giới các ứng dụng chuyên nghiệp cho AI sinh tạo, sẽ quan trọng rằng hệ thống AI tích hợp dữ liệu tham chiếu liên quan đến ngành nghề đó, được phát triển với các tiêu chuẩn quản trị nghiêm ngặt, và chuyên gia chủ đề tiếp tục đóng vai trò quan trọng trong quá trình đào tạo và phát triển.
Truyện này được viết bởi Thomson Reuters và sản xuất bởi Mytour Brand Lab.
