
Viện Tiêu Chuẩn và Công Nghệ (NIST) là một cơ quan liên bang nổi tiếng với việc đo lường như thời gian hoặc số hạt photon đi qua một con gà. Bây giờ, NIST muốn đưa ra một con số về sự tin tưởng của người trong trí tuệ nhân tạo.
Sự tin tưởng là một phần của cách chúng ta đánh giá tiềm năng nguy hiểm, và đó là một yếu tố quan trọng trong việc áp dụng trí tuệ nhân tạo. Theo các quan chức tại NIST, khi trí tuệ nhân tạo thực hiện các nhiệm vụ ngày càng phức tạp, sự tin tưởng là một phần quan trọng của mối quan hệ tiến triển giữa con người và máy móc.
Trong một bài nghiên cứu, những người tạo ra nỗ lực đo lường sự tin tưởng của người dùng trong trí tuệ nhân tạo nói họ muốn giúp các doanh nghiệp và nhà phát triển triển khai hệ thống trí tuệ nhân tạo đưa ra quyết định có thông tin và xác định các lĩnh vực mà người ta không tin tưởng vào trí tuệ nhân tạo. NIST coi sáng kiến về trí tuệ nhân tạo này như một phần mở rộng của công việc truyền thống hơn về việc thiết lập sự tin tưởng trong các hệ thống đo lường. Ý kiến của công chúng được chấp nhận đến ngày 30 tháng 7.
Brian Stanton là đồng tác giả của bài báo và là một nhà tâm lý học nhận thức của NIST tập trung vào tính đáng tin cậy của hệ thống trí tuệ nhân tạo. Theo Stanton, không có sự tin tưởng, việc áp dụng trí tuệ nhân tạo sẽ chậm trễ hoặc dừng lại. Ông nói rằng nhiều yếu tố có thể ảnh hưởng đến sự tin tưởng của người trong trí tuệ nhân tạo, chẳng hạn như việc họ tiếp xúc với khoa học viễn tưởng hoặc sự hiện diện của những người hoài nghi về trí tuệ nhân tạo trong gia đình và bạn bè.
NIST là một phần của Bộ Thương mại Hoa Kỳ đã trở nên quan trọng trong thời đại trí tuệ nhân tạo. Theo một sắc lệnh của cựu Tổng thống Trump, NIST đã công bố một kế hoạch vào năm 2019 để tương tác với ngành công nghiệp tư nhân để tạo ra tiêu chuẩn cho việc sử dụng trí tuệ nhân tạo. Vào tháng 1, Quốc hội đã chỉ đạo NIST xây dựng một khung làm việc cho trí tuệ nhân tạo đáng tin cậy để hướng dẫn việc sử dụng công nghệ này. Một vùng khó khăn: Các nghiên cứu của các nhà học và chính NIST cho thấy rằng một số hệ thống nhận diện khuôn mặt nhầm lẫn người Á-Âu và người da đen 100 lần nhiều hơn so với người da trắng.
Sáng kiến về sự tin tưởng diễn ra trong bối cảnh chính phủ tăng cường giám sát trí tuệ nhân tạo. Văn phòng Quản lý và Ngân sách đã nói rằng sự chấp nhận và áp dụng trí tuệ nhân tạo sẽ phụ thuộc vào niềm tin của công dân. Việc nhắc đến trí tuệ nhân tạo trong Quốc hội đang tăng lên, và các vụ kiện chống độc quyền lịch sử tiếp tục đối với những ông lớn công nghệ như Amazon, Facebook và Google. Vào tháng 4, Ủy ban Thương mại Liên bang yêu cầu doanh nghiệp nói sự thật về trí tuệ nhân tạo mà họ sử dụng và không phóng đại những điều có thể thực hiện được. “Tự chịu trách nhiệm hoặc sẵn sàng để FTC làm điều đó cho bạn,” tuyên bố nói.
NIST muốn đo lường sự tin tưởng trong trí tuệ nhân tạo theo hai cách. Điểm tiềm năng tin tưởng của người dùng được thiết kế để đo lường những điều về một người sử dụng hệ thống trí tuệ nhân tạo, bao gồm tuổi tác, giới tính, niềm tin văn hóa và kinh nghiệm với các hệ thống trí tuệ nhân tạo khác. Điểm tin tưởng thấy được của hệ thống sẽ bao gồm những yếu tố kỹ thuật hơn như việc một giao diện người dùng lỗi thời khiến người ta nghi ngờ trí tuệ nhân tạo. Điểm hệ thống đề xuất gán trọng số cho chín đặc điểm như độ chính xác và khả năng giải thích. Các yếu tố đóng vai trò trong việc tin tưởng trí tuệ nhân tạo và trọng số cho các yếu tố như độ tin cậy và an ninh vẫn đang được xác định.
Bài báo của NIST nói rằng kỳ vọng về một hệ thống trí tuệ nhân tạo sẽ phản ánh cách nó được sử dụng. Ví dụ, một hệ thống được bác sĩ sử dụng để chẩn đoán bệnh nên chính xác hơn so với hệ thống đề xuất âm nhạc.
Masooda Bashir, một giáo sư tại Trường Khoa học Thông tin Đại học Illinois, nghiên cứu về cách mọi người tin tưởng hoặc không tin tưởng vào các phương tiện tự động. Cô muốn thấy đo lường sự tin tưởng của người dùng phát triển đến mức bạn có thể chọn cài đặt tin tưởng của mình giống như cách mọi người chọn màu sắc cho một chiếc xe ô tô.
Bashir gọi đề xuất của NIST là một phát triển tích cực, nhưng cô nghĩ rằng điểm tin tưởng của người dùng nên phản ánh nhiều yếu tố hơn, bao gồm tâm trạng và thái độ thay đổi của một người đối với trí tuệ nhân tạo khi họ hiểu biết về cách một hệ thống hoạt động. Trong một nghiên cứu năm 2016, Bashir và đồng tác giả phát hiện rằng mức độ căng thẳng có thể ảnh hưởng đến thái độ của người ta đối với tin tưởng trong trí tuệ nhân tạo. Những sự khác biệt như vậy, cô nói, nên giúp xác định trọng số được gán cho các yếu tố tin tưởng được xác định bởi NIST.
Giáo sư trợ giảng của Đại học Harvard, Himabindu Lakkaraju, nghiên cứu vai trò của sự tin tưởng trong quyết định của con người trong môi trường chuyên nghiệp. Cô đang làm việc với gần 200 bác sĩ tại các bệnh viện ở Massachusetts để hiểu cách tin tưởng vào trí tuệ nhân tạo có thể thay đổi cách bác sĩ chẩn đoán bệnh nhân.
Đối với các bệnh thông thường như cúm, trí tuệ nhân tạo không hữu ích, vì các chuyên gia con người có thể nhận biết chúng khá dễ dàng. Nhưng Lakkaraju phát hiện rằng trí tuệ nhân tạo có thể giúp bác sĩ chẩn đoán những bệnh khó xác định như bệnh tự miễn dịch. Trong công việc mới nhất của mình, Lakkaraju và đồng nghiệp cung cấp cho bác sĩ hồ sơ của khoảng 2,000 bệnh nhân và dự đoán từ một hệ thống trí tuệ nhân tạo, sau đó hỏi họ dự đoán liệu bệnh nhân có mắc đột quỵ trong sáu tháng không. Họ biến đổi thông tin cung cấp về hệ thống trí tuệ nhân tạo, bao gồm độ chính xác, khoảng tin cậy và một giải thích về cách hệ thống hoạt động. Họ phát hiện ra rằng dự đoán của bác sĩ là chính xác nhất khi họ được cung cấp nhiều thông tin nhất về hệ thống trí tuệ nhân tạo.
Lakkaraju nói cô rất vui thấy NIST đang cố gắng đo lường sự tin tưởng, nhưng cô nói rằng cơ quan này nên xem xét vai trò mà giải thích có thể đóng trong sự tin tưởng của con người vào các hệ thống trí tuệ nhân tạo. Trong thử nghiệm, độ chính xác của việc dự đoán đột quỵ bởi bác sĩ giảm đi khi bác sĩ được cung cấp một giải thích mà không có dữ liệu để hỗ trợ quyết định, ngụ ý rằng chỉ một giải thích có thể dẫn đến việc người ta tin tưởng trí tuệ nhân tạo quá mức.
“Giải thích có thể tạo ra sự tin tưởng bất thường cao ngay cả khi nó không đúng, điều này là nguyên liệu cho các vấn đề,” cô nói. “Nhưng khi bạn bắt đầu đặt số lượng trên cách giải thích tốt là, sự tin tưởng của người dùng dần calibrates.”
Các quốc gia khác cũng đang cố gắng đối mặt với câu hỏi về sự tin tưởng trong trí tuệ nhân tạo. Hoa Kỳ là một trong 40 quốc gia đã ký vào các nguyên tắc về trí tuệ nhân tạo mà nhấn mạnh tính đáng tin cậy. Một tài liệu được ký bởi khoảng một chục quốc gia châu Âu nói rằng tính đáng tin cậy và sáng tạo đi đôi với nhau và có thể được xem xét là “hai mặt của cùng một đồng xu.”
NIST và OECD, một nhóm 38 quốc gia có nền kinh tế phát triển, đang làm việc để tạo ra các công cụ để xác định hệ thống trí tuệ nhân tạo có mức độ rủi ro cao hay thấp. Chính phủ Canada đã tạo ra quy trình đánh giá ảnh hưởng của thuật toán vào năm 2019 cho doanh nghiệp và cơ quan chính phủ. Ở đó, trí tuệ nhân tạo được chia thành bốn hạng mục — từ không ảnh hưởng đến cuộc sống của người dân hoặc quyền của cộng đồng đến rủi ro rất cao và gây hại cho cá nhân và cộng đồng. Đánh giá một thuật toán mất khoảng 30 phút. Phương pháp của Canada yêu cầu nhà phát triển thông báo cho người dùng đối với tất cả các hệ thống có mức rủi ro thấp trừ trường hợp thấp nhất.
Các nhà lập pháp Liên minh châu Âu đang xem xét các quy định về trí tuệ nhân tạo có thể giúp định rõ các tiêu chuẩn toàn cầu cho loại trí tuệ nhân tạo được xem xét là có mức rủi ro thấp hoặc cao và cách quy định công nghệ. Như luật quyền riêng tư GDPR tiêu biểu của châu Âu, chiến lược trí tuệ nhân tạo của EU có thể dẫn đến việc các công ty lớn nhất trên thế giới triển khai trí tuệ nhân tạo thay đổi thực hành của họ trên toàn cầu.
Quy định yêu cầu tạo ra một danh sách công khai về các dạng trí tuệ nhân tạo có mức rủi ro cao đang được sử dụng trong một cơ sở dữ liệu do Ủy ban Châu Âu quản lý. Các ví dụ về trí tuệ nhân tạo được xem xét là có mức rủi ro cao được đưa ra trong tài liệu bao gồm trí tuệ nhân tạo được sử dụng cho giáo dục, việc làm, hoặc làm thành phần an toàn cho các tiện ích như điện, khí, hoặc nước. Bản báo cáo này có thể sẽ được sửa đổi trước khi được thông qua, nhưng bản thảo yêu cầu cấm sử dụng trí tuệ nhân tạo cho việc đánh giá xã hội của công dân bởi chính phủ và nhận dạng khuôn mặt thời gian thực.
Báo cáo của Liên minh châu Âu cũng khuyến khích việc cho phép doanh nghiệp và nhà nghiên cứu thử nghiệm trong các lĩnh vực được gọi là “hộp cát,” được thiết kế để đảm bảo khung pháp luật là “thân thiện với sự đổi mới, đảm bảo cho tương lai và chống lại sự đình trệ.” Đầu tháng này, chính quyền Biden giới thiệu Nhiệm vụ Lực lượng Nghiên cứu Trí tuệ Nhân tạo Quốc gia nhằm chia sẻ dữ liệu chính phủ để nghiên cứu về các vấn đề như chăm sóc sức khỏe hoặc lái xe tự động. Kế hoạch cuối cùng sẽ yêu cầu sự chấp thuận của Quốc hội.
Hiện tại, điểm đánh giá tin tưởng người dùng về trí tuệ nhân tạo đang được phát triển cho các chuyên gia trí tuệ nhân tạo. Tuy nhiên, theo thời gian, các điểm này có thể trao quyền cho cá nhân để tránh trí tuệ nhân tạo không đáng tin cậy và đẩy thị trường hướng đến việc triển khai các hệ thống mạnh mẽ, được thử nghiệm và đáng tin cậy. Tất nhiên, điều này chỉ khi họ biết trí tuệ nhân tạo đang được sử dụng.
Các câu chuyện tuyệt vời khác từ Mytour
- 📩 Những tin tức mới nhất về công nghệ, khoa học, và nhiều hơn nữa: Nhận bản tin của chúng tôi ngay bây giờ!
- Chuyện gì thật sự xảy ra khi Google đuổi Timnit Gebru
- Chờ đã, giải thưởng vaccine thực sự có tác dụng?
- Làm thế nào để tắt chế độ Amazon Sidewalk
- Họ nổi giận rời khỏi hệ thống trường học—và họ không quay trở lại
- Toàn bộ tầm nhìn của Apple World đang trở nên rõ ràng
- 👁️ Khám phá Trí tuệ Nhân tạo như chưa bao giờ có với cơ sở dữ liệu mới của chúng tôi
- 🎮 Mytour Games: Nhận những mẹo, đánh giá, và nhiều hơn nữa
- 🏃🏽♀️ Muốn có những công cụ tốt nhất để duy trì sức khỏe? Kiểm tra các lựa chọn của đội ngũ Gear của chúng tôi cho bộ theo dõi sức khỏe tốt nhất, trang thiết bị chạy bộ (bao gồm giày dép và tất), và tai nghe tốt nhất
