Với người dùng Google, chatbot Bard trở thành điều không thể thiếu, một đối thủ mới của ChatGPT được tích hợp sẵn trong Bing của Microsoft.Trên Bloomberg, 18 nhân viên Google giấu tên đã chia sẻ quan điểm chung rằng Bard không chỉ 'nói dối không biết điểm dừng' mà còn đưa ra những phản hồi không hữu ích. Một nhân viên thử nghiệm khi hỏi Bard về cách hạ cánh máy bay chỉ nhận được câu trả lời 'kiểu gì cũng rơi'. Đối với việc lặn, Bard còn cảnh báo rằng sẽ 'gây chấn thương nghiêm trọng hoặc tử vong'.Google quyết định tung ra thị trường Bard mặc dù công cụ này mang lại thông tin chất lượng kém, chỉ để đối đầu với đối thủ và đặt lên hàng đầu sự cạnh tranh thay vì đạo đức.
Vào tháng 11/2022, khi OpenAI giới thiệu ChatGPT, Google hoảng sợ và phải nhanh chóng tích hợp AI tạo nội dung vào mọi dịch vụ trực tuyến của họ. Cuộc đua với thời gian này có thể tạo ra nhiều tác động phụ không lường trước được. Nhóm nghiên cứu đạo đức AI cảm thấy mất quyền và nản lòng với công việc của mình. Thậm chí, cấp quản trị cao hơn đã yêu cầu họ không can thiệp hoặc ngừng phát triển các công cụ AI tạo nội dung.
Tuy nhiên, đến tháng 12/2022, Google đối mặt với giai đoạn “báo động đỏ”. Tin nhắn nội bộ từ Bloomberg chứng minh rằng các lãnh đạo của Google kết luận rằng nếu gọi các sản phẩm AI mới tích hợp vào dịch vụ trực tuyến là “thử nghiệm”, thì cộng đồng có thể nhìn nhận nhẹ nhàng hơn và ít phê phán hơn.Tự nhiên, sự hỗ trợ từ nhóm nghiên cứu đạo đức AI là quan trọng. Trong tháng 12/2022, Jen Gennai, giám đốc quản lý AI, tổ chức một cuộc họp với nhóm sáng tạo, nhấn mạnh việc tuân thủ nguyên tắc đạo đức và an toàn khi triển khai AI để nhanh chóng đưa ra sản phẩm mới.Google thiết lập một hệ thống đánh giá đa chiều để đánh giá khả năng ra mắt thị trường của các giải pháp AI tích hợp vào dịch vụ trực tuyến. Một số khía cạnh, chẳng hạn như an toàn cho người dùng trẻ em, yêu cầu đạt 100% điểm. Tuy nhiên, Gennai cho rằng Google không chờ đến khi tất cả các khía cạnh khác đạt tiêu chuẩn cao như vậy. Ví dụ: “Tính công bằng trong thông tin không cần phải hoàn hảo, chỉ cần đạt 99% là đủ. Về tính công bằng, chúng ta chỉ cần khoảng 80, 85%, sản phẩm sẽ đủ chuẩn ra mắt thị trường.”
Jen Gennai“Quyết định giới hạn sản phẩm thử nghiệm, tiếp tục huấn luyện thuật toán, tăng cường biện pháp bảo vệ và từ chối trách nhiệm khi người dùng sử dụng Bard là những giải pháp có hiệu quả,”
Đôi khi, Google và các kỹ sư của họ gặp sai lầm lớn về độ chệch khi huấn luyện thuật toán AI. Năm 2015, ứng dụng Photos nhận diện một bức hình của một nhà phát triển phần mềm da màu và bạn của anh ấy là “những con khỉ đột”. Ba năm sau, thay vì sửa đổi thuật toán nhận diện hình ảnh, Google quyết định… loại bỏ các từ khóa như “khỉ đột”, “tinh tinh” và “khỉ”. Họ cho biết đây là giải pháp từ một nhóm chuyên gia. Sau đó, nhóm nghiên cứu đạo đức AI được thành lập để tạo ra AI công bằng với tất cả các đối tượng và dân tộc người dùng.
Timnit Gebru
Margaret Mitchell đã trở thành biểu tượng vững chắc trong lĩnh vực AI, là nguồn động viên cho thế hệ mới của các nhà nghiên cứu. Tài năng và sự sáng tạo của bà đánh bại mọi rào cản, góp phần làm thay đổi cách chúng ta nhìn nhận về trí tuệ nhân tạo.
Sau sự kiện gây sốc, Google đã tích cực nỗ lực để cải thiện uy tín của mình trong tâm trí của công chúng. Nhóm nghiên cứu trách nhiệm của AI được tái cơ cấu dưới sự lãnh đạo của phó chủ tịch kỹ thuật Marian Croak. Bà đã cam kết đôi số lượng nhân sự trong nhóm và tăng cường khả năng can thiệp của nhóm trong quá trình nghiên cứu sản phẩm của công ty.
Mặc cho những nỗ lực đó, không nhiều người tìm đến Google để thực hiện nghiên cứu về trí tuệ nhân tạo có đạo đức. Một nhân viên chia sẻ rằng ông bị áp đặt vào lĩnh vực này và gặp liên tục sự phản đối, thậm chí ảnh hưởng tiêu cực đến đánh giá công việc. Còn những lãnh đạo cấp cao khẳng định rằng việc cố gắng làm cho AI trở nên có đạo đức và công bằng hơn sẽ ảnh hưởng đến 'công việc thực sự.'
Đến hiện tại, việc đánh giá đạo đức của trí tuệ nhân tạo trong sản phẩm và dịch vụ của Google chủ yếu chỉ là 'tùy chọn' và không được xem là 'bắt buộc'. Trừ những lĩnh vực như nghiên cứu khoa học và quá trình đánh giá sản phẩm được Google Cloud thực hiện để phục vụ khách hàng, hoặc những nghiên cứu về trí tuệ nhân tạo trong các lĩnh vực nhạy cảm như sinh trắc học, nhận diện danh tính, hoặc liên quan đến trẻ em, thì phải được nhóm của bà Gennai xem xét. Còn đối với các sản phẩm khác, thì không có sự xem xét đó.
El-Mahdi El-Mhamdi, một nhà nghiên cứu trước đây tại Google, chia sẻ rằng anh rời khỏi công ty vào tháng 2 vì không đồng ý làm việc một cách nghiêm túc với nhóm nghiên cứu đạo đức của trí tuệ nhân tạo. Cuối năm ngoái, anh đã đồng chủ biên một nghiên cứu chứng minh rằng theo lý thuyết toán học, không có cách nào mô hình trí tuệ nhân tạo có thể đồng thời đảm bảo quy mô lớn, hoạt động hoàn hảo và bảo vệ quyền riêng tư của người dùng.
Ngay sau đó, Google đã đặt câu hỏi về lý do El-Mhamdi lại sử dụng danh hiệu của mình tại Google khi viết nghiên cứu. El-Mhamdi đã sẵn lòng loại bỏ thông tin về công việc trong nghiên cứu khoa học, chỉ giữ lại uy tín học thuật cá nhân. Anh cho biết: “Nếu muốn làm việc ở Google, bạn phải phục vụ hệ thống và không được đưa ra quan điểm trái ngược với hệ thống.”
Theo bài báo của Bloomberg, có nhiều quan ngại về mặt đạo đức từ nhân viên đối với trí tuệ nhân tạo chatbot của Google.