
Trong năm nay, nhà nghiên cứu trí tuệ nhân tạo của Google, Timnit Gebru, đã gửi một tin nhắn Twitter đến giáo sư Đại học Washington Emily Bender. Gebru hỏi Bender liệu cô ấy có viết về những câu hỏi đạo đức mà các tiến bộ gần đây trong trí tuệ nhân tạo xử lý văn bản đặt ra. Bender không có, nhưng hai người bắt đầu một cuộc trò chuyện về những hạn chế của công nghệ này, như bằng chứng nó có thể sao chép ngôn ngữ có độ chệch tư duy được tìm thấy trực tuyến.
Bender thấy cuộc thảo luận qua tin nhắn cá nhân thú vị và đề xuất xây dựng nó thành một bài báo học thuật. “Tôi hy vọng gây ra bước ngoặt tiếp theo trong cuộc trò chuyện,” Bender nói. “Chúng ta đã thấy tất cả sự hứng thú và thành công, hãy bước lùi và xem xét những rủi ro có thể xuất hiện và chúng ta có thể làm gì.” Bản nháp được viết trong một tháng với năm tác giả khác từ Google và giới học thuật và đã được gửi trong tháng 10 đến một hội nghị học thuật. Sớm sau đó, nó trở thành một trong những công trình nghiên cứu nổi tiếng nhất về trí tuệ nhân tạo.

Tuần trước, Gebru nói cô bị sa thải bởi Google sau khi phản đối yêu cầu của một quản lý để rút lại hoặc loại bỏ tên cô khỏi bài báo. Trưởng nhóm trí tuệ nhân tạo của Google nói rằng công việc “không đáp ứng được tiêu chí của chúng tôi để công bố.” Kể từ đó, hơn 2,200 nhân viên Google đã ký tên trên một lá thư yêu cầu thêm minh bạch về cách công ty xử lý bản nháp. Thứ Bảy, quản lý của Gebru, nhà nghiên cứu trí tuệ nhân tạo của Google, Samy Bengio, viết trên Facebook rằng anh ta “ngỡ ngàng,” tuyên bố “Tôi ủng hộ bạn, Timnit.” Các nhà nghiên cứu trí tuệ nhân tạo ngoại vi Google đã công kích công ty về cách xử lý của họ đối với Gebru công khai.
Cuộc nổi loạn đã khiến cho bài báo làm nên sự ra đi đột ngột của Gebru trở nên mạnh mẽ và khác thường. Nó lan truyền trong cộng đồng trí tuệ nhân tạo như một bản in tư tưởng cấm. Nhưng điều đáng chú ý nhất về tài liệu 12 trang, được Mytour xem, là nó không gây tranh cãi. Bài báo không công kích Google hoặc công nghệ của họ và có vẻ không có khả năng làm tổn thương danh tiếng của công ty nếu Gebru được phép công bố nó với sự liên kết của mình với Google.
Bài báo đánh giá các nghiên cứu trước đây về những hạn chế của các hệ thống trí tuệ nhân tạo phân tích và tạo ra ngôn ngữ. Nó không trình bày thí nghiệm mới. Các tác giả trích dẫn các nghiên cứu trước đó cho thấy rằng trí tuệ nhân tạo ngôn ngữ có thể tiêu thụ lượng điện lớn và lặp lại những độ chệch không hay được tìm thấy trong văn bản trực tuyến. Và họ đề xuất cách mà các nhà nghiên cứu trí tuệ nhân tạo có thể cẩn thận hơn với công nghệ, bao gồm cả việc tốt hơn ghi chép dữ liệu được sử dụng để tạo ra các hệ thống như vậy.
Những đóng góp của Google trong lĩnh vực này—một số hiện đang được triển khai trong công cụ tìm kiếm của họ—được đề cập đến nhưng không đặc biệt chỉ trích. Một trong những nghiên cứu được trích dẫn, cho thấy bằng chứng về độ chệch trong trí tuệ nhân tạo ngôn ngữ, đã được các nhà nghiên cứu của Google công bố trong năm nay.
“Bài viết này là một tác phẩm rất vững chắc và được nghiên cứu kỹ lưỡng,” nói Julien Cornebise, giáo sư danh dự tại Đại học Công viên London, người đã xem bản nháp của bài báo. “Khó có thể nhìn thấy điều gì có thể gây ra một cuộc nổi loạn ở bất kỳ phòng thí nghiệm nào, chưa kể đến việc khiến ai đó mất việc vì nó.”
Phản ứng của Google có thể là bằng chứng cho việc các nhà lãnh đạo công ty cảm thấy mình tổn thương hơn trước những phê phán đạo đức mà Gebru và những người khác nhận ra—hoặc rằng việc cô rời đi không chỉ về bài báo. Công ty không phản hồi trả lời yêu cầu bình luận. Trong một bài đăng trên blog vào thứ Hai, các thành viên của nhóm nghiên cứu đạo đức trí tuệ nhân tạo của Google gợi ý rằng các quản lý đã sử dụng quy trình đánh giá nghiên cứu nội bộ của Google chống lại Gebru. Gebru nói tuần trước rằng cô có thể đã bị loại bỏ vì phê phán chương trình đa dạng của Google và gợi ý trong một email nhóm gần đây rằng đồng nghiệp nên ngừng tham gia vào chúng.
Bản nháp bài báo đã tạo ra sự tranh cãi có tựa đề “Về Những Nguy Cơ từ Những Chú Vẹt Ngẫu Nhiên: Mô Hình Ngôn Ngữ Có Thể Quá Lớn?” (Bao gồm một biểu tượng con vẹt sau dấu chấm hỏi.) Nó đưa ra một cái nhìn phê phán về một trong những hướng nghiên cứu trí tuệ nhân tạo sôi động nhất.

Các công ty công nghệ như Google đã đầu tư nhiều vào trí tuệ nhân tạo kể từ đầu những năm 2010, khi các nhà nghiên cứu phát hiện ra rằng họ có thể làm cho việc nhận dạng giọng nói và hình ảnh chính xác hơn nhiều bằng cách sử dụng một phương pháp gọi là học máy. Các thuật toán này có thể làm cho hiệu suất của họ trở nên tốt hơn ở một nhiệm vụ cụ thể, ví dụ như chuyển văn bản từ giọng nói, bằng cách tiêu thụ dữ liệu ví dụ được chú thích bằng nhãn. Một phương pháp gọi là học sâu đã tạo ra những kết quả mới đẹp khi kết hợp các thuật toán học và bộ dữ liệu ví dụ lớn hơn cùng với máy tính mạnh mẽ hơn.
Trong những năm gần đây, các nhà nghiên cứu đã tìm ra cách siêu quy mô hóa các mô hình học máy cho ngôn ngữ. Họ đã tiến triển đáng kể trong các nhiệm vụ như trả lời câu hỏi hoặc tạo văn bản bằng cách có thuật toán học máy tiêu thụ hàng tỷ từ văn bản được thu thập từ web. Những hệ thống này hoạt động dựa trên các mô hình thống kê của ngôn ngữ. Chúng không hiểu thế giới như con người và vẫn có thể mắc phải những sai lầm mà dường như rõ ràng với một người. Nhưng chúng có thể tính toán số liệu của mình để đạt được những thành tựu ấn tượng như trả lời câu hỏi hoặc tạo ra văn bản mới mạch lạc.
Một trong những hệ thống như vậy, BERT của Google, được sử dụng để cải thiện cách công cụ tìm kiếm của công ty xử lý các truy vấn dài. Microsoft cho biết họ sẽ cấp phép một hệ thống có tên là GPT-3 từ phòng thí nghiệm độc lập OpenAI cũng đang được sử dụng bởi các doanh nhân để viết email và quảng cáo.
Tiến triển này đã khích lệ các nhà nghiên cứu khác nghi ngờ về những hạn chế và tác động xã hội có thể của công nghệ ngôn ngữ mới này. Gebru, Bender và các tác giả khác đã quyết định tổng hợp công việc này và đề xuất cách cộng đồng nghiên cứu nên đáp ứng.

Các tác giả chỉ đến nghiên cứu trước đó đã tính toán rằng việc huấn luyện một mô hình ngôn ngữ lớn có thể tiêu thụ năng lượng nhiều như một chiếc ô tô từ khi được xây dựng đến khi chuyển đến bãi rác, và một dự án đã cho thấy trí tuệ nhân tạo có thể bắt chước những người theo chủ nghĩa âm mưu trực tuyến
Một nghiên cứu khác được trích dẫn trong bài báo đã được các nhà nghiên cứu của Google công bố vào đầu năm nay và chỉ ra những hạn chế của BERT, mô hình ngôn ngữ của công ty. Nhóm nghiên cứu, không bao gồm Gebru, đã cho thấy rằng BERT có xu hướng liên kết các cụm từ liên quan đến khuyết tật như độ bại não hoặc mù với ngôn ngữ tiêu cực. Tất cả các tác giả dường như vẫn làm việc tại Google.
Trong bài báo đã khiến Gebru rời đi, cô và các tác giả khác kêu gọi các nhà phát triển trí tuệ nhân tạo phải cẩn trọng hơn với các dự án ngôn ngữ. Họ đề xuất các nhà nghiên cứu nên làm nhiều hơn để ghi chép văn bản được sử dụng để tạo ra trí tuệ nhân tạo ngôn ngữ và các hạn chế của các hệ thống được tạo ra từ nó. Họ trỏ độc giả đến một số ý tưởng gần đây được đề xuất để gắn nhãn cho hệ thống trí tuệ nhân tạo với dữ liệu về độ chính xác và nhược điểm của chúng. Một ý tưởng được cộng tác bởi Gebru tại Google được gọi là thẻ mô hình cho báo cáo mô hình và đã được bộ phận đám mây của Google áp dụng. Bài báo yêu cầu các nhà nghiên cứu xây dựng các hệ thống ngôn ngữ phải xem xét không chỉ từ góc độ của nhà phát triển trí tuệ nhân tạo, mà còn từ góc độ của những người ngoài lĩnh vực có thể bị ảnh hưởng bởi sản phẩm hoặc đánh giá của hệ thống.
Trong tuyên bố của mình về sự rời đi của Gebru tuần trước, tuyên bố rằng bài báo chất lượng kém, Trưởng nhóm nghiên cứu của Google, Jeff Dean, nói rằng nó không trích dẫn nghiên cứu về việc tạo ra các mô hình ngôn ngữ hiệu quả hơn và cách giảm thiểu độ chệch.
Bender nói rằng các tác giả đã bao gồm 128 trích dẫn và có thể sẽ thêm nhiều hơn. Những bổ sung như vậy là thực hành phổ biến trong quá trình xuất bản học thuật và thường không phải là lý do để rút lại một bài báo. Cô và các nhà nghiên cứu trí tuệ nhân tạo khác cũng nói rằng mặc dù bình luận của Dean, lĩnh vực này còn rất xa để phát minh ra một cách đáng tin cậy để loại bỏ độ chệch ngôn ngữ.
“Đó vẫn là công việc đang được tiến hành vì độ chệch có nhiều hình thức,” nói Oren Etzioni, Giám đốc điều hành của Viện Allen cho Trí tuệ Nhân tạo, đã thực hiện nghiên cứu riêng về chủ đề này, bao gồm một số được trích dẫn trong bản nháp bài báo. “Mọi người trong lĩnh vực đều nhận thức rằng những mô hình này đang trở nên ngày càng ảnh hưởng và chúng ta có nghĩa vụ đạo đức phải triển khai chúng một cách có trách nhiệm.”
Những câu chuyện tuyệt vời khác từ Mytour
- 📩 Muốn nhận tin tức mới nhất về công nghệ, khoa học và nhiều hơn nữa? Đăng ký nhận bản tin của chúng tôi!
- Chuyến tìm kiếm dữ liệu DNA có thể cứu sống của một người đàn ông
- Đua nhau giải mã quá trình tái chế pin—trước khi quá muộn
- Trí tuệ nhân tạo có thể điều hành cuộc họp làm việc của bạn ngay bây giờ
- Phục vụ mèo của bạn trong kỳ nghỉ với các thiết bị yêu thích của chúng tôi
- Từ điển Hacker: Giao thức mã hóa Signal là gì?
- 🎮 Mytour Games: Nhận những mẹo mới nhất, đánh giá và nhiều hơn nữa
- 🏃🏽♀️ Muốn những công cụ tốt nhất để trở nên khỏe mạnh? Kiểm tra những lựa chọn của đội ngũ Gear chúng tôi cho bộ theo dõi sức khỏe tốt nhất, trang thiết bị chạy bộ (bao gồm giày và tất), và tai nghe tốt nhất
