
Tuần trước, nhà nghiên cứu trí tuệ nhân tạo nổi tiếng của Google, Timnit Gebru, tuyên bố cô bị sa thải bởi công ty sau khi các quản lý yêu cầu cô rút lại hoặc rút tên khỏi một bài báo nghiên cứu, và cô phản đối. Google khẳng định cô đã từ chức, và CEO của Alphabet, Sundar Pichai, nói trong một thông báo của công ty vào thứ Tư rằng ông sẽ điều tra xem đã xảy ra điều gì.
Sự việc này là một lời nhắc sâu sắc về ảnh hưởng và quyền lực của các công ty công nghệ đối với lĩnh vực của họ. Trí tuệ nhân tạo là nền tảng của các sản phẩm có lợi nhuận như công cụ tìm kiếm của Google và trợ lý ảo Alexa của Amazon. Các công ty lớn công bố các bài nghiên cứu có ảnh hưởng, tài trợ các hội nghị học thuật, cạnh tranh để thuê các nhà nghiên cứu hàng đầu và sở hữu các trung tâm dữ liệu cần thiết cho các thí nghiệm trí tuệ nhân tạo quy mô lớn. Một nghiên cứu gần đây cho thấy hầu hết các giáo sư đại học tại bốn trường đại học nổi tiếng mà tiết lộ nguồn tài trợ đã nhận được sự hỗ trợ từ Công Nghệ Lớn.
Ben Recht, giáo sư cộng tác tại Đại học California, Berkeley, người đã dành thời gian tại Google như giảng viên thăm, nói rằng đồng nghiệp của ông đôi khi quên rằng sự quan tâm của các công ty không chỉ xuất phát từ tình yêu với khoa học. “Nghiên cứu doanh nghiệp là tuyệt vời, và đã có những điều tuyệt vời xuất phát từ Bell Labs và PARC và Google,” ông nói. “Nhưng làm ngơ rằng nghiên cứu học thuật và nghiên cứu doanh nghiệp là giống nhau là kỳ quặc.”
Ali Alkhatib, một nghiên cứu viên tại Trung tâm Đạo đức Dữ liệu Ứng dụng của Đại học San Francisco, cho biết các câu hỏi mà xử lý của Google đối với Gebru đặt ra có nguy cơ làm suy giảm tất cả nghiên cứu của công ty. “Cảm giác như là rất mong manh khi trích dẫn vì có thể có những điều đằng sau màn hình, mà họ không thể nói ra, mà chúng ta sẽ biết sau này,” anh nói.
Alkhatib, người trước đây làm việc tại bộ phận nghiên cứu của Microsoft, cho biết anh hiểu rằng nghiên cứu doanh nghiệp đi kèm với những hạn chế. Nhưng anh muốn thấy Google thực hiện những thay đổi rõ ràng để lấy lại niềm tin từ các nhà nghiên cứu bên trong và bên ngoài công ty, có thể bằng cách cách ly nhóm nghiên cứu của mình với các phần khác của Google.
Bài báo mà dẫn đến sự rời bỏ của Gebru từ Google đặt ra những câu hỏi về đạo đức do công nghệ AI làm việc với ngôn ngữ. Giám đốc nghiên cứu của Google, Jeff Dean, nói trong một tuyên bố tuần trước rằng nó “không đạt được tiêu chí để công bố.”
Gebru cho biết quản lý có thể nhìn nhận công việc của mình như đe dọa đến lợi ích kinh doanh của Google hoặc là một lý do để loại bỏ cô vì đã chỉ trích sự thiếu đa dạng trong nhóm trí tuệ nhân tạo của công ty. Các nhà nghiên cứu khác của Google cũng công khai nói rằng Google có vẻ đã sử dụng quy trình đánh giá nghiên cứu nội bộ của mình để trừng phạt cô. Hơn 2.300 nhân viên của Google, bao gồm nhiều nhà nghiên cứu trí tuệ nhân tạo, đã ký vào một bức thư mở yêu cầu công ty thiết lập hướng dẫn rõ ràng về cách nghiên cứu sẽ được xử lý.
Meredith Whittaker, giám đốc khoa tại Viện AI Now của Đại học New York, cho biết những gì đã xảy ra với Gebru là một lời nhắc rằng, mặc dù các công ty như Google khuyến khích các nhà nghiên cứu xem họ là các học giả độc lập, nhưng doanh nghiệp ưu tiên lợi nhuận hơn là chuẩn mực học thuật. “Dễ quên, nhưng bất kỳ lúc nào một công ty cũng có thể làm trật tự công việc của bạn hoặc định hình nó sao cho nó hoạt động hơn như là PR hơn là sản xuất kiến thức trong lợi ích công chúng,” cô nói.
Whittaker đã làm việc tại Google trong 13 năm nhưng rời đi vào năm 2019, nói rằng công ty đã trả đũa cô vì tổ chức một cuộc biểu tình phản đối quấy rối tình dục và để đánh đổ công việc của cô về những lo ngại về đạo đức về trí tuệ nhân tạo. Cô đã giúp tổ chức cuộc biểu tình của nhân viên phản đối một hợp đồng trí tuệ nhân tạo với Bộ Quốc phòng mà công ty sau cùng đã từ bỏ, mặc dù họ đã tiếp tục tham gia các hợp đồng quốc phòng khác.

Học máy là một khía cạnh không nổi tiếng của giới học thuật cho đến khoảng năm 2012, khi Google và các công ty công nghệ khác trở nên mạnh mẽ quan tâm đến những đột phá làm cho máy tính trở nên xuất sắc hơn trong việc nhận dạng giọng nói và hình ảnh.
Công ty tìm kiếm và quảng cáo, nhanh chóng được đối thủ như Facebook theo đuổi, thuê và mua các nhà nghiên cứu hàng đầu và kêu gọi họ tiếp tục xuất bản bài báo giữa lúc làm việc trên các hệ thống của công ty. Ngay cả Apple, một công ty truyền thống giữ thông tin chặt chẽ, đã cam kết trở nên mở cửa hơn với nghiên cứu của mình, trong một nỗ lực thu hút tài năng trí tuệ nhân tạo. Các bài báo có tác giả là doanh nghiệp và người tham dự có thẻ công ty đổ về các hội nghị là nơi chính để công bố trong lĩnh vực này.
NeurIPS, hội nghị học máy lớn nhất, diễn ra trực tuyến trong tuần này, chỉ có dưới 2,000 người tham dự vào năm 2012 và hơn 13,000 người vào năm 2019. Trong những năm gần đây, hội nghị đã trở thành một khu vực săn đuổi của các đội ngũ tuyển dụng công nghệ lớn, họ thu hút các Tiến sĩ với các bữa tối và bữa tiệc sang trọng.
Một nghiên cứu được công bố vào tháng 7 cho biết Alphabet, Amazon và Microsoft đã thuê 52 giáo sư trí tuệ nhân tạo theo đuổi nghiên cứu năm 2004 và 2018.
Nghiên cứu trí tuệ nhân tạo doanh nghiệp cũng đã trở thành một phần không thể thiếu của chiến lược PR của công nghệ lớn. Recht nói rằng điều này đôi khi đã làm méo mó công việc nào được ưu tiên giữa các nhà nghiên cứu và thuyết phục các tạp chí uy tín chấp nhận công việc doanh nghiệp có thể không xứng đáng với sự xuất hiện đáng kể như vậy. Anh nói rằng các lĩnh vực khác của công nghệ thông tin, như cơ sở dữ liệu và đồ họa, đã xử lý ảnh hưởng doanh nghiệp tốt hơn—ví dụ, bằng cách tạo ra các loại công việc riêng biệt cho ngành công nghiệp và công việc học thuật tại các hội nghị của họ.
William Fitzgerald, người trước đây làm việc trong quan hệ công chúng cho trí tuệ nhân tạo tại Google, cho biết thường xuyên phòng của anh được tham khảo ý kiến về công việc mới từ các nhà nghiên cứu của công ty. “Đôi khi là do Google muốn đặt ánh sáng lên và tỏ ra nổi bật,” anh nói. “Cũng có những lúc một nhà nghiên cứu đưa ra một cái gì đó và tôi phải gọi điện nói ‘Bạn không nên làm như vậy.’”
Recht nhận giải thưởng “Kiểm Tra Thời Gian” tại NeurIPS trong tuần này, qua cuộc trò chuyện video, cho một bài báo mà anh đồng tác giả; anh mặc một chiếc áo thun có chữ “Các hội nghị doanh nghiệp vẫn còn tồi tệ.”
Nội dung X
Nội dung này cũng có thể được xem trên trang web xuất phát từ đó.
Recht và những người khác đề phòng về sự hỗn loạn doanh nghiệp cũng nói rằng nghiên cứu trí tuệ nhân tạo công nghiệp đã dẫn đến sự tập trung không khoa học vào các dự án chỉ có thể thực hiện được đối với những người có quyền truy cập vào trung tâm dữ liệu lớn. Một giải thưởng được công bố tại NeurIPS trong tuần này đã được trao cho GPT-3, một mô hình tạo ngôn ngữ được phát triển bởi OpenAI, một phòng thí nghiệm trí tuệ nhân tạo có lợi nhuận. GPT-3 có khả năng sáng tạo ấn tượng, nhưng để xây dựng nó, công ty đã trả tiền cho Microsoft để xây dựng một siêu máy tính tùy chỉnh.
Jesse Dodge, một nghiên cứu viên sau tiến sĩ tại Viện Trí tuệ nhân tạo Allen, cho biết mặc dù dự án này ấn tượng, nhưng giá trị học thuật của nó hạn chế, vì các nguồn lực lớn làm cho nó không thể được tái tạo bởi bất kỳ ai ngoại trừ một tập đoàn lớn. OpenAI đang thương mại hóa GPT-3 với Microsoft và bán quyền truy cập vào mô hình, nhưng chưa công bố nó.

“Điều này phá vỡ các quy tắc trong khoa học, nơi chúng ta thường phát hành các mô hình có thể được áp dụng rộng rãi và đánh giá theo các chiều hướng bổ sung theo thời gian,” Dodge nói. Anh ấy đề xuất tổ chức hội nghị sử dụng giải thưởng một cách cẩn thận hơn, tôn trọng công việc đối với các tiêu chí xác định khả năng mang lại lợi ích khoa học lâu dài.
OpenAI đã nói rằng sự tiếp tục tiến triển về sức mạnh máy tính thường đồng nghĩa với việc những sáng chế trí tuệ nhân tạo mới sẽ nhanh chóng trở nên dễ tái tạo bởi người khác.
Bài báo dẫn đến sự rời bỏ không lường trước của Gebru yêu cầu các nhà phát triển trí tuệ nhân tạo phải thận trọng hơn khi xây dựng các hệ thống trí tuệ nhân tạo mạnh mẽ để xử lý ngôn ngữ, những hệ thống đã đạt được kết quả ấn tượng nhưng cũng thể hiện xu hướng lặp lại các định kiến đã học trực tuyến. Cô là cộng tác viên chính của một đội nổi tiếng tại Google chuyên khám phá các hệ quả đạo đức của nghiên cứu trí tuệ nhân tạo. Công ty đã quảng cáo công việc của họ như là bằng chứng cho việc họ đang nghĩ kỹ lưỡng hơn với trí tuệ nhân tạo so với đối thủ.
Whittaker của AI Now nói rằng việc điều tra đúng đắn về ảnh hưởng xã hội của trí tuệ nhân tạo là không tương thích với các phòng thí nghiệm doanh nghiệp. “Loại nghiên cứu nhìn vào sức mạnh và chính trị của trí tuệ nhân tạo là và phải là inherently chống đối với các công ty đang có lợi nhuận từ công nghệ này,” cô nói. “Khi những công ty này cố gắng áp đặt nghiên cứu đó, loại tình huống như này là không thể tránh khỏi.”
Gebru được lên lịch phát biểu tại một hội thảo NeurIPS diễn ra vào thứ Sáu được dành riêng để thảo luận về những căng thẳng gây ra bởi các dự án trí tuệ nhân tạo doanh nghiệp. Trang web Resistance AI ghi chú rằng nghiên cứu trí tuệ nhân tạo "đang tập trung quyền lực vào tay chính phủ và các công ty và thoát khỏi cộng đồng bị tách biệt." Chương trình đã được thay đổi gần đây để liệt kê Gebru như một “nhà nghiên cứu trí tuệ nhân tạo đạo đức nổi tiếng,” không phải là “cộng tác viên chính của Ethical AI @Google.”
Những câu chuyện tuyệt vời khác từ Mytour
- 📩 Muốn biết tin tức mới nhất về công nghệ, khoa học và nhiều hơn nữa? Đăng ký nhận bản tin của chúng tôi!
- Hai nỗ lực toàn cầu cố gắng tìm nguồn gốc của virus Covid
- Facebook có thể là một lợi ích cho các tổ chức phi lợi nhuận—nếu họ được xác minh
- Một sứ mệnh để tạo nên các bữa tiệc ảo thực sự vui vẻ
- Quà tặng thú vị dành cho người yêu âm nhạc và người yêu âm thanh
- Làm thế nào để thoát khỏi một con tàu đắm (như, ví dụ, con tàu Titanic)
- 🎮 Mytour Games: Nhận những mẹo mới nhất, đánh giá và nhiều hơn nữa
- 💻 Nâng cấp trò chơi làm việc của bạn với các laptop, bàn phím, lựa chọn gõ và tai nghe chống ồn mà đội ngũ Gear của chúng tôi yêu thích
