Trong vài năm qua, OpenAI đã trở thành biểu tượng cho sự phát triển công nghệ AI toàn cầu. Dù vậy, startup này vẫn gặp không ít khó khăn. Hiện tại, OpenAI đang thực hiện những thay đổi lớn trong đội ngũ lãnh đạo và cách thức vận hành để thu hút nguồn vốn từ các tập đoàn và quỹ đầu tư hàng đầu thế giới.Gần đây, OpenAI đã mời nhiều chuyên gia và giám đốc công nghệ nổi tiếng, bao gồm cả chuyên gia chống thông tin sai lệch và các nhà nghiên cứu an toàn AI uy tín. Họ cũng đã bổ sung thêm 7 thành viên mới vào ban lãnh đạo, trong đó có một cựu tướng 4 sao của quân đội Mỹ, từng đứng đầu cơ quan an ninh quốc gia. Những động thái này nhằm đảm bảo công nghệ AI của OpenAI sẽ không gây ảnh hưởng tiêu cực đến xã hội và người dùng.

Từ trái qua: Sarah Friar, Kevin Weil, Ben Nimmo và Joaquin Candela
Về mặt đầu tư, OpenAI hiện đang đàm phán với Microsoft, Apple, Nvidia và quỹ đầu tư Thrive để huy động thêm vốn nhằm nâng giá trị của startup lên 100 tỷ USD. Để thu hút nhà đầu tư, OpenAI sẵn sàng thay đổi cả cơ cấu tổ chức và cách vận hành của mình.
Hành trình chuyển mình
Nhưng qua các cuộc phỏng vấn với 20 cá nhân đang làm việc tại OpenAI, từ nhân viên đến quản lý, cho thấy quá trình đổi mới để thay đổi hình ảnh của OpenAI hiện đang gặp nhiều khó khăn.
Nhân viên lâu năm liên tục rời bỏ, dù đã có sự bổ sung nhân sự và giám đốc mới. Tốc độ phát triển nhanh chóng của OpenAI vẫn chưa giải đáp được câu hỏi cơ bản về bản chất của startup: Liệu OpenAI là một phòng thí nghiệm nghiên cứu công nghệ AI phục vụ lợi ích nhân loại, hay chỉ là một gã khổng lồ công nghệ hướng tới lợi nhuận?
Hiện tại, OpenAI có hơn 1700 nhân viên, trong đó 80% gia nhập sau khi ra mắt vào tháng 11/2022. Dù CEO Sam Altman và một số giám đốc cấp cao đã trực tiếp tham gia tuyển dụng, thì chủ tịch mới của ban lãnh đạo, Bret Taylor, lại tập trung vào việc mở rộng đội ngũ lãnh đạo.

Ông Taylor tuyên bố: “Hầu hết các startup đều thay đổi tự nhiên và linh hoạt khi ảnh hưởng của chúng ngày càng lớn. Chúng tôi nhận thấy rằng OpenAI đang trải qua quá trình chuyển mình với tốc độ chưa từng có. Ban quản trị và các nhóm chuyên trách tại OpenAI vẫn tập trung vào mục tiêu chính là phát triển AI an toàn và giải quyết các vấn đề cho cộng đồng.”
Trong số các quản lý mới của OpenAI, nhiều người đã từng giữ các vị trí quan trọng tại các tập đoàn lớn.
Giám đốc tài chính mới, Sarah Friar, từng là CEO của Nextdoor. Kevin Weil, giám đốc sản phẩm mới, từng là phó chủ tịch phụ trách phát triển sản phẩm tại Twitter. Ben Nimmo từng lãnh đạo các chiến dịch pháp lý chống lại truyền thông sai lệch khi làm việc tại Facebook. Joaquin Candela là người đứng đầu nhóm nghiên cứu giải quyết các vấn đề tiêu cực liên quan đến trí tuệ nhân tạo tại Facebook.
Những gương mặt mới và sự ra đi của người cũ
Trong số 13 người sáng lập OpenAI vào năm 2015, chỉ còn lại 3 người vẫn tiếp tục gắn bó với startup. Đầu tiên là chủ tịch Greg Brockman, người đang xin nghỉ phép đến hết năm để có thời gian riêng sau gần một thập kỷ làm việc không ngừng.
Giám đốc chiến lược Jason Kwon chia sẻ: “Việc có người mới gia nhập và người cũ rời bỏ là chuyện bình thường, nhưng chúng tôi thường xuyên bị theo dõi kỹ lưỡng hơn từ cộng đồng và truyền thông. Mọi thông tin về nhân sự cũ và mới đều trở thành tâm điểm chú ý.”

Kể từ những ngày đầu thành lập với tư cách là một phòng nghiên cứu phi lợi nhuận, OpenAI đã gặp khó khăn trong việc cân bằng các mục tiêu của mình. Vào năm 2018, Elon Musk, một trong những nhà đầu tư sáng lập, đã rút lui sau những bất đồng với các đồng sáng lập khác. Đầu năm 2022, một nhóm nghiên cứu chủ chốt đã bày tỏ lo ngại rằng OpenAI đang tập trung đưa công nghệ mới ra thị trường mà không có đủ các biện pháp kiểm soát nội dung. Họ đã rời OpenAI để thành lập một công ty cạnh tranh trực tiếp, hiện đang được biết đến với tên Anthropic.

Drama liên quan đến việc Sam Altman bị sa thải vào cuối năm ngoái và sau đó trở lại OpenAI chỉ sau 5 ngày xuất phát từ những mâu thuẫn giữa các nhà nghiên cứu và các lãnh đạo kinh doanh tại startup này.
OpenAI đã chia tay nhiều nhân viên từng chỉ trích ông Altman hoặc mong muốn thực hiện các nghiên cứu tiên tiến hơn, thay vì biến OpenAI thành một tập đoàn công nghệ thông thường. Một trong những phàn nàn là nhân viên công khai phản đối quyết định của công ty có thể bị tước quyền sở hữu cổ phần. Một nhà nghiên cứu đã rời bỏ công ty vì bất đồng với quy định này, và OpenAI hiện đã bỏ quy định đó.
Cân bằng giữa nghiên cứu an toàn và áp lực tài chính
OpenAI đang phát triển nhờ vào hai yếu tố không luôn luôn hòa hợp.
Mặt khác, họ cần một lượng vốn lớn. Doanh thu hàng năm của OpenAI đã đạt khoảng 2 tỷ USD, theo một nguồn tin không chính thức. hiện có hơn 200 triệu người dùng mỗi tuần, gấp đôi so với 9 tháng trước. Hiện tại, không rõ chính xác số tiền đầu tư mà OpenAI đang tiêu mỗi năm, nhưng ước tính khoảng 7 tỷ USD.
OpenAI đang xem xét việc thay đổi cấu trúc doanh nghiệp để thu hút đầu tư. Hiện tại, ban lãnh đạo của OpenAI, đặc biệt là phần nghiên cứu phi lợi nhuận, vẫn nắm quyền điều hành toàn bộ công ty. Các nhà đầu tư không tham gia vào quyết định quản lý của OpenAI.

Khi cần thu hút đầu tư từ các tập đoàn và quỹ lớn, OpenAI có thể thay đổi ban lãnh đạo và cách quản lý để làm hài lòng các nhà đầu tư sẵn sàng rót hàng tỷ USD vào startup này. Tuy nhiên, hiện tại OpenAI vẫn chưa đưa ra quyết định chính thức về vấn đề này.
Đồng thời, OpenAI cũng đang phát triển dựa trên các công nghệ AI gây lo ngại cho nhiều nhà nghiên cứu, bao gồm cả nhân viên của công ty. Họ lo ngại rằng các công nghệ AI tạo sinh của OpenAI có thể bị lợi dụng để lan truyền thông tin sai lệch, thực hiện các cuộc tấn công mạng, hoặc thậm chí gây nguy hiểm cho nền văn minh nhân loại.

Vào tháng 5 vừa qua, tiến sĩ Ilya Sutskever, người từng đứng đầu nhóm Superalignment nghiên cứu các biện pháp kiểm soát công nghệ AI tạo sinh, đã từ chức để sáng lập một startup AI mới. Ngay sau đó, phó của Sutskever ở Superalignment, tiến sĩ Jan Leike cũng rời bỏ và gia nhập Anthropic, công ty cạnh tranh với OpenAI, cùng những người sáng lập OpenAI từ những ngày đầu.
Còn nhiều người khác có quan điểm tương tự như Sutskever và Leike. William Sounders, một nhà nghiên cứu mới rời OpenAI, cho biết: “Tôi lo ngại rằng OpenAI và các công ty AI khác chưa có kế hoạch đầy đủ để kiểm soát các hệ thống AI có trí tuệ tương đương hoặc vượt qua trí tuệ con người, mà họ đang huy động hàng tỷ USD để phát triển.”
Hiện tại, nhóm nghiên cứu an toàn AI của OpenAI được điều hành bởi một nhà đồng sáng lập khác, John Schulman.

Các cựu giám đốc của OpenAI, những người phải giữ bí mật vì đã ký NDA, cho rằng những vấn đề về sự không cân bằng giữa lợi ích và mục tiêu của OpenAI vẫn đang tồn tại. Ba trong số họ đề cập đến trường hợp của Aleksander Madry, người từng lãnh đạo nhóm Preparedness, nghiên cứu cách ngăn chặn các tình huống cực đoan khi AI không hoạt động như dự kiến. Sau khi bất đồng về giá trị của nhóm Preparedness trong tập đoàn, tiến sĩ Madry đã chuyển sang dự án khác.
Đầu tháng 6 vừa qua, một nhà nghiên cứu khác, Todor Markov, đã đăng một thông báo trên hệ thống nội bộ của OpenAI, tuyên bố từ chức. Anh cho rằng ban quản trị OpenAI đã liên tục lừa dối nhân viên và cho rằng đội ngũ hiện tại không đáng tin cậy trong việc phát triển AGI, trí thông minh nhân tạo tổng quát. Trong bức thư từ chức, Markov viết: “Các ông thường nhấn mạnh trách nhiệm của chúng tôi trong việc phát triển AGI an toàn và mang lại giá trị công bằng. Vậy còn trách nhiệm của các ông thì sao?”

Vài ngày sau bức thư của Markov, OpenAI đã công bố ông Paul M. Nakasone, cựu tướng 4 sao của quân đội Mỹ, là thành viên mới trong ban quản trị. Trong một cuộc phỏng vấn gần đây, ông Nakasone cho biết: “Tôi có phải là người không có kinh nghiệm trong lĩnh vực AI không? Tôi không nghĩ vậy. Tôi đã điều hành NSA và đã đối mặt với nhiều vấn đề trong nhiều năm.”
Theo The New York Times
