Tác giả gốc: Tiểu Bánh, Shenchao TechFlow
Vào mùa thu năm 2023, Ilya Sutskever, nhà khoa học trưởng của OpenAI, ngồi trước máy tính và hoàn thành một tài liệu dài 70 trang.
Tài liệu này được tổng hợp từ lịch sử tin nhắn Slack, hồ sơ trao đổi nhân sự và biên bản họp nội bộ, chỉ để trả lời một câu hỏi: Sam Altman, người đang nắm giữ công nghệ có lẽ là nguy hiểm nhất trong lịch sử nhân loại, rốt cuộc có đáng tin hay không?
Câu trả lời của Sutskever được viết ở dòng đầu tiên của trang đầu tiên, tiêu đề mục là "Sam thể hiện một mô hình hành vi nhất quán..."
Điều đầu tiên: Nói dối.
Hai năm rưỡi sau, các nhà báo điều tra Ronan Farrow và Andrew Marantz đã đăng một bài báo điều tra siêu dài trên tạp chí The New Yorker. Họ đã phỏng vấn hơn 100 người trong cuộc, có được các bản ghi nhớ nội bộ chưa từng được công bố trước đây, cùng hơn 200 trang ghi chú cá nhân của Dario Amodei, người sáng lập Anthropic, từ thời kỳ ở OpenAI. Những tài liệu này ghép lại một câu chuyện còn khó coi hơn nhiều so với vụ "tranh giành quyền lực" năm 2023: Làm thế nào OpenAI từ một tổ chức phi lợi nhuận vì sự an toàn của nhân loại, từng bước biến thành một cỗ máy thương mại, và hầu như mọi rào chắn an toàn đều bị chính một người tháo bỏ.
Kết luận của Amodei trong ghi chú còn thẳng thắn hơn: "Vấn đề của OpenAI chính là bản thân Sam."
Cài đặt "tội lỗi nguyên thủy" của OpenAI
Để hiểu được sức nặng của bài báo này, trước tiên phải nói rõ công ty OpenAI đặc biệt như thế nào.
Năm 2015, Altman và một nhóm tinh anh Thung lũng Silicon đã làm một điều hầu như chưa có tiền lệ trong lịch sử thương mại: sử dụng một tổ chức phi lợi nhuận để phát triển công nghệ có lẽ là mạnh mẽ nhất trong lịch sử nhân loại. Trách nhiệm của Hội đồng quản trị được ghi rõ: an toàn được ưu tiên hơn thành công của công ty, thậm chí ưu tiên hơn sự tồn tại của công ty. Nói thẳng ra, nếu một ngày nào đó AI của OpenAI trở nên nguy hiểm, Hội đồng quản trị có nghĩa vụ tự tay đóng cửa công ty này.
Toàn bộ cấu trúc này đặt cược vào một giả định: Người nắm giữ AGI phải là một người vô cùng trung thực.
Nếu đặt cược sai thì sao?
Quả bom cốt lõi của bài báo chính là tài liệu 70 trang đó. Sutskever không chơi chính trị văn phòng, ông là một trong những nhà khoa học AI hàng đầu thế giới. Nhưng đến năm 2023, ông ngày càng tin chắc một điều: Altman đang liên tục nói dối các giám đốc điều hành và hội đồng quản trị.
Một ví dụ cụ thể: Tháng 12 năm 2022, Altman cam đoan trong cuộc họp Hội đồng quản trị rằng nhiều tính năng của GPT-4 sắp ra mắt đã thông qua đánh giá an toàn. Thành viên Hội đồng quản trị Toner yêu cầu xem tài liệu phê duyệt, nhưng phát hiện ra rằng hai trong số các tính năng gây tranh cãi nhất (tùy chỉnh vi mô của người dùng và triển khai trợ lý cá nhân) hoàn toàn không nhận được sự chấp thuận của bộ phận an toàn.
Điều vô lý hơn xảy ra ở Ấn Độ. Một nhân viên đã báo cáo với một thành viên Hội đồng quản trị khác về "vụ vi phạm đó": Microsoft đã không hoàn thành đánh giá an toàn cần thiết, nhưng đã phát hành sớm phiên bản đầu của ChatGPT ở Ấn Độ.
Sutskever cũng ghi lại một sự việc khác trong bản ghi nhớ: Altman từng nói với cựu CTO Mira Murati rằng quy trình phê duyệt an toàn không quan trọng lắm, tổng cố vấn pháp lý của công ty đã chấp thuận rồi. Murati chạy đi xác nhận với tổng cố vấn pháp lý, người này trả lời: "Tôi không biết Sam lấy ấn tượng đó từ đâu."
Ghi chú cá nhân 200 trang của Amodei
Tài liệu của Sutskever giống như một bản cáo trạng của công tố viên. Hơn 200 trang ghi chú do Amodei để lại thì giống nhật ký của một nhân chứng tại hiện trường vụ án hơn.
Trong những năm làm trưởng bộ phận an toàn tại OpenAI, Amodei đã chứng kiến công ty từng bước lùi lại dưới áp lực thương mại. Ông đã ghi lại một chi tiết then chốt trong vụ đầu tư của Microsoft năm 2019: Ông từng đưa vào điều lệ của OpenAI một điều khoản "Hợp nhất và Hỗ trợ", đại ý là, nếu có công ty khác tìm ra con đường AGI an toàn hơn, OpenAI nên ngừng cạnh tranh và chuyển sang giúp đỡ công ty đó. Đây là sự đảm bảo an toàn mà ông coi trọng nhất trong toàn bộ thương vụ.
Khi sắp ký kết thỏa thuận, Amodei phát hiện ra một điều: Microsoft đã có quyền phủ quyết đối với điều khoản này. Có nghĩa là gì? Ngay cả khi một ngày nào đó một đối thủ cạnh tranh tìm ra con đường tốt hơn, Microsoft chỉ cần một câu nói là có thể chặn đứng nghĩa vụ hỗ trợ của OpenAI. Điều khoản vẫn còn trên giấy, nhưng từ ngày ký kết, nó đã là tờ giấy lộn.
class="ql-align-justify">Amodei sau đó rời OpenAI và thành lập Anthropic. Sự cạnh tranh giữa hai công ty, về cơ bản là sự bất đồng căn bản về "AI nên được phát triển như thế nào".Lời hứa về 20% năng lực tính toán biến mất
Trong bài báo có một chi tiết, đọc xong khiến người ta lạnh sống lưng, về "đội ngũ siêu liên kết" (super alignment team) của OpenAI.
Vào giữa năm 2023, Altman đã gửi email liên hệ với một nghiên cứu sinh tiến sĩ tại Berkeley đang nghiên cứu "sự liên kết lừa dối" (deceptive alignment - AI giả vờ ngoan ngoãn trong kiểm tra, nhưng sau khi triển khai thực tế thì làm theo cách của nó), nói rằng ông rất lo ngại về vấn đề này và đang cân nhắc thành lập một giải thưởng nghiên cứu toàn cầu trị giá 10 tỷ USD. Nghiên cứu sinh rất phấn khích, đã nghỉ học và gia nhập OpenAI.
Sau đó Altman đổi ý: không tổ chức giải thưởng bên ngoài nữa, mà thành lập "đội ngũ siêu liên kết" trong nội bộ công ty. Công ty đã công bố rầm rộ rằng sẽ phân bổ "20% năng lực tính toán hiện có" cho đội ngũ này, giá trị tiềm năng vượt quá 10 tỷ USD. Lời công bố được diễn đạt cực kỳ nghiêm túc, nói rằng nếu vấn đề liên kết không được giải quyết, AGI có thể dẫn đến "con người bị tước quyền lực, thậm chí là sự tuyệt chủng của nhân loại".
Jan Leike, người được bổ nhiệm lãnh đạo đội ngũ này, sau đó nói với phóng viên rằng bản thân lời hứa này là một "công cụ giữ chân nhân tài" rất hiệu quả.
Thực tế thì sao? Bốn nhân vật làm việc trong đội ngũ này hoặc tiếp xúc chặt chẽ cho biết, năng lực tính toán thực tế được phân bổ chỉ chiếm 1% đến 2% tổng năng lực của công ty, và còn là phần cứng cũ kỹ nhất. Đội ngũ này sau đó đã bị giải tán, sứ mệnh chưa hoàn thành.
Khi phóng viên yêu cầu phỏng vấn nhân viên phụ trách nghiên cứu "an ninh tồn tại" của OpenAI, phản ứng của quan hệ công chúng công ty khiến người ta vừa buồn cười vừa bực bội: "Đó không phải là một... thứ thực sự tồn tại."
Bản thân Altman thì thản nhiên. Ông nói với phóng viên rằng "trực giác của tôi không phù hợp lắm với nhiều thứ về an toàn AI truyền thống", OpenAI vẫn sẽ làm "các dự án an toàn, hoặc ít nhất là các dự án liên quan đến an toàn".
CFO bị bỏ vỏ và IPO sắp tới
Bài báo của The New Yorker chỉ là một nửa tin xấu trong ngày hôm đó. Cùng ngày, The Information đưa tin nóng khác: Giữa CFO của OpenAI Sarah Friar và Altman đã xảy ra bất đồng nghiêm trọng.
Friar nói riêng với đồng nghiệp rằng cô ấy nghĩ OpenAI năm nay chưa sẵn sàng để lên sàn. Hai lý do: khối lượng công việc thủ tục và tổ chức cần hoàn thành quá lớn, rủi ro tài chính do cam kết chi tiêu 6000 tỷ USD cho năng lực tính toán trong 5 năm của Altman quá cao. Cô ấy thậm chí không chắc liệu doanh thu tăng trưởng của OpenAI có chống đỡ được những cam kết này hay không.
Nhưng Altman muốn chạy nước rút IPO vào quý IV năm nay.
Điều vô lý hơn là, Friar không còn báo cáo trực tiếp với Altman nữa. Từ tháng 8 năm 2025, cô chuyển sang báo cáo với Fidji Simo (CEO bộ phận ứng dụng của OpenAI). Mà Simo tuần trước vừa xin nghỉ ốm vì lý do sức khỏe. Bạn hãy thử nghĩ về tình huống này: một công ty đang chạy nước rút IPO, CEO và CFO có bất đồng căn bản, CFO không báo cáo với CEO, cấp trên của CFO lại đang nghỉ.
Ngay cả giám đốc điều hành cấp cao nội bộ Microsoft cũng không thể nhịn được, nói rằng Altman "bóp méo sự thật, nuốt lời, liên tục lật lại các thỏa thuận đã đạt được". Một giám đốc điều hành cấp cao của Microsoft thậm chí đã nói một câu như thế này: "Tôi nghĩ anh ta có một xác suất nhất định cuối cùng sẽ được mọi người nhớ đến như một kẻ lừa đảo ở cấp độ Bernie Madoff hoặc SBF."
Chân dung "con người hai mặt" của Altman
Một cựu thành viên Hội đồng quản trị OpenAI đã mô tả với phóng viên hai đặc điểm trên người Altman. Đoạn này có lẽ là bức phác họa nhân vật gay gắt nhất trong toàn bộ bài báo.
Vị giám đốc này nói, Altman có một sự kết hợp đặc tính cực kỳ hiếm: trong mỗi lần giao tiếp trực tiếp, anh ta đều khao khát mãnh liệt được làm hài lòng đối phương, được đối phương yêu thích. Đồng thời, anh ta tỏ ra gần như thờ ơ một cách bệnh hoạn về mặt xã hội đối với hậu quả mà việc lừa dối người khác có thể mang lại.
Hai đặc điểm cùng xuất hiện trên một người là cực kỳ hiếm. Nhưng đối với một nhân viên bán hàng, đây là tài năng bẩm sinh hoàn hảo nhất.
Trong bài báo có một phép ẩn dụ nói rất hay: Jobs nổi tiếng với "trường lực xoắn hiện thực" (reality distortion field), ông ta có thể khiến cả thế giới tin vào tầm nhìn của mình. Nhưng ngay cả Jobs, cũng chưa bao giờ nói với khách hàng rằng "nếu bạn không mua máy nghe nhạc MP3 của tôi, người bạn yêu thương sẽ chết".
Altman đã nói những lời tương tự, về AI.
Vấn đề nhân phẩm của một CEO, tại sao lại là rủi ro cho tất cả mọi người
Nếu Altman chỉ là CEO của một công ty công nghệ bình thường, những cáo buộc này nhiều lắm chỉ là một tin tức tầm phào thương mại ly kỳ. Nhưng OpenAI không bình thường.
Theo cách nói của chính nó, nó đang phát triển công nghệ có lẽ là mạnh mẽ nhất trong lịch sử nhân loại. Có thể định hình lại nền kinh tế toàn cầu và thị trường lao động (OpenAI vừa tự phát hành một sách trắng chính sách về vấn đề thất nghiệp do AI gây ra), cũng có thể được sử dụng để chế tạo vũ khí sinh học quy mô lớn hoặc phát động tấn công mạng.
Tất cả các rào chắn an toàn chỉ còn tồn tại trên danh nghĩa. Sứ mệnh phi lợi nhuận của người sáng lập đã nhường chỗ cho cuộc chạy nước rút IPO. Cựu nhà khoa học trưởng và cựu trưởng bộ phận an toàn đều khẳng định CEO "không đáng tin". Đối tác so sánh CEO với SBF. Trong tình huống này, CEO này dựa vào cái gì để tự mình quyết định thời điểm phát hành mô hình AI có thể thay đổi vận mệnh nhân loại?
Gary Marcus (Giáo sư AI Đại học New York, người ủng hộ an toàn AI lâu năm) sau khi đọc bài báo đã viết một câu: Nếu một mô hình OpenAI nào đó trong tương lai có thể chế tạo vũ khí sinh học quy mô lớn hoặc phát động tấn công mạng thảm khốc, bạn có thực sự yên tâm để cho Altman một mình quyết định việc phát hành hay không?
Phản hồi của OpenAI với The New Yorker khá ngắn gọn: "Phần lớn nội dung bài viết này là đảo lại các sự kiện đã được đưa tin, thông qua các lời kể nặc danh và giai thoại có chọn lọc, nguồn tin rõ ràng mang mục đích cá nhân."
Cách phản hồi rất Altman: không phản hồi các cáo buộc cụ thể, không phủ nhận tính xác thực của bản ghi nhớ, chỉ chất vấn động cơ.
Trên xác chết phi lợi nhuận, mọc lên một cây tiền
Mười năm của OpenAI, viết thành một đại cương câu chuyện như thế này:
Một nhóm những người theo chủ nghĩa lý tưởng lo ngại rủi ro AI đã tạo ra một tổ chức phi lợi nhuận driven by sứ mệnh. Tổ chức đã đạt được bước đột phá công nghệ phi thường. Đột phá thu hút vốn khổng lồ. Vốn cần có lợi nhuận. Sứ mệnh bắt đầu nhường đường. Đội ngũ an toàn bị giải tán. Những người chất vấn bị thanh trừng. Cấu trúc phi lợi nhuận được sửa thành thực thể vì lợi nhuận. Hội đồng quản trị từng có quyền đóng cửa công ty, giờ ngồi đầy đồng minh của CEO. Công ty từng cam kết dành 20% năng lực tính toán để bảo vệ an toàn nhân loại, giờ nhân viên quan hệ công chúng nói "đó không phải là một thứ thực sự tồn tại".
Nhân vật chính của câu chuyện, hơn một trăm người trong cuộc dán cho anh ta cùng một nhãn: "không bị ràng buộc bởi sự thật".
Anh ta đang chuẩn bị đưa công ty này lên sàn IPO, định giá hơn 8500 tỷ USD.
Thông tin trong bài tổng hợp từ các báo cáo công khai của nhiều phương tiện truyền thông như The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, v.v.





