Giải mã bài điều tra sâu của The New Yorker: Tại sao nội bộ OpenAI khẳng định Altman không đáng tin?

marsbitXuất bản vào 2026-04-07Cập nhật gần nhất vào 2026-04-07

Tóm tắt

Một cuộc điều tra sâu sắc của tờ The New Yorker, dựa trên các tài liệu nội bộ và phỏng vấn hơn 100 người, tiết lộ những lo ngại nghiêm trọng về tính đáng tin cậy của Giám đốc điều hành OpenAI, Sam Altman. Cựu nhà khoa học trưởng Ilya Sutskever đã biên soạn một bản ghi nhớ 70 trang cáo buộc Altman có "mô hình hành vi nhất quán" là nói dối, chẳng hạn như tuyên bố sai về việc phê duyệt an toàn cho GPT-4. Dario Amodei, người sáng lập Anthropic, để lại hơn 200 trang ghi chú cá nhân, kết luận "vấn đề của OpenAI chính là Sam". Ông mô tả cách các biện pháp bảo vệ an toàn ban đầu, như một điều khoản hợp tác với đối thủ, đã bị vô hiệu hóa bởi các thỏa thuận với Microsoft. Bài báo cũng chỉ ra rằng lời hứa dành 20% năng lượng tính toán cho một nhóm nghiên cứu an toàn "siêu liên kết" (superalignment) thực tế chỉ là 1-2% và nhóm này cuối cùng đã bị giải tán. Một báo cáo khác tiết lộ mâu thuẫn giữa Altman và Giám đốc tài chính Sarah Friar về việc IPO, với Friar cho rằng công ty chưa sẵn sàng. Các cựu thành viên hội đồng quản trị và giám đốc Microsoft mô tả Altman là người "không bị ràng buộc bởi sự thật", so sánh ông với những kẻ lừa đảo như SBF. Những cáo buộc này đặt ra câu hỏi nghiêm trọng về an ninh toàn cầu, vì một CEO không đáng tin cậy đang nắm quyền ra quyết định cho công nghệ AI mạnh mẽ và nguy hiểm tiềm tàng. OpenAI bác bỏ bài báo, cho rằng nó dựa trên các giai thoại có chọn lọc và nguồn tin ẩn danh.

Tác giả gốc: Tiểu Bánh, Shenchao TechFlow

Vào mùa thu năm 2023, Ilya Sutskever, nhà khoa học trưởng của OpenAI, ngồi trước máy tính và hoàn thành một tài liệu dài 70 trang.

Tài liệu này được tổng hợp từ lịch sử tin nhắn Slack, hồ sơ trao đổi nhân sự và biên bản họp nội bộ, chỉ để trả lời một câu hỏi: Sam Altman, người đang nắm giữ công nghệ có lẽ là nguy hiểm nhất trong lịch sử nhân loại, rốt cuộc có đáng tin hay không?

Câu trả lời của Sutskever được viết ở dòng đầu tiên của trang đầu tiên, tiêu đề mục là "Sam thể hiện một mô hình hành vi nhất quán..."

Điều đầu tiên: Nói dối.

Hai năm rưỡi sau, các nhà báo điều tra Ronan Farrow và Andrew Marantz đã đăng một bài báo điều tra siêu dài trên tạp chí The New Yorker. Họ đã phỏng vấn hơn 100 người trong cuộc, có được các bản ghi nhớ nội bộ chưa từng được công bố trước đây, cùng hơn 200 trang ghi chú cá nhân của Dario Amodei, người sáng lập Anthropic, từ thời kỳ ở OpenAI. Những tài liệu này ghép lại một câu chuyện còn khó coi hơn nhiều so với vụ "tranh giành quyền lực" năm 2023: Làm thế nào OpenAI từ một tổ chức phi lợi nhuận vì sự an toàn của nhân loại, từng bước biến thành một cỗ máy thương mại, và hầu như mọi rào chắn an toàn đều bị chính một người tháo bỏ.

Kết luận của Amodei trong ghi chú còn thẳng thắn hơn: "Vấn đề của OpenAI chính là bản thân Sam."

Cài đặt "tội lỗi nguyên thủy" của OpenAI

Để hiểu được sức nặng của bài báo này, trước tiên phải nói rõ công ty OpenAI đặc biệt như thế nào.

Năm 2015, Altman và một nhóm tinh anh Thung lũng Silicon đã làm một điều hầu như chưa có tiền lệ trong lịch sử thương mại: sử dụng một tổ chức phi lợi nhuận để phát triển công nghệ có lẽ là mạnh mẽ nhất trong lịch sử nhân loại. Trách nhiệm của Hội đồng quản trị được ghi rõ: an toàn được ưu tiên hơn thành công của công ty, thậm chí ưu tiên hơn sự tồn tại của công ty. Nói thẳng ra, nếu một ngày nào đó AI của OpenAI trở nên nguy hiểm, Hội đồng quản trị có nghĩa vụ tự tay đóng cửa công ty này.

Toàn bộ cấu trúc này đặt cược vào một giả định: Người nắm giữ AGI phải là một người vô cùng trung thực.

Nếu đặt cược sai thì sao?

Quả bom cốt lõi của bài báo chính là tài liệu 70 trang đó. Sutskever không chơi chính trị văn phòng, ông là một trong những nhà khoa học AI hàng đầu thế giới. Nhưng đến năm 2023, ông ngày càng tin chắc một điều: Altman đang liên tục nói dối các giám đốc điều hành và hội đồng quản trị.

Một ví dụ cụ thể: Tháng 12 năm 2022, Altman cam đoan trong cuộc họp Hội đồng quản trị rằng nhiều tính năng của GPT-4 sắp ra mắt đã thông qua đánh giá an toàn. Thành viên Hội đồng quản trị Toner yêu cầu xem tài liệu phê duyệt, nhưng phát hiện ra rằng hai trong số các tính năng gây tranh cãi nhất (tùy chỉnh vi mô của người dùng và triển khai trợ lý cá nhân) hoàn toàn không nhận được sự chấp thuận của bộ phận an toàn.

Điều vô lý hơn xảy ra ở Ấn Độ. Một nhân viên đã báo cáo với một thành viên Hội đồng quản trị khác về "vụ vi phạm đó": Microsoft đã không hoàn thành đánh giá an toàn cần thiết, nhưng đã phát hành sớm phiên bản đầu của ChatGPT ở Ấn Độ.

Sutskever cũng ghi lại một sự việc khác trong bản ghi nhớ: Altman từng nói với cựu CTO Mira Murati rằng quy trình phê duyệt an toàn không quan trọng lắm, tổng cố vấn pháp lý của công ty đã chấp thuận rồi. Murati chạy đi xác nhận với tổng cố vấn pháp lý, người này trả lời: "Tôi không biết Sam lấy ấn tượng đó từ đâu."

Ghi chú cá nhân 200 trang của Amodei

Tài liệu của Sutskever giống như một bản cáo trạng của công tố viên. Hơn 200 trang ghi chú do Amodei để lại thì giống nhật ký của một nhân chứng tại hiện trường vụ án hơn.

Trong những năm làm trưởng bộ phận an toàn tại OpenAI, Amodei đã chứng kiến công ty từng bước lùi lại dưới áp lực thương mại. Ông đã ghi lại một chi tiết then chốt trong vụ đầu tư của Microsoft năm 2019: Ông từng đưa vào điều lệ của OpenAI một điều khoản "Hợp nhất và Hỗ trợ", đại ý là, nếu có công ty khác tìm ra con đường AGI an toàn hơn, OpenAI nên ngừng cạnh tranh và chuyển sang giúp đỡ công ty đó. Đây là sự đảm bảo an toàn mà ông coi trọng nhất trong toàn bộ thương vụ.

Khi sắp ký kết thỏa thuận, Amodei phát hiện ra một điều: Microsoft đã có quyền phủ quyết đối với điều khoản này. Có nghĩa là gì? Ngay cả khi một ngày nào đó một đối thủ cạnh tranh tìm ra con đường tốt hơn, Microsoft chỉ cần một câu nói là có thể chặn đứng nghĩa vụ hỗ trợ của OpenAI. Điều khoản vẫn còn trên giấy, nhưng từ ngày ký kết, nó đã là tờ giấy lộn.

class="ql-align-justify">Amodei sau đó rời OpenAI và thành lập Anthropic. Sự cạnh tranh giữa hai công ty, về cơ bản là sự bất đồng căn bản về "AI nên được phát triển như thế nào".

Lời hứa về 20% năng lực tính toán biến mất

Trong bài báo có một chi tiết, đọc xong khiến người ta lạnh sống lưng, về "đội ngũ siêu liên kết" (super alignment team) của OpenAI.

Vào giữa năm 2023, Altman đã gửi email liên hệ với một nghiên cứu sinh tiến sĩ tại Berkeley đang nghiên cứu "sự liên kết lừa dối" (deceptive alignment - AI giả vờ ngoan ngoãn trong kiểm tra, nhưng sau khi triển khai thực tế thì làm theo cách của nó), nói rằng ông rất lo ngại về vấn đề này và đang cân nhắc thành lập một giải thưởng nghiên cứu toàn cầu trị giá 10 tỷ USD. Nghiên cứu sinh rất phấn khích, đã nghỉ học và gia nhập OpenAI.

Sau đó Altman đổi ý: không tổ chức giải thưởng bên ngoài nữa, mà thành lập "đội ngũ siêu liên kết" trong nội bộ công ty. Công ty đã công bố rầm rộ rằng sẽ phân bổ "20% năng lực tính toán hiện có" cho đội ngũ này, giá trị tiềm năng vượt quá 10 tỷ USD. Lời công bố được diễn đạt cực kỳ nghiêm túc, nói rằng nếu vấn đề liên kết không được giải quyết, AGI có thể dẫn đến "con người bị tước quyền lực, thậm chí là sự tuyệt chủng của nhân loại".

Jan Leike, người được bổ nhiệm lãnh đạo đội ngũ này, sau đó nói với phóng viên rằng bản thân lời hứa này là một "công cụ giữ chân nhân tài" rất hiệu quả.

Thực tế thì sao? Bốn nhân vật làm việc trong đội ngũ này hoặc tiếp xúc chặt chẽ cho biết, năng lực tính toán thực tế được phân bổ chỉ chiếm 1% đến 2% tổng năng lực của công ty, và còn là phần cứng cũ kỹ nhất. Đội ngũ này sau đó đã bị giải tán, sứ mệnh chưa hoàn thành.

Khi phóng viên yêu cầu phỏng vấn nhân viên phụ trách nghiên cứu "an ninh tồn tại" của OpenAI, phản ứng của quan hệ công chúng công ty khiến người ta vừa buồn cười vừa bực bội: "Đó không phải là một... thứ thực sự tồn tại."

Bản thân Altman thì thản nhiên. Ông nói với phóng viên rằng "trực giác của tôi không phù hợp lắm với nhiều thứ về an toàn AI truyền thống", OpenAI vẫn sẽ làm "các dự án an toàn, hoặc ít nhất là các dự án liên quan đến an toàn".

CFO bị bỏ vỏ và IPO sắp tới

Bài báo của The New Yorker chỉ là một nửa tin xấu trong ngày hôm đó. Cùng ngày, The Information đưa tin nóng khác: Giữa CFO của OpenAI Sarah Friar và Altman đã xảy ra bất đồng nghiêm trọng.

Friar nói riêng với đồng nghiệp rằng cô ấy nghĩ OpenAI năm nay chưa sẵn sàng để lên sàn. Hai lý do: khối lượng công việc thủ tục và tổ chức cần hoàn thành quá lớn, rủi ro tài chính do cam kết chi tiêu 6000 tỷ USD cho năng lực tính toán trong 5 năm của Altman quá cao. Cô ấy thậm chí không chắc liệu doanh thu tăng trưởng của OpenAI có chống đỡ được những cam kết này hay không.

Nhưng Altman muốn chạy nước rút IPO vào quý IV năm nay.

Điều vô lý hơn là, Friar không còn báo cáo trực tiếp với Altman nữa. Từ tháng 8 năm 2025, cô chuyển sang báo cáo với Fidji Simo (CEO bộ phận ứng dụng của OpenAI). Mà Simo tuần trước vừa xin nghỉ ốm vì lý do sức khỏe. Bạn hãy thử nghĩ về tình huống này: một công ty đang chạy nước rút IPO, CEO và CFO có bất đồng căn bản, CFO không báo cáo với CEO, cấp trên của CFO lại đang nghỉ.

Ngay cả giám đốc điều hành cấp cao nội bộ Microsoft cũng không thể nhịn được, nói rằng Altman "bóp méo sự thật, nuốt lời, liên tục lật lại các thỏa thuận đã đạt được". Một giám đốc điều hành cấp cao của Microsoft thậm chí đã nói một câu như thế này: "Tôi nghĩ anh ta có một xác suất nhất định cuối cùng sẽ được mọi người nhớ đến như một kẻ lừa đảo ở cấp độ Bernie Madoff hoặc SBF."

Chân dung "con người hai mặt" của Altman

Một cựu thành viên Hội đồng quản trị OpenAI đã mô tả với phóng viên hai đặc điểm trên người Altman. Đoạn này có lẽ là bức phác họa nhân vật gay gắt nhất trong toàn bộ bài báo.

Vị giám đốc này nói, Altman có một sự kết hợp đặc tính cực kỳ hiếm: trong mỗi lần giao tiếp trực tiếp, anh ta đều khao khát mãnh liệt được làm hài lòng đối phương, được đối phương yêu thích. Đồng thời, anh ta tỏ ra gần như thờ ơ một cách bệnh hoạn về mặt xã hội đối với hậu quả mà việc lừa dối người khác có thể mang lại.

Hai đặc điểm cùng xuất hiện trên một người là cực kỳ hiếm. Nhưng đối với một nhân viên bán hàng, đây là tài năng bẩm sinh hoàn hảo nhất.

Trong bài báo có một phép ẩn dụ nói rất hay: Jobs nổi tiếng với "trường lực xoắn hiện thực" (reality distortion field), ông ta có thể khiến cả thế giới tin vào tầm nhìn của mình. Nhưng ngay cả Jobs, cũng chưa bao giờ nói với khách hàng rằng "nếu bạn không mua máy nghe nhạc MP3 của tôi, người bạn yêu thương sẽ chết".

Altman đã nói những lời tương tự, về AI.

Vấn đề nhân phẩm của một CEO, tại sao lại là rủi ro cho tất cả mọi người

Nếu Altman chỉ là CEO của một công ty công nghệ bình thường, những cáo buộc này nhiều lắm chỉ là một tin tức tầm phào thương mại ly kỳ. Nhưng OpenAI không bình thường.

Theo cách nói của chính nó, nó đang phát triển công nghệ có lẽ là mạnh mẽ nhất trong lịch sử nhân loại. Có thể định hình lại nền kinh tế toàn cầu và thị trường lao động (OpenAI vừa tự phát hành một sách trắng chính sách về vấn đề thất nghiệp do AI gây ra), cũng có thể được sử dụng để chế tạo vũ khí sinh học quy mô lớn hoặc phát động tấn công mạng.

Tất cả các rào chắn an toàn chỉ còn tồn tại trên danh nghĩa. Sứ mệnh phi lợi nhuận của người sáng lập đã nhường chỗ cho cuộc chạy nước rút IPO. Cựu nhà khoa học trưởng và cựu trưởng bộ phận an toàn đều khẳng định CEO "không đáng tin". Đối tác so sánh CEO với SBF. Trong tình huống này, CEO này dựa vào cái gì để tự mình quyết định thời điểm phát hành mô hình AI có thể thay đổi vận mệnh nhân loại?

Gary Marcus (Giáo sư AI Đại học New York, người ủng hộ an toàn AI lâu năm) sau khi đọc bài báo đã viết một câu: Nếu một mô hình OpenAI nào đó trong tương lai có thể chế tạo vũ khí sinh học quy mô lớn hoặc phát động tấn công mạng thảm khốc, bạn có thực sự yên tâm để cho Altman một mình quyết định việc phát hành hay không?

Phản hồi của OpenAI với The New Yorker khá ngắn gọn: "Phần lớn nội dung bài viết này là đảo lại các sự kiện đã được đưa tin, thông qua các lời kể nặc danh và giai thoại có chọn lọc, nguồn tin rõ ràng mang mục đích cá nhân."

Cách phản hồi rất Altman: không phản hồi các cáo buộc cụ thể, không phủ nhận tính xác thực của bản ghi nhớ, chỉ chất vấn động cơ.

Trên xác chết phi lợi nhuận, mọc lên một cây tiền

Mười năm của OpenAI, viết thành một đại cương câu chuyện như thế này:

Một nhóm những người theo chủ nghĩa lý tưởng lo ngại rủi ro AI đã tạo ra một tổ chức phi lợi nhuận driven by sứ mệnh. Tổ chức đã đạt được bước đột phá công nghệ phi thường. Đột phá thu hút vốn khổng lồ. Vốn cần có lợi nhuận. Sứ mệnh bắt đầu nhường đường. Đội ngũ an toàn bị giải tán. Những người chất vấn bị thanh trừng. Cấu trúc phi lợi nhuận được sửa thành thực thể vì lợi nhuận. Hội đồng quản trị từng có quyền đóng cửa công ty, giờ ngồi đầy đồng minh của CEO. Công ty từng cam kết dành 20% năng lực tính toán để bảo vệ an toàn nhân loại, giờ nhân viên quan hệ công chúng nói "đó không phải là một thứ thực sự tồn tại".

Nhân vật chính của câu chuyện, hơn một trăm người trong cuộc dán cho anh ta cùng một nhãn: "không bị ràng buộc bởi sự thật".

Anh ta đang chuẩn bị đưa công ty này lên sàn IPO, định giá hơn 8500 tỷ USD.

Thông tin trong bài tổng hợp từ các báo cáo công khai của nhiều phương tiện truyền thông như The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, v.v.

Câu hỏi Liên quan

QTại sao Ilya Sutskever, nhà khoa học trưởng của OpenAI, lại tạo ra một tài liệu 70 trang về Sam Altman?

AIlya Sutskever tạo ra tài liệu 70 trang để điều tra xem liệu Sam Altman, người nắm giữ công nghệ nguy hiểm tiềm tàng nhất trong lịch sử nhân loại, có đáng tin cậy hay không. Tài liệu này tổng hợp từ lịch sử tin nhắn Slack, hồ sơ nhân sự và biên bản cuộc họp nội bộ, với kết luận hàng đầu rằng Altman có 'hành vi nói dối một cách nhất quán'.

QGhi chú cá nhân 200 trang của Dario Amodei tiết lộ điều gì về thỏa thuận với Microsoft?

AGhi chú của Dario Amodei tiết lộ rằng trong thỏa thuận đầu tư với Microsoft năm 2019, một điều khoản an toàn quan trọng mà ông đưa vào - yêu cầu OpenAI ngừng cạnh tranh và hỗ trợ nếu một công ty khác tìm ra con đường phát triển AGI an toàn hơn - đã bị Microsoft giành quyền phủ quyết. Điều này khiến điều khoản này trở nên vô hiệu ngay từ khi ký kết.

QCam kết về 20% năng lực tính toán cho đội 'Siêu liên kết' của OpenAI đã được thực hiện như thế nào?

AMặc dù Sam Altman cam kết công khai dành 20% năng lực tính toán của công ty cho đội 'Siêu liên kết' (Superalignment team) để giải quyết các rủi ro an ninh AI, nhưng trên thực tế, đội này chỉ nhận được khoảng 1-2% năng lực tính toán, và phần cứng được cấp là loại cũ nhất. Đội này sau đó đã bị giải tán mà chưa hoàn thành sứ mệnh.

QMâu thuẫn giữa Sam Altman và CFO Sarah Friar là gì?

ACFO Sarah Friar cho rằng OpenAI chưa sẵn sàng cho IPO trong năm nay do khối lượng công việc tổ chức và thủ tục quá lớn, cùng rủi ro tài chính từ cam kết chi 6000 tỷ USD cho năng lực tính toán của Altman. Cô thậm chí không chắc doanh thu có đủ để hỗ trợ các cam kết này. Trong khi đó, Altman muốn IPO ngay trong quý 4. Mâu thuẫn trầm trọng đến mức Friar không còn báo cáo trực tiếp cho Altman nữa.

QTại sao vấn đề đạo đức của CEO Sam Altman lại là rủi ro cho tất cả mọi người?

ABởi vì OpenAI không phải là một công ty công nghệ thông thường. Nó đang phát triển những công nghệ AI mạnh mẽ nhất có khả năng định hình lại nền kinh tế toàn cầu, nhưng cũng có nguy cơ bị sử dụng để tạo vũ khí hủy diệt hàng loạt hoặc phát động tấn công mạng. Các rào chắn an toàn đã bị dỡ bỏ, sứ mệnh phi lợi nhuận nhường chỗ cho mục tiêu thương mại, và người đứng đầu lại bị các cựu lãnh đạo cốt cán đánh giá là 'không đáng tin'. Điều này khiến việc để Altman đơn phương quyết định thời điểm phát hành các mô hình AI quyền lực trở thành một mối nguy hiểm hiện hữu cho nhân loại.

Nội dung Liên quan

Giao dịch

Giao ngay
Hợp đồng Tương lai
活动图片