Người chế tạo robot cho OpenAI đã nhìn thấy tương lai đáng sợ

marsbitXuất bản vào 2026-03-09Cập nhật gần nhất vào 2026-03-09

Tóm tắt

Bài viết kể về việc Caitlin Kalinowski, người đứng đầu bộ phận phần cứng và robot tại OpenAI, từ chức vào tháng 3/2026 do phản đối hợp đồng giữa công ty và Bộ Quốc phòng Mỹ. Cô lo ngại công nghệ AI có thể bị sử dụng cho mục đích giám sát trong nước và vũ khí tự động. Sự kiện này xảy ra sau khi OpenAI ký thỏa thuận cho phép Lầu Năm Góc sử dụng mô hình AI của họ, dẫn đến làn sóng chỉ trích, phản đối từ cộng đồng, bao gồm phong trào #QuitGPT và đợt gỡ cài đặt ChatGPT tăng đột biến. Dù CEO Sam Altman sau đó thừa nhận sai lầm và điều chỉnh hợp đồng, các chuyên gia pháp lý chỉ ra rằng các điều khoản vẫn còn lỗ hổng, không ngăn được việc sử dụng AI cho mục đích quân sự. Kalinowski, với công việc phát triển robot "thể hiện" AI, nhìn thấy tương lai rõ ràng và đáng sợ hơn: hệ thống có thể tham gia vào quyết định gây chết người. Đây không phải là trường hợp duy nhất; tỷ lệ nghỉ việc trong các nhóm đạo đức và an toàn AI tại OpenAI đã lên tới 37%. Sự kiện phản ánh cuộc xung đột giữa mục tiêu thương mại và giá trị đạo đức trong ngành AI, đặt ra câu hỏi quan trọng về trách nhiệm của các kỹ sư đối với sản phẩm họ tạo ra.

Tác giả:Geek Lao You

Ngày 7 tháng 3 năm 2026, khi tôi thấy tin Caitlin Kalinowski từ chức, phản ứng đầu tiên không phải là sốc, mà là—"cuối cùng cũng có người dùng hành động để nói lên tiếng nói".

Kalinowski là trưởng bộ phận kỹ thuật phần cứng và robot tại OpenAI, mới gia nhập hồi tháng 11 năm 2024, chưa đầy một năm rưỡi đã chọn rời đi.

Lý do của cô trực tiếp và nặng nề—cô không thể chấp nhận được những ứng dụng có thể xảy ra về giám sát trong nước và vũ khí tự hành sau khi OpenAI ký hợp đồng với Bộ Quốc phòng Mỹ.

Đây không phải là một sự chảy máu chất xám thông thường. Đây là một người trực tiếp tham gia xây dựng thân thể AI, dùng việc từ chức để nói với thế giới: cô không muốn chịu trách nhiệm cho những việc mà thứ mình tạo ra có thể sẽ làm.

Để hiểu việc rời đi của Kalinowski, trước tiên phải quay lại sự việc xảy ra khoảng một tuần trước.

Ngày 28 tháng 2, Sam Altman thông báo OpenAI đã đạt được thỏa thuận với Bộ Quốc phòng Mỹ, cho phép Lầu Năm Góc sử dụng các mô hình AI của OpenAI trong mạng lưới phân loại của họ. Tin tức vừa ra, dư luận dậy sóng.

Điều thú vị là, "vật tham chiếu" của hợp đồng này là đối thủ Anthropic.

Ngay trước đó không lâu, Anthropic đã từ chối hợp tác tương tự mà Lầu Năm Góc đề xuất, kiên quyết yêu cầu ghi vào hợp đồng các rào cản đạo đức chặt chẽ hơn, kết quả là Bộ trưởng Quốc phòng Pete Hegseth trực tiếp chỉ trích trên X, gọi hành vi của Anthropic là "bài học về sự kiêu ngạo và phản bội", và hưởng ứng chính phủ Trump ra lệnh ngừng hợp tác với Anthropic.

OpenAI sau đó đã tiếp quản thương vụ này.

Phản ứng của người dùng khá kịch liệt. Cùng ngày 28 tháng 2, lượng gỡ cài đặt ChatGPT tăng mạnh 295% so với ngày trước đó, phong trào #QuitGPT nhanh chóng lan rộng trên mạng xã hội, số người ủng hộ tẩy chay kỹ thuật số trong ba ngày vượt quá 2,5 triệu. Claude nhân cơ hội vượt qua ChatGPT để trở thành ứng dụng được tải xuống hàng ngày số một tại Mỹ, đứng đầu bảng xếp hạng ứng dụng miễn phí trên Apple App Store.

Trước áp lực, Altman vào ngày 3 tháng 3 đã thừa nhận công khai rằng mình "không nên vội vàng đưa ra hợp đồng này", nói rằng "nó chỉ trông có vẻ cơ hội và hấp tấp", và thông báo sửa đổi ngôn từ hợp đồng, nêu rõ "hệ thống AI không nên được cố ý sử dụng để giám sát trong nước đối với nhân viên và công dân Mỹ".

style="text-align: start;">Nhưng hai chữ "cố ý" này, bản thân nó là một kẽ hở. Luật sư của Quỹ Điện tử Tiên phong (EFF) chỉ rõ, các cơ quan tình báo và thực thi pháp luật thường dựa vào dữ liệu "ngẫu nhiên" hoặc "mua từ thương mại" để né tránh bảo vệ quyền riêng tư mạnh hơn—thêm một chữ "cố ý", không có nghĩa là hạn chế thực sự.

Việc từ chức của Kalinowski, chính là xảy ra trong bối cảnh này.

01 Những gì cô ấy thấy, cụ thể hơn chúng ta tưởng

Khi hầu hết mọi người vẫn đang thảo luận "OpenAI có đang thỏa hiệp với chính phủ không" thì Kalinowski thực ra đang đối mặt với một vấn đề cụ thể hơn, tàn khốc hơn—đội ngũ của cô, đang chế tạo robot.

Kỹ thuật phần cứng và robot, không phải là công việc trừu tượng viết code, điều chỉnh tham số. Đây là lắp tay, lắp chân, lắp mắt cho AI. Khi sự hợp tác giữa OpenAI và Bộ Quốc phòng từ "sử dụng mô hình", mở rộng sang khả năng "ứng dụng AI hiện thân trong quân sự" trong tương lai, tính chất công việc của Kalinowski đã thay đổi.

Các nhà nghiên cứu trong lĩnh vực vũ khí tự hành từ lâu đã cảnh báo về ngày này.

Chính sách hiện hành của Bộ Quốc phòng Mỹ, không yêu cầu vũ khí tự hành phải được phê duyệt thủ công trước khi sử dụng vũ lực. Nói cách khác, hợp đồng mà OpenAI ký kết, về mặt kỹ thuật không ngăn cản mô hình của nó trở thành một phần của hệ thống "để GPT quyết định giết ai".

Đây không phải là nói quá. Jessica Tillipman, giảng viên luật mua sắm chính phủ tại Đại học Georgetown, phân tích hợp đồng đã sửa đổi của OpenAI, chỉ rõ ngôn từ hợp đồng "không cho OpenAI một sự tự do kiểu Anthropic để cấm sử dụng hợp pháp của chính phủ", nó chỉ tuyên bố Lầu Năm Góc không thể sử dụng công nghệ OpenAI vi phạm "luật pháp và chính sách hiện hành"—nhưng luật hiện hành về giám sát vũ khí tự hành bản thân tồn tại khoảng trống lớn.

Các chuyên gia quản trị tại Đại học Oxford cũng có đánh giá tương tự, cho rằng thỏa thuận của OpenAI "khó có thể bù đắp" những lỗ hổng cấu trúc ở cấp độ quản trị mà hệ thống giám sát trong nước và vũ khí tự hành dẫn động bằng AI để lại.

Việc rời đi của Kalinowski, là phản ứng cá nhân của cô đối với đánh giá này.

02 Bên trong OpenAI, điều gì đang xảy ra

Kalinowski không phải là người đầu tiên ra đi, và cũng có khả năng cao không phải là người cuối cùng.

Có dữ liệu cho thấy, tỷ lệ nghỉ việc của nhóm đạo đức và nhóm an ninh AI tại OpenAI đã lên tới 37%, và lý do nghỉ việc mà hầu hết mọi người đưa ra, đều là "không phù hợp với giá trị công ty" hoặc "không thể chấp nhận AI được sử dụng cho mục đích quân sự". Nhà khoa học nghiên cứu Aidan McLaughlin viết nội bộ rằng, "cá nhân tôi nghĩ thỏa thuận này không đáng".

Đáng chú ý là, thời điểm xảy ra làn sóng nghỉ việc này—trùng khớp với giai đoạn OpenAI đang mở rộng nhanh chóng bản đồ thương mại. Ngay trước và sau sự cố hợp đồng quốc phòng, công ty thông báo mở rộng thỏa thuận hiện có 38 tỷ USD với AWS thêm 1000 tỷ USD, thời hạn tám năm; đồng thời điều chỉnh lại mục tiêu chi tiêu công bố ra bên ngoài, dự kiến tổng doanh thu đến năm 2030 sẽ vượt quá 2800 tỷ USD.

Thương mại tăng tốc, nhóm an ninh tiếp tục ra đi. Sự chênh lệch kéo này, là trục tọa độ quan trọng nhất để hiểu tình thế hiện tại của OpenAI.

Giá trị của một công ty, cuối cùng thể hiện ở việc nó giữ lại được những người nào, không giữ được những người nào. Khi những người quan tâm nhất đến "công nghệ này sẽ được sử dụng như thế nào" bắt đầu lần lượt rời đi, cơ cấu tổ chức còn lại sẽ trượt về hướng nào, không khó để suy luận.

Anthropic trong cuộc chơi này đã chọn một con đường khác—từ chối hợp đồng, chịu sự phẫn nộ của Bộ Quốc phòng, nhưng giành được sự tin tưởng của lượng lớn người dùng. Thời điểm đó lượt tải xuống của Claude tăng ngược dòng, ở một mức độ nào đó chứng minh, "từ chối có nguyên tắc" trong thương mại không nhất định là chiến lược thua cuộc.

Nhưng Anthropic cũng phải trả giá—họ bị chính phủ loại khỏi cuộc chơi, ít nhất là tạm thời.

Đây là tình thế khó khăn thực sự: không có lựa chọn nào là hoàn hảo.

Từ chối, có nghĩa là có thể mất ảnh hưởng, thậm chí bị loại khỏi việc thiết lập quy tắc. Chấp nhận, có nghĩa là dùng công nghệ của mình, để bảo lãnh cho hành vi mà mình không thể kiểm soát hoàn toàn.

Câu trả lời của Kalinowski là con đường thứ ba—rời đi.

Đây là điều chân thật nhất cô có thể làm.

03 Cuộc chiến linh hồn của Thung lũng Silicon, vừa mới bắt đầu

Nếu kéo góc nhìn ra xa một chút, ý nghĩa của sự việc này vượt xa việc từ chức của một người.

Sự kết hợp giữa AI và quân sự, là câu hỏi lựa chọn mà toàn ngành sớm muộn phải đối mặt. Lầu Năm Góc có ngân sách, có nhu cầu, có khả năng tích hợp công nghệ, họ sẽ không ngừng đưa ra cành ô liu cho các công ty AI. Và các công ty AI—dù là OpenAI theo đuổi AGI, Anthropic nhấn mạnh an toàn, hay các đối thủ khác—sớm muộn đều phải đưa ra câu trả lời của mình trước câu hỏi này.

Chiến lược của Altman, là cố gắng chấp nhận thực tế thương mại đồng thời, thông qua ngôn từ hợp đồng để vạch ra ranh giới. Nhưng như nhiều chuyên gia pháp lý và quản trị chỉ ra, những ngôn từ đó giống như sự bảo vệ ở tầm quan hệ công chúng hơn là ràng buộc cứng về mặt kỹ thuật.

Vấn đề căn bản hơn là, khi mô hình AI được triển khai vào mạng lưới phân loại, khi nó bắt đầu tham gia vào quyết định quân sự, thế giới bên ngoài hoàn toàn không có khả năng xác minh, những "đảm bảo" đó có thực sự được thực thi hay không.

Sự thiếu minh bạch, bản thân nó là rủi ro lớn nhất.

Kalinowski ở OpenAI chưa đầy một năm rưỡi, nhưng lại chọn rời đi ở thời điểm này. Cô không công bố tuyên bố dài, không chỉ trích ai đích danh, chỉ dùng hành động để vạch ra ranh giới của mình.

Theo một nghĩa nào đó, điều này mạnh mẽ hơn bất kỳ bài viết chính sách nào.

Kỹ thuật phần cứng và robot AI, vốn là một trong những lĩnh vực tiên phong thú vị nhất của Thung lũng Silicon. Khi Kalinowski ra đi, cô mang theo không chỉ một bản lý lịch, mà còn một câu hỏi, để lại cho tất cả những người còn ở lại trong ngành này—

Bạn sẵn sàng chịu trách nhiệm đến đâu cho thứ mình tạo ra?

Câu hỏi Liên quan

QTại sao Caitlin Kalinowski từ chức khỏi OpenAI?

ACô từ chức do không thể chấp nhận việc OpenAI ký hợp đồng với Bộ Quốc phòng Mỹ, lo ngại về khả năng ứng dụng AI vào giám sát trong nước và vũ khí tự động.

QPhản ứng của công chúng đối với thỏa thuận giữa OpenAI và Bộ Quốc phòng Mỹ là gì?

ACông chúng phản ứng dữ dội: lượt gỡ cài đặt ChatGPT tăng 295%, phong trào #QuitGPT lan rộng, và Claude vượt ChatGPT để trở thành ứng dụng tải xuống số một tại Mỹ.

QĐiều khoản sửa đổi trong hợp đồng của OpenAI với Bộ Quốc phòng Mỹ có hạn chế hiệu quả không?

ACác chuyên gia pháp lý chỉ ra rằng từ ngữ sửa đổi như 'cố ý' không tạo ra ràng buộc thực sự, vì cơ quan có thể sử dụng dữ liệu 'ngẫu nhiên' hoặc 'mua ngoài' để bypass các bảo vệ quyền riêng tư.

QTỷ lệ nghỉ việc tại các nhóm an toàn và đạo đức AI của OpenAI là bao nhiêu?

ATỷ lệ nghỉ việc tại nhóm đạo đức và an toàn AI của OpenAI đã lên tới 37%, với lý do chính là 'không phù hợp với giá trị công ty' hoặc 'không chấp nhận AI cho mục đích quân sự'.

QSự lựa chọn của Anthropic trong thỏa thuận với Bộ Quốc phòng Mỹ khác với OpenAI như thế nào?

AAnthropic từ chối hợp đồng, yêu cầu các rào cản đạo đức chặt chẽ hơn và chịu sự chỉ trích từ Bộ Quốc phòng, nhưng giành được niềm tin của người dùng và tăng lượt tải xuống.

Nội dung Liên quan

Quỹ Solana Hợp Tác với Google Ra Mắt Pay.sh, Liệu Có Thể Kết Nối Chuỗi Thanh Toán Web2 và Web3 Trong Nền Kinh Tế Tác Nhân Thông Minh?

Solana Foundation và Google Cloud đã cùng ra mắt Pay.sh, một cổng thanh toán được định vị là "cầu nối thanh toán giữa các tác nhân AI (AI Agent) và cơ sở hạ tầng dịch vụ doanh nghiệp", nhằm giải quyết vấn đề thanh toán cho AI Agent khi sử dụng các dịch vụ Web2. Pay.sh hoạt động như một tác nhân trung gian, cho phép người dùng nạp tiền vào ví Solana qua thẻ tín dụng hoặc stablecoin. Ví này sau đó đóng vai trò là danh tính và tài khoản thanh toán đại diện cho AI Agent. Khi Agent cần gọi một dịch vụ trả phí (như API của Google Cloud, Alibaba Cloud), Pay.sh sẽ xử lý thanh toán thay mặt, loại bỏ nhu cầu Agent phải tự đăng ký tài khoản hay quản lý khóa API. Về mặt kỹ thuật, Pay.sh được xây dựng dựa trên mã trạng thái HTTP 402 ("Payment Required") và tương thích với hai giao thức thanh toán chính cho Agent: x402 (cho thanh toán một lần) và MPP - Machine Payment Protocol (cho thanh toán theo phiên hoặc dùng lượng). Nó tự động lựa chọn phương thức phù hợp, hỗ trợ nhiều kịch bản như định mức miễn phí, tính phí theo bậc và tự động tách chi phí đến nhiều địa chỉ nhận. Lợi thế chính của Pay.sh là cung cấp một cổng tích hợp dễ dàng cho nhà cung cấp dịch vụ, giúp họ mở rộng khách hàng sang thị trường AI Agent mà không cần sửa đổi lớn hệ thống thanh toán hiện tại. Quan trọng hơn, Pay.sh đóng vai trò cầu nối, cho phép dòng tiền từ hệ sinh thái Web3 (ví Solana) tiếp cận và thanh toán cho các dịch vụ Web2 truyền thống, mở ra khả năng cho AI Agent tham gia vào các quy trình công việc đa dạng hơn. Tuy nhiên, bài viết cũng chỉ ra một số thách thức như việc danh mục dịch vụ hiện tại thiếu cơ chế xác minh phi tập trung mạnh mẽ, có nguy cơ tồn tại các dịch vụ giả mạo. Ngoài ra, các yêu cầu tuân thủ pháp lý ở các khu vực khác nhau có thể là rào cản đối với một số nhà cung cấp. Dù vậy, sự ra mắt của Pay.sh được đánh giá là một bước tiến quan trọng trong việc hợp nhất hạ tầng thanh toán Web2 và Web3 cho nền kinh tế AI Agent, biến ví tiền mã hóa thành một công cụ xác thực danh tính và thanh toán mạnh mẽ cho các tác nhân tự động.

marsbit2 phút trước

Quỹ Solana Hợp Tác với Google Ra Mắt Pay.sh, Liệu Có Thể Kết Nối Chuỗi Thanh Toán Web2 và Web3 Trong Nền Kinh Tế Tác Nhân Thông Minh?

marsbit2 phút trước

Cách Tự Động Hóa Mọi Quy Trình Làm Việc Với Claude Skills (Hướng Dẫn Đầy Đủ)

**Claude Skills là gì và tại sao chúng bị đánh giá thấp?** Claude Skills không chỉ là prompt lưu sẵn, mà là "nhân viên" được đào tạo chuyên biệt để xử lý một loại công việc cụ thể. Nó cung cấp chất lượng đầu ra ổn định, chuẩn hóa với quy trình, tiêu chuẩn và định dạng nhất quán mỗi lần, khác hẳn với kết quả thay đổi khi dùng prompt thông thường. **Hướng dẫn 4 giai đoạn thực hành:** **Giai đoạn 1: Cài đặt Skill đầu tiên (5 phút)** - Skills là các thư mục chứa file `SKILL.md` trên máy tính bạn. - Tìm Skill phù hợp trên skillsmp.com hoặc GitHub của Anthropic, cài đặt và thử nghiệm ngay với một công việc thực tế. **Giai đoạn 2: Xây dựng Skill tùy chỉnh đầu tiên** Trả lời 3 câu hỏi trước khi viết: 1. **Nhiệm vụ:** Xác định công việc cực kỳ cụ thể. 2. **Kích hoạt:** Liệt kê ít nhất 5 cụm từ bạn sẽ dùng để gọi Skill. 3. **Đầu ra mẫu:** Cung cấp một ví dụ đầu ra hoàn hảo thực tế. Sau đó, viết file `SKILL.md` với hai phần: - **Phần YAML frontmatter:** Ghi tên và mô tả kích hoạt rõ ràng. - **Phần hướng dẫn:** Trình bày quy trình công việc từng bước bằng ngôn ngữ tự nhiên, bao gồm ví dụ và cách xử lý các tình huống đặc biệt. **Giai đoạn 3: Kiểm thử & Tối ưu hóa để đạt cấp độ sản xuất** Kiểm tra Skill qua 3 kịch bản: 1. **Tình huống thông thường** (80% công việc). 2. **Tình huống biên/bất thường** (thiếu dữ liệu, xung đột...). 3. **Kiểm tra áp lực** (phiên bản phức tạp, hỗn độn nhất). Skill đạt chuẩn khi xử lý tốt cả 3. Tối ưu hóa liên tục dựa trên các lỗi phát hiện được. **Giai đoạn 4: Xây dựng thư viện Skill cho ngành của bạn** - Biến mọi nhiệm vụ lặp lại thành một Skill chuyên biệt. - Ví dụ theo ngành: - **Bất động sản:** Viết mô tả BĐS, phân tích thị trường, soạn email theo dõi. - **Marketing:** Tạo brief sự kiện, viết quảng cáo, phân tích A/B. - **Tài chính:** Xử lý báo cáo, phân tích hóa đơn, kiểm tra tuân thủ. - Một Skill tiết kiệm 30 phút/tuần, mười Skill sẽ trả lại cho bạn 260 giờ/năm. Bài viết cung cấp lộ trình thực tế để tự động hóa mọi quy trình công việc bằng cách xây dựng và quản lý một đội ngũ "nhân viên AI" ổn định thông qua Claude Skills.

marsbit29 phút trước

Cách Tự Động Hóa Mọi Quy Trình Làm Việc Với Claude Skills (Hướng Dẫn Đầy Đủ)

marsbit29 phút trước

Giao dịch

Giao ngay
Hợp đồng Tương lai
活动图片