Người chế tạo robot cho OpenAI đã nhìn thấy tương lai đáng sợ

marsbitXuất bản vào 2026-03-09Cập nhật gần nhất vào 2026-03-09

Tóm tắt

Bài viết kể về việc Caitlin Kalinowski, người đứng đầu bộ phận phần cứng và robot tại OpenAI, từ chức vào tháng 3/2026 do phản đối hợp đồng giữa công ty và Bộ Quốc phòng Mỹ. Cô lo ngại công nghệ AI có thể bị sử dụng cho mục đích giám sát trong nước và vũ khí tự động. Sự kiện này xảy ra sau khi OpenAI ký thỏa thuận cho phép Lầu Năm Góc sử dụng mô hình AI của họ, dẫn đến làn sóng chỉ trích, phản đối từ cộng đồng, bao gồm phong trào #QuitGPT và đợt gỡ cài đặt ChatGPT tăng đột biến. Dù CEO Sam Altman sau đó thừa nhận sai lầm và điều chỉnh hợp đồng, các chuyên gia pháp lý chỉ ra rằng các điều khoản vẫn còn lỗ hổng, không ngăn được việc sử dụng AI cho mục đích quân sự. Kalinowski, với công việc phát triển robot "thể hiện" AI, nhìn thấy tương lai rõ ràng và đáng sợ hơn: hệ thống có thể tham gia vào quyết định gây chết người. Đây không phải là trường hợp duy nhất; tỷ lệ nghỉ việc trong các nhóm đạo đức và an toàn AI tại OpenAI đã lên tới 37%. Sự kiện phản ánh cuộc xung đột giữa mục tiêu thương mại và giá trị đạo đức trong ngành AI, đặt ra câu hỏi quan trọng về trách nhiệm của các kỹ sư đối với sản phẩm họ tạo ra.

Tác giả:Geek Lao You

Ngày 7 tháng 3 năm 2026, khi tôi thấy tin Caitlin Kalinowski từ chức, phản ứng đầu tiên không phải là sốc, mà là—"cuối cùng cũng có người dùng hành động để nói lên tiếng nói".

Kalinowski là trưởng bộ phận kỹ thuật phần cứng và robot tại OpenAI, mới gia nhập hồi tháng 11 năm 2024, chưa đầy một năm rưỡi đã chọn rời đi.

Lý do của cô trực tiếp và nặng nề—cô không thể chấp nhận được những ứng dụng có thể xảy ra về giám sát trong nước và vũ khí tự hành sau khi OpenAI ký hợp đồng với Bộ Quốc phòng Mỹ.

Đây không phải là một sự chảy máu chất xám thông thường. Đây là một người trực tiếp tham gia xây dựng thân thể AI, dùng việc từ chức để nói với thế giới: cô không muốn chịu trách nhiệm cho những việc mà thứ mình tạo ra có thể sẽ làm.

Để hiểu việc rời đi của Kalinowski, trước tiên phải quay lại sự việc xảy ra khoảng một tuần trước.

Ngày 28 tháng 2, Sam Altman thông báo OpenAI đã đạt được thỏa thuận với Bộ Quốc phòng Mỹ, cho phép Lầu Năm Góc sử dụng các mô hình AI của OpenAI trong mạng lưới phân loại của họ. Tin tức vừa ra, dư luận dậy sóng.

Điều thú vị là, "vật tham chiếu" của hợp đồng này là đối thủ Anthropic.

Ngay trước đó không lâu, Anthropic đã từ chối hợp tác tương tự mà Lầu Năm Góc đề xuất, kiên quyết yêu cầu ghi vào hợp đồng các rào cản đạo đức chặt chẽ hơn, kết quả là Bộ trưởng Quốc phòng Pete Hegseth trực tiếp chỉ trích trên X, gọi hành vi của Anthropic là "bài học về sự kiêu ngạo và phản bội", và hưởng ứng chính phủ Trump ra lệnh ngừng hợp tác với Anthropic.

OpenAI sau đó đã tiếp quản thương vụ này.

Phản ứng của người dùng khá kịch liệt. Cùng ngày 28 tháng 2, lượng gỡ cài đặt ChatGPT tăng mạnh 295% so với ngày trước đó, phong trào #QuitGPT nhanh chóng lan rộng trên mạng xã hội, số người ủng hộ tẩy chay kỹ thuật số trong ba ngày vượt quá 2,5 triệu. Claude nhân cơ hội vượt qua ChatGPT để trở thành ứng dụng được tải xuống hàng ngày số một tại Mỹ, đứng đầu bảng xếp hạng ứng dụng miễn phí trên Apple App Store.

Trước áp lực, Altman vào ngày 3 tháng 3 đã thừa nhận công khai rằng mình "không nên vội vàng đưa ra hợp đồng này", nói rằng "nó chỉ trông có vẻ cơ hội và hấp tấp", và thông báo sửa đổi ngôn từ hợp đồng, nêu rõ "hệ thống AI không nên được cố ý sử dụng để giám sát trong nước đối với nhân viên và công dân Mỹ".

style="text-align: start;">Nhưng hai chữ "cố ý" này, bản thân nó là một kẽ hở. Luật sư của Quỹ Điện tử Tiên phong (EFF) chỉ rõ, các cơ quan tình báo và thực thi pháp luật thường dựa vào dữ liệu "ngẫu nhiên" hoặc "mua từ thương mại" để né tránh bảo vệ quyền riêng tư mạnh hơn—thêm một chữ "cố ý", không có nghĩa là hạn chế thực sự.

Việc từ chức của Kalinowski, chính là xảy ra trong bối cảnh này.

01 Những gì cô ấy thấy, cụ thể hơn chúng ta tưởng

Khi hầu hết mọi người vẫn đang thảo luận "OpenAI có đang thỏa hiệp với chính phủ không" thì Kalinowski thực ra đang đối mặt với một vấn đề cụ thể hơn, tàn khốc hơn—đội ngũ của cô, đang chế tạo robot.

Kỹ thuật phần cứng và robot, không phải là công việc trừu tượng viết code, điều chỉnh tham số. Đây là lắp tay, lắp chân, lắp mắt cho AI. Khi sự hợp tác giữa OpenAI và Bộ Quốc phòng từ "sử dụng mô hình", mở rộng sang khả năng "ứng dụng AI hiện thân trong quân sự" trong tương lai, tính chất công việc của Kalinowski đã thay đổi.

Các nhà nghiên cứu trong lĩnh vực vũ khí tự hành từ lâu đã cảnh báo về ngày này.

Chính sách hiện hành của Bộ Quốc phòng Mỹ, không yêu cầu vũ khí tự hành phải được phê duyệt thủ công trước khi sử dụng vũ lực. Nói cách khác, hợp đồng mà OpenAI ký kết, về mặt kỹ thuật không ngăn cản mô hình của nó trở thành một phần của hệ thống "để GPT quyết định giết ai".

Đây không phải là nói quá. Jessica Tillipman, giảng viên luật mua sắm chính phủ tại Đại học Georgetown, phân tích hợp đồng đã sửa đổi của OpenAI, chỉ rõ ngôn từ hợp đồng "không cho OpenAI một sự tự do kiểu Anthropic để cấm sử dụng hợp pháp của chính phủ", nó chỉ tuyên bố Lầu Năm Góc không thể sử dụng công nghệ OpenAI vi phạm "luật pháp và chính sách hiện hành"—nhưng luật hiện hành về giám sát vũ khí tự hành bản thân tồn tại khoảng trống lớn.

Các chuyên gia quản trị tại Đại học Oxford cũng có đánh giá tương tự, cho rằng thỏa thuận của OpenAI "khó có thể bù đắp" những lỗ hổng cấu trúc ở cấp độ quản trị mà hệ thống giám sát trong nước và vũ khí tự hành dẫn động bằng AI để lại.

Việc rời đi của Kalinowski, là phản ứng cá nhân của cô đối với đánh giá này.

02 Bên trong OpenAI, điều gì đang xảy ra

Kalinowski không phải là người đầu tiên ra đi, và cũng có khả năng cao không phải là người cuối cùng.

Có dữ liệu cho thấy, tỷ lệ nghỉ việc của nhóm đạo đức và nhóm an ninh AI tại OpenAI đã lên tới 37%, và lý do nghỉ việc mà hầu hết mọi người đưa ra, đều là "không phù hợp với giá trị công ty" hoặc "không thể chấp nhận AI được sử dụng cho mục đích quân sự". Nhà khoa học nghiên cứu Aidan McLaughlin viết nội bộ rằng, "cá nhân tôi nghĩ thỏa thuận này không đáng".

Đáng chú ý là, thời điểm xảy ra làn sóng nghỉ việc này—trùng khớp với giai đoạn OpenAI đang mở rộng nhanh chóng bản đồ thương mại. Ngay trước và sau sự cố hợp đồng quốc phòng, công ty thông báo mở rộng thỏa thuận hiện có 38 tỷ USD với AWS thêm 1000 tỷ USD, thời hạn tám năm; đồng thời điều chỉnh lại mục tiêu chi tiêu công bố ra bên ngoài, dự kiến tổng doanh thu đến năm 2030 sẽ vượt quá 2800 tỷ USD.

Thương mại tăng tốc, nhóm an ninh tiếp tục ra đi. Sự chênh lệch kéo này, là trục tọa độ quan trọng nhất để hiểu tình thế hiện tại của OpenAI.

Giá trị của một công ty, cuối cùng thể hiện ở việc nó giữ lại được những người nào, không giữ được những người nào. Khi những người quan tâm nhất đến "công nghệ này sẽ được sử dụng như thế nào" bắt đầu lần lượt rời đi, cơ cấu tổ chức còn lại sẽ trượt về hướng nào, không khó để suy luận.

Anthropic trong cuộc chơi này đã chọn một con đường khác—từ chối hợp đồng, chịu sự phẫn nộ của Bộ Quốc phòng, nhưng giành được sự tin tưởng của lượng lớn người dùng. Thời điểm đó lượt tải xuống của Claude tăng ngược dòng, ở một mức độ nào đó chứng minh, "từ chối có nguyên tắc" trong thương mại không nhất định là chiến lược thua cuộc.

Nhưng Anthropic cũng phải trả giá—họ bị chính phủ loại khỏi cuộc chơi, ít nhất là tạm thời.

Đây là tình thế khó khăn thực sự: không có lựa chọn nào là hoàn hảo.

Từ chối, có nghĩa là có thể mất ảnh hưởng, thậm chí bị loại khỏi việc thiết lập quy tắc. Chấp nhận, có nghĩa là dùng công nghệ của mình, để bảo lãnh cho hành vi mà mình không thể kiểm soát hoàn toàn.

Câu trả lời của Kalinowski là con đường thứ ba—rời đi.

Đây là điều chân thật nhất cô có thể làm.

03 Cuộc chiến linh hồn của Thung lũng Silicon, vừa mới bắt đầu

Nếu kéo góc nhìn ra xa một chút, ý nghĩa của sự việc này vượt xa việc từ chức của một người.

Sự kết hợp giữa AI và quân sự, là câu hỏi lựa chọn mà toàn ngành sớm muộn phải đối mặt. Lầu Năm Góc có ngân sách, có nhu cầu, có khả năng tích hợp công nghệ, họ sẽ không ngừng đưa ra cành ô liu cho các công ty AI. Và các công ty AI—dù là OpenAI theo đuổi AGI, Anthropic nhấn mạnh an toàn, hay các đối thủ khác—sớm muộn đều phải đưa ra câu trả lời của mình trước câu hỏi này.

Chiến lược của Altman, là cố gắng chấp nhận thực tế thương mại đồng thời, thông qua ngôn từ hợp đồng để vạch ra ranh giới. Nhưng như nhiều chuyên gia pháp lý và quản trị chỉ ra, những ngôn từ đó giống như sự bảo vệ ở tầm quan hệ công chúng hơn là ràng buộc cứng về mặt kỹ thuật.

Vấn đề căn bản hơn là, khi mô hình AI được triển khai vào mạng lưới phân loại, khi nó bắt đầu tham gia vào quyết định quân sự, thế giới bên ngoài hoàn toàn không có khả năng xác minh, những "đảm bảo" đó có thực sự được thực thi hay không.

Sự thiếu minh bạch, bản thân nó là rủi ro lớn nhất.

Kalinowski ở OpenAI chưa đầy một năm rưỡi, nhưng lại chọn rời đi ở thời điểm này. Cô không công bố tuyên bố dài, không chỉ trích ai đích danh, chỉ dùng hành động để vạch ra ranh giới của mình.

Theo một nghĩa nào đó, điều này mạnh mẽ hơn bất kỳ bài viết chính sách nào.

Kỹ thuật phần cứng và robot AI, vốn là một trong những lĩnh vực tiên phong thú vị nhất của Thung lũng Silicon. Khi Kalinowski ra đi, cô mang theo không chỉ một bản lý lịch, mà còn một câu hỏi, để lại cho tất cả những người còn ở lại trong ngành này—

Bạn sẵn sàng chịu trách nhiệm đến đâu cho thứ mình tạo ra?

Câu hỏi Liên quan

QTại sao Caitlin Kalinowski từ chức khỏi OpenAI?

ACô từ chức do không thể chấp nhận việc OpenAI ký hợp đồng với Bộ Quốc phòng Mỹ, lo ngại về khả năng ứng dụng AI vào giám sát trong nước và vũ khí tự động.

QPhản ứng của công chúng đối với thỏa thuận giữa OpenAI và Bộ Quốc phòng Mỹ là gì?

ACông chúng phản ứng dữ dội: lượt gỡ cài đặt ChatGPT tăng 295%, phong trào #QuitGPT lan rộng, và Claude vượt ChatGPT để trở thành ứng dụng tải xuống số một tại Mỹ.

QĐiều khoản sửa đổi trong hợp đồng của OpenAI với Bộ Quốc phòng Mỹ có hạn chế hiệu quả không?

ACác chuyên gia pháp lý chỉ ra rằng từ ngữ sửa đổi như 'cố ý' không tạo ra ràng buộc thực sự, vì cơ quan có thể sử dụng dữ liệu 'ngẫu nhiên' hoặc 'mua ngoài' để bypass các bảo vệ quyền riêng tư.

QTỷ lệ nghỉ việc tại các nhóm an toàn và đạo đức AI của OpenAI là bao nhiêu?

ATỷ lệ nghỉ việc tại nhóm đạo đức và an toàn AI của OpenAI đã lên tới 37%, với lý do chính là 'không phù hợp với giá trị công ty' hoặc 'không chấp nhận AI cho mục đích quân sự'.

QSự lựa chọn của Anthropic trong thỏa thuận với Bộ Quốc phòng Mỹ khác với OpenAI như thế nào?

AAnthropic từ chối hợp đồng, yêu cầu các rào cản đạo đức chặt chẽ hơn và chịu sự chỉ trích từ Bộ Quốc phòng, nhưng giành được niềm tin của người dùng và tăng lượt tải xuống.

Nội dung Liên quan

Polymarket Bị Kẹt: Bài Kiểm Tra Thực Sự Sau Khi Vượt Qua Giai Đoạn Lưu Lượng Tăng Đột Biến

Polymarket, nền tảng dự đoán thị trường hàng đầu, đang đối mặt với thách thức lớn khi trải nghiệm giao dịch xuống cấp do hạ tầng không theo kịp đà tăng trưởng. Phó chủ tịch kỹ thuật Josh Stevens thừa nhận vấn đề và công bố kế hoạch cải tổ toàn diện, bao gồm: giảm độ trễ dữ liệu, sửa lỗi hủy lệnh, xây dựng lại hệ thống order book (CLOB), nâng cao hiệu suất website, và quan trọng nhất là di chuyển chain (chain migration). Nguyên nhân sâu xa nằm ở việc Polymarket không còn là ứng dụng dự đoán đơn thuần mà đã phát triển thành một nền tảng giao dịch tần suất cao. Polygon, từng là lựa chọn chi phí thấp hoàn hảo, giờ đây trở thành rào cản kỹ thuật. Động thái này ngay lập tức thu hút sự quan tâm của các blockchain khác như Solana, Sui, Algorand... trong khi Polygon nỗ lực giữ chân ứng dụng quan trọng này - nguồn đóng góp phí giao dịch đáng kể cho hệ sinh thái của họ. Bài kiểm tra thực sự của Polymarket không chỉ là chọn chain mới, mà là xây dựng một hệ thống giao dịch đủ mạnh và ổn định để giữ chân người dùng trong giai đoạn tăng trưởng mới, nơi độ tin cậy quan trọng hơn bao giờ hết.

Odaily星球日报04/27 03:21

Polymarket Bị Kẹt: Bài Kiểm Tra Thực Sự Sau Khi Vượt Qua Giai Đoạn Lưu Lượng Tăng Đột Biến

Odaily星球日报04/27 03:21

Điều chỉnh kỳ vọng giảm cho chu kỳ tăng giá tiếp theo của BTC

Tác giả Alex Xu, một nhà đầu tư Bitcoin lâu năm, đã chia sẻ quyết định giảm dần tỷ trọng BTC trong danh mục đầu tư của mình, từ vị thế lớn nhất xuống còn khoảng 30%, và giải thích lý do cho việc điều chỉnh kỳ vọng về đỉnh giá trong chu kỳ bull market tiếp theo. Các lý do chính bao gồm: 1. **Năng lượng tăng trưởng tiềm năng giảm:** Các chu kỳ trước được thúc đẩy bởi việc mở rộng đối tượng đầu tư theo cấp số nhân (từ cá nhân đến tổ chức). Chu kỳ tới cần sự chấp nhận từ các quỹ đầu tư quốc gia hoặc ngân hàng trung ương, điều này khó xảy ra trong 2-3 năm tới. 2. **Chi phí cơ hội cá nhân:** Tìm thấy nhiều cơ hội đầu tư hấp dẫn khác (cổ phiếu công ty) với mức giá hợp lý. 3. **Tác động tiêu cực từ sự thu hẹp của ngành crypto:** Nhiều mô hình Web3 (SocialFi, GameFi...) không thành công, dẫn đến sự thu hẹp của toàn ngành và làm chậm tốc độ tăng trưởng số người nắm giữ BTC. 4. **Áp lực từ nhà mua lớn nhất (MicroStrategy):** Chi phí huy động vốn của MicroStrategy tiếp tục tăng cao (lãi suất 11.5%), có thể làm giảm tốc độ mua vào và gây áp lực bán. 5. **Sự cạnh tranh từ Vàng được token hóa:** Sản phẩm vàng token hóa (tokenized gold) đã thu hẹp khoảng cách về tính dễ chia nhỏ, dễ mang theo và dễ xác minh so với BTC. 6. **Vấn đề ngân sách bảo mật:** Phần thưởng khối giảm sau mỗi lần halving làm trầm trọng thêm vấn đề ngân sách cho bảo mật mạng lưới. Tác giả vẫn giữ một phần BTC đáng kể và sẵn sàng mua lại nếu các lý kiến trên được giải quyết hoặc xuất hiện các yếu tố tích cực mới, với điều kiện giá cả phù hợp.

marsbit04/27 02:46

Điều chỉnh kỳ vọng giảm cho chu kỳ tăng giá tiếp theo của BTC

marsbit04/27 02:46

Giao dịch

Giao ngay
Hợp đồng Tương lai
活动图片