Lời biên tập: Chỉ vài giờ sau khi OpenAI thông báo đạt được thỏa thuận hợp tác AI với Lầu Năm Góc, chính Lầu Năm Góc đã chấm dứt hợp tác với Anthropic với lý do công ty này khăng khăng các điều khoản an ninh. Ngay sau đó, CEO Anthropic Dario Amodei đã gửi một bản ghi nhớ nội bộ với ngôn từ cực kỳ gay gắt cho nhân viên, chỉ thẳng rằng phần lớn các "cơ chế an toàn" mà OpenAI tuyên bố chỉ là "màn kịch an ninh", và đặt nghi vấn về lập trường của họ đối với vũ khí tự động và giám sát quy mô lớn.
Trong bức thư dài khoảng 1600 chữ này, Amodei không chỉ tiết lộ một số chi tiết đàm phán giữa hai bên với hệ thống quốc phòng Mỹ, mà còn trực tiếp nhắm mũi dùi vào CEO OpenAI Sam Altman, cáo buộc ông ta dùng tuyên truyền quan hệ công chúng (PR) để che giấu cấu trúc hợp tác thực sự. Cuộc tranh cãi xoay quanh ứng dụng quân sự của AI, ranh giới an ninh đỏ và các mối quan hệ chính trị này đang đẩy sự bất đồng giữa hai công ty AI lớn của Thung lũng Silicon ra ánh sáng.
Dưới đây là nguyên văn:
Tôi muốn nói rõ ràng về thông tin mà OpenAI hiện đang phát tán, và sự đạo đức giả tồn tại trong những thông tin đó. Đây chính là cách làm thực sự của họ, tôi hy vọng mọi người đều có thể nhìn thấu.
Mặc dù chúng ta vẫn còn nhiều điều chưa biết về hợp đồng mà họ ký với Bộ Chiến tranh (DoW) (thậm chí chính họ cũng chưa chắc đã hoàn toàn rõ, vì các điều khoản hợp đồng rất có thể khá mơ hồ), nhưng có một số điểm là chắc chắn: Từ các mô tả công khai của Sam Altman và Bộ Chiến tranh (tất nhiên vẫn cần xem văn bản hợp đồng để xác nhận cuối cùng), mô hình hợp tác của họ đại khái là như thế này: Bản thân mô hình không có bất kỳ hạn chế sử dụng nào ở cấp độ pháp lý, tức là cái gọi là "tất cả mục đích hợp pháp"; đồng thời thiết lập một lớp gọi là "lớp an ninh". Theo tôi, "lớp an ninh" này về bản chất là cơ chế từ chối của mô hình, dùng để ngăn chặn mô hình thực hiện một số tác vụ hoặc tham gia vào một số ứng dụng.
Cái gọi là "lớp an ninh", cũng có thể ám chỉ giải pháp mà các đối tác (ví dụ: Palantir, đối tác thương mại của Anthropic khi phục vụ khách hàng chính phủ Mỹ) đã cố gắng bán cho chúng tôi trong các cuộc đàm phán. Họ đề xuất một bộ phân loại hoặc hệ thống học máy, tuyên bố có thể cho phép một số ứng dụng thông qua, đồng thời chặn lại những ứng dụng khác. Ngoài ra, cũng có dấu hiệu cho thấy OpenAI sẽ bố trí nhân viên (FDE, tức kỹ sư triển khai tiền tuyến) giám sát việc sử dụng mô hình để ngăn chặn các ứng dụng không phù hợp.
Đánh giá tổng thể của chúng tôi là: Những giải pháp này không phải là hoàn toàn vô dụng, nhưng trong bối cảnh ứng dụng quân sự, khoảng 20% là bảo vệ thực sự, 80% là màn kịch an ninh.
Gốc rễ của vấn đề nằm ở chỗ: Việc mô hình có được sử dụng cho hệ thống giám sát quy mô lớn hay vũ khí hoàn toàn tự động hay không, thường phụ thuộc vào thông tin ngữ cảnh rộng hơn. Bản thân mô hình không biết mình đang ở trong hệ thống nào, nó không biết liệu có con người ở "trong vòng lặp" (human-in-the-loop, tức điểm mấu chốt của vấn đề vũ khí tự động) hay không; nó cũng không biết nguồn dữ liệu mà nó đang phân tích là gì. Ví dụ, là dữ liệu trong nước Mỹ hay dữ liệu nước ngoài, là dữ liệu do doanh nghiệp cung cấp sau khi được người dùng đồng ý, hay là dữ liệu mua qua các kênh xám, v.v.
Nhân viên làm công tác an ninh đã sớm thấm thía điều này: Cơ chế từ chối của mô hình không đáng tin cậy. Các cuộc tấn công vượt ngục (jailbreak) rất phổ biến, nhiều khi chỉ cần nói dối mô hình về tính chất của dữ liệu là có thể vượt qua các hạn chế này.
Ở đây còn có một điểm khác biệt then chốt, khiến vấn đề phức tạp hơn so với bảo vệ an ninh thông thường: Việc phán đoán mô hình có đang thực hiện tấn công mạng hay không, thường có thể nhận ra từ đầu vào và đầu ra; nhưng phán đoán tính chất của cuộc tấn công cũng như ngữ cảnh cụ thể, lại là chuyện hoàn toàn khác, và đây chính là khả năng phán đoán mà ở đây cần có. Trong nhiều trường hợp, nhiệm vụ này cực kỳ khó khăn, thậm chí căn bản là không thể hoàn thành.
Tình hình của "lớp an ninh" mà Palantir bán cho chúng tôi (tôi nghĩ họ cũng đã bán giải pháp tương tự cho OpenAI) còn tệ hơn. Đánh giá của chúng tôi là, đây gần như hoàn toàn là một màn kịch an ninh.
Logic cơ bản của Palantir dường như là: "Trong công ty các bạn có thể có một số nhân viên bất mãn, các bạn cần cho họ một thứ gì đó để xoa dịu họ, hoặc làm cho những việc đang xảy ra trở nên vô hình với họ. Đây chính là dịch vụ chúng tôi cung cấp."
Về vấn đề để nhân viên Anthropic hoặc OpenAI trực tiếp giám sát việc triển khai, chúng tôi cũng đã thảo luận nội bộ vài tháng trước khi mở rộng Chính sách sử dụng chấp nhận được (AUP) trong môi trường cơ mật. Kết luận rất rõ ràng: Cách này chỉ khả thi trong một số ít trường hợp. Chúng tôi sẽ cố gắng hết sức, nhưng nó tuyệt đối không phải là cơ chế đảm bảo cốt lõi có thể dựa vào, đặc biệt khó thực hiện trong môi trường cơ mật. Nhân tiện nói luôn, chúng tôi thực sự đã cố gắng làm như vậy hết mức có thể, ở điểm này chúng tôi không khác biệt với OpenAI.
Vì vậy, điều tôi muốn nói là: Những biện pháp mà OpenAI áp dụng về cơ bản không thể giải quyết vấn đề.
Lý do bản chất khiến họ chấp nhận những giải pháp này, còn chúng tôi thì không, nằm ở chỗ: Họ quan tâm đến cách xoa dịu nhân viên, còn chúng tôi thực sự quan tâm đến việc ngăn chặn lạm dụng.
Những giải pháp này không phải là hoàn toàn vô giá trị, bản thân chúng tôi cũng đang sử dụng một phần trong số đó, nhưng chúng hoàn toàn không đủ để đạt được tiêu chuẩn an toàn cần có. Đồng thời, Bộ Chiến tranh rõ ràng đối xử không nhất quán với OpenAI và chúng tôi.
Trên thực tế, chúng tôi đã từng thử thêm vào hợp đồng một số điều khoản an ninh tương tự OpenAI (như một phần bổ sung cho AUP. Theo chúng tôi, AUP mới là phần quan trọng hơn), nhưng Bộ Chiến tranh đã từ chối. Bằng chứng liên quan nằm trong chuỗi thảo luận email lúc đó. Do hiện tại tôi có quá nhiều việc, có thể sẽ nhờ đồng nghiệp tìm lại cách diễn đạt cụ thể sau. Vì vậy, cách nói "Các điều khoản của OpenAI đã từng được cung cấp cho chúng tôi và bị chúng tôi từ chối" là không đúng sự thật; tương tự, cách nói "Các điều khoản của OpenAI có thể ngăn chặn hiệu quả giám sát trong nước quy mô lớn hoặc vũ khí hoàn toàn tự động" cũng không đúng sự thật.
Ngoài ra, cách diễn đạt của Sam và OpenAI còn ngụ ý rằng, ranh giới đỏ mà chúng tôi đề xuất, tức vũ khí hoàn toàn tự động và giám sát trong nước quy mô lớn, bản thân đã là hành vi vi phạm pháp luật, do đó chính sách sử dụng liên quan là thừa. Cách nói này gần như hoàn toàn trùng khớp với tuyên bố của Bộ Chiến tranh, trông giống như đã được phối hợp trước.
Nhưng điều này không phù hợp với sự thật.
Như chúng tôi đã giải thích trong tuyên bố ngày hôm qua, Bộ Chiến tranh thực sự có thẩm quyền tiến hành giám sát trong nước. Trong thời đại không có AI trước đây, ảnh hưởng của những thẩm quyền này còn tương đối hạn chế, nhưng trong thời đại AI, ý nghĩa của nó đã hoàn toàn khác.
Ví dụ: Bộ Chiến tranh có thể hợp pháp mua số lượng lớn dữ liệu cá nhân của công dân Mỹ từ các nhà cung cấp (những nhà cung cấp này thường có quyền bán lại thông qua các điều khoản đồng ý của người dùng được ngụy trang), sau đó sử dụng AI để phân tích quy mô lớn các dữ liệu này, dùng để xây dựng hồ sơ công dân, đánh giá khuynh hướng chính trị, theo dõi hành trình di chuyển trong không gian thực, dữ liệu họ có thể thu được thậm chí bao gồm cả thông tin GPS, v.v.
Còn một điểm đáng chú ý: Vào lúc gần kết thúc đàm phán, Bộ Chiến tranh đề xuất, nếu chúng tôi xóa một điều khoản cụ thể về "phân tích dữ liệu mua số lượng lớn" (analysis of bulk acquired data) trong hợp đồng, thì họ sẵn sàng chấp nhận tất cả các điều khoản khác của chúng tôi. Mà điều khoản này lại chính là điều khoản duy nhất trong hợp đồng tương ứng chính xác với tình huống chúng tôi lo ngại nhất. Chúng tôi cảm thấy rất đáng ngờ về điều này.
Về vấn đề vũ khí tự động, Bộ Chiến tranh tuyên bố "con người trong vòng lặp" là yêu cầu pháp lý. Nhưng sự thật không phải vậy. Đây thực chất chỉ là một chính sách của Lầu Năm Góc từ thời chính quyền Biden, yêu cầu phải có sự tham gia của con người trong quyết định phóng vũ khí. Và chính sách này có thể được Bộ trưởng Quốc phòng đương nhiệm Pete Hegseth sửa đổi đơn phương—đây chính là điều chúng tôi thực sự lo ngại. Vì vậy, từ góc độ thực tế, đây không phải là một ràng buộc thực sự.
Rất nhiều lời lẽ tuyên truyền quan hệ công chúng của OpenAI và Bộ Chiến tranh về những vấn đề này, hoặc là đang nói dối, hoặc là đang cố ý tạo ra sự nhập nhằng. Những sự thật này tiết lộ một kiểu hành vi, mà kiểu hành vi này tôi đã thấy rất nhiều lần trên người Sam Altman. Tôi hy vọng mọi người có thể nhận ra nó.
Sáng nay, trước tiên anh ta nói rằng mình đồng tình với ranh giới đỏ của Anthropic, mục đích làm vậy là để tỏ ra ủng hộ chúng tôi, nhằm chia bớt một số công lao, đồng thời tránh bị chỉ trích khi họ tiếp nhận hợp đồng này. Anh ta còn cố gắng tự tạo dựng hình ảnh một nhân vật mong muốn "thiết lập tiêu chuẩn hợp đồng thống nhất cho toàn ngành"—tức là người kiến tạo hòa bình và người môi giới giao dịch.
Nhưng trong hậu trường, anh ta đang ký kết hợp đồng với Bộ Chiến tranh, chuẩn bị thay thế chúng tôi vào khoảnh khắc chúng tôi bị đánh dấu là rủi ro chuỗi cung ứng.
Đồng thời, anh ta phải đảm bảo quá trình này trông không giống như "khi Anthropic kiên trì ranh giới đỏ, thì OpenAI lại từ bỏ nguyên tắc". Lý do có thể làm được điều này là vì:
Thứ nhất, anh ta có thể ký kết tất cả các biện pháp "màn kịch an ninh" mà chúng tôi từ chối, và Bộ Chiến tranh cùng các đối tác của họ cũng sẵn sàng phối hợp, đóng gói những biện pháp này đủ đáng tin để xoa dịu nhân viên của anh ta.
Thứ hai, Bộ Chiến tranh sẵn sàng chấp nhận một số điều khoản mà anh ta đề xuất, trong khi lúc chúng tôi đề xuất nội dung tương tự lại bị từ chối.
Chính hai điểm này khiến OpenAI có thể đạt được thỏa thuận, còn chúng tôi thì không.
Nguyên nhân thực sự khiến Bộ Chiến tranh và chính quyền Trump không thích chúng tôi là: Chúng tôi không đóng góp chính trị cho Trump (còn OpenAI và Greg Brockman thì đóng góp rất nhiều); chúng tôi không ca ngợi Trump theo kiểu độc tài (còn Sam thì có); chúng tôi ủng hộ quản lý AI, điều này trái với chương trình nghị sự chính sách của họ; chúng tôi chọn nói sự thật về nhiều vấn đề chính sách AI (ví dụ vấn đề AI thay thế việc làm); và, chúng tôi thực sự kiên trì ranh giới đỏ, chứ không phải cùng họ tạo ra "màn kịch an ninh" để xoa dịu nhân viên.
Sam hiện đang cố gắng mô tả tất cả những điều này thành: chúng tôi khó hợp tác, thái độ của chúng tôi cứng nhắc, chúng tôi thiếu linh hoạt, v.v. Tôi hy vọng mọi người nhận ra rằng, đây chính là một kiểu thao túng tâm lý điển hình (gaslighting).
Cách nói mơ hồ kiểu "một người nào đó khó hợp tác", thường được dùng để che giấu những nguyên nhân khó coi thực sự—chính là những điều tôi vừa đề cập: đóng góp chính trị, lòng trung thành chính trị, và màn kịch an ninh.
Mỗi người cần hiểu rõ điều này, và phản bác lại cách tường thuật này khi trao đổi riêng với nhân viên OpenAI.
Nói cách khác, Sam đang làm suy yếu lập trường của chúng tôi dưới vẻ bề ngoài "ủng hộ chúng tôi". Tôi hy vọng mọi người giữ tỉnh táo về điều này: anh ta làm suy yếu sự ủng hộ của công chúng dành cho chúng tôi, khiến chính phủ dễ dàng trừng phạt chúng tôi hơn. Thậm chí, tôi nghi ngờ anh ta còn có thể âm thầm xúi giục, mặc dù điểm này hiện tôi chưa có bằng chứng trực tiếp.
Ở cấp độ công chúng và truyền thông, chiêu thuật và sự thao túng này dường như đã thất bại. Hầu hết mọi người đều cho rằng thương vụ giữa OpenAI và Bộ Chiến tranh đáng cảnh giác, thậm chí đáng lo ngại, đồng thời coi chúng tôi là bên kiên trì nguyên tắc (nhân tiện nói luôn, hiện chúng tôi đã đứng thứ hai trên bảng xếp hạng tải xuống App Store rồi).
【Chú thích: Sau đó Claude đã leo lên vị trí số một trên App Store.】
Tất nhiên, cách tường thuật này có tác dụng với một số kẻ ngốc trên twitter, nhưng điều đó không quan trọng. Điều tôi thực sự lo ngại là: Đảm bảo nó không gây ảnh hưởng trong nội bộ nhân viên OpenAI.
Do hiệu ứng sàng lọc, bản thân họ vốn là một nhóm người tương đối dễ bị thuyết phục. Nhưng việc phản bác lại những cách tường thuật mà Sam đang rao bán cho chính nhân viên của mình, vẫn vô cùng quan trọng.





