Tác giả: Ada, Shenchao TechFlow
Tiêu đề gốc: Bảy mươi hai giờ khủng hoảng danh tính của Anthropic
Ngày 24 tháng 2, thứ Ba. Washington, Lầu Năm Góc.
CEO Anthropic Dario Amodei ngồi đối diện Bộ trưởng Quốc phòng Pete Hegseth. Theo nhiều nguồn tin tiết lộ với NPR và CNN, bầu không khí cuộc gặp "lịch sự" nhưng nội dung hoàn toàn không nhẹ nhàng.
Hegseth đưa ra cho ông một tối hậu thư: Trước 5:01 chiều thứ Sáu, dỡ bỏ các hạn chế sử dụng quân sự đối với Claude, cho phép Lầu Năm Góc sử dụng nó cho "tất cả các mục đích hợp pháp", bao gồm nhắm mục tiêu vũ khí tự động và giám sát quy mô lớn trong nước.
Nếu không, hủy bỏ hợp đồng 200 triệu USD. Kích hoạt Đạo luật Sản xuất Quốc phòng, trưng dụng bắt buộc. Xếp Anthropic vào danh sách "rủi ro chuỗi cung ứng", điều này tương đương với việc đưa nó vào danh sách đen các thực thể thù địch của Nga và Trung Quốc.
Cùng ngày, Anthropic đã phát hành phiên bản thứ ba của "Chính sách Mở rộng Có trách nhiệm" (RSP 3.0), âm thầm xóa bỏ cam kết cốt lõi nhất kể từ khi thành lập công ty: nếu không thể đảm bảo các biện pháp an toàn, sẽ không đào tạo các mô hình mạnh hơn.
Cũng trong ngày hôm đó, Elon Musk đăng trên X: "Anthropic ăn cắp quy mô lớn dữ liệu đào tạo, đây là sự thật." Đồng thời, ghi chú cộng đồng X bổ sung thông tin Anthropic đã trả 1,5 tỷ USD để dàn xếp vụ kiện sử dụng sách vi phạm bản quyền để đào tạo Claude.
Trong vòng bảy mươi hai giờ, công ty AI tự nhận có "linh hồn" này, đồng thời đóng ba vai trò: kẻ tử vì đạo an ninh, kẻ trộm tài sản trí tuệ, kẻ phản bội Lầu Năm Góc.
Đâu mới là sự thật?
Có lẽ tất cả đều đúng.
"Tuân theo hoặc biến đi" của Lầu Năm Góc
Tầng đầu tiên của câu chuyện rất đơn giản.
Anthropic là công ty AI đầu tiên có quyền truy cập cấp độ mật vào Bộ Quốc phòng Hoa Kỳ. Hợp đồng được ký vào mùa hè năm ngoái, trị giá tối đa 200 triệu USD. OpenAI, Google, xAI sau đó cũng nhận được các hợp đồng quy mô tương đương.
Theo Al Jazeera, Claude đã được sử dụng trong một hoạt động quân sự của Mỹ vào tháng 1 năm nay. Báo cáo cho biết hoạt động này liên quan đến vụ bắt cóc Tổng thống Venezuela Maduro.
Nhưng Anthropic đã vạch ra hai ranh giới đỏ: không hỗ trợ nhắm mục tiêu vũ khí hoàn toàn tự động, không hỗ trợ giám sát quy mô lớn đối với công dân Mỹ. Anthropic cho rằng độ tin cậy của trí tuệ nhân tạo không đủ để vận hành vũ khí, và hiện chưa có luật pháp nào quy định việc ứng dụng AI trong giám sát quy mô lớn.
Lầu Năm Góc không chấp nhận.
Cố vấn AI của Nhà Trắng David Sacks vào tháng 10 năm ngoái đã công khai cáo buộc Anthropic trên X "sử dụng nỗi sợ hãi làm vũ khí, thực hiện chiêu thức bắt giữ quản lý".
Đối thủ cạnh tranh đã đầu hàng. OpenAI, Google, xAI đều đồng ý để quân đội sử dụng AI của họ cho "tất cả các tình huống hợp pháp". Grok của Musk vừa được phê duyệt vào hệ thống mật trong tuần này.
Anthropic là người cuối cùng còn đứng vững.
Tính đến thời điểm hiện tại, Anthropic trong tuyên bố mới nhất cho biết họ không có ý định nhượng bộ. Nhưng hạn chót 5:01 thứ Sáu đã đến rất gần.
Một cựu liên lạc viên Bộ Tư pháp và Bộ Quốc phòng giấu tên bày tỏ sự bối rối với CNN: "Làm sao bạn có thể đồng thời tuyên bố một công ty là 'rủi ro chuỗi cung ứng', lại ép công ty đó làm việc cho quân đội của bạn?"
Câu hỏi hay, nhưng điều đó không nằm trong phạm vi xem xét của Lầu Năm Góc. Họ quan tâm là, nếu Anthropic không thỏa hiệp, sẽ áp dụng biện pháp cưỡng chế, hoặc, trở thành kẻ bị Washington ruồng bỏ.
"Tấn công chưng cất": Một cáo buộc kiểu tát vào mặt
Ngày 23 tháng 2, Anthropic đăng một blog với ngôn từ gay gắt, cáo buộc ba công ty AI Trung Quốc đã thực hiện "tấn công chưng cất cấp độ công nghiệp" vào Claude.
Bị đơn là DeepSeek, Moonshot AI, MiniMax.
Anthropic cáo buộc họ thông qua 24.000 tài khoản giả mạo, đã thực hiện hơn 16 triệu lần tương tác với Claude, định hướng trích xuất năng lực cốt lõi của Claude trong lập luận tác nhân thông minh, gọi công cụ và lập trình.
Anthropic định tính sự việc này là mối đe dọa an ninh quốc gia, tuyên bố rằng mô hình sau khi chưng cất "khó có thể giữ lại các rào chắn an toàn", có thể bị chính phủ chuyên chế sử dụng cho tấn công mạng, thông tin sai lệch và giám sát quy mô lớn.
Tường thuật thật hoàn hảo, thời cơ thật hoàn hảo.
Vừa đúng lúc chính phủ Trump vừa nới lỏng kiểm soát xuất khẩu chip sang Trung Quốc, vừa đúng lúc Anthropic cần tìm đạn dược cho lập trường vận động hành lang kiểm soát xuất khẩu chip của mình.
Nhưng Musk đã khai hỏa: "Anthropic ăn cắp quy mô lớn dữ liệu đào tạo, và đã trả hàng chục tỷ USD để dàn xếp. Đây là sự thật."
Đồng sáng lập công ty cơ sở hạ tầng AI IO.Net Tory Green nói: "Các người dùng dữ liệu toàn mạng để đào tạo mô hình của mình, rồi người khác dùng API công khai của các người để học hỏi các người, thì gọi là 'tấn công chưng cất'?"
Anthropic gọi chưng cất là "tấn công", nhưng việc này trong ngành AI là chuyện thường ngày. OpenAI dùng nó để nén GPT-4, Google dùng nó để tối ưu hóa Gemini, ngay cả chính Anthropic cũng đang làm. Điểm khác biệt duy nhất là, lần này bị chưng cất là chính nó.
Theo Giáo sư AI Erik Cambria của Đại học Công nghệ Nanyang Singapore nói với CNBC: "Ranh giới giữa sử dụng hợp pháp và khai thác độc hại thường mờ nhạt."
Trớ trêu hơn, Anthropic vừa trả 1,5 tỷ USD để dàn xếp vụ sử dụng sách vi phạm bản quyền đào tạo Claude. Nó dùng dữ liệu toàn mạng để đào tạo mô hình, rồi cáo buộc người khác dùng API công khai của nó để học nó. Đây không phải là hai tiêu chuẩn, mà là ba tiêu chuẩn.
Anthropic vốn định đóng vai nạn nhân, kết quả bị lột thành bị đơn.
Tháo dỡ cam kết an toàn: RSP 3.0
Ngay trong ngày đối đầu với Lầu Năm Góc và đấu khẩu với Thung lũng Silicon, Anthropic đã phát hành phiên bản thứ ba của Chính sách Mở rộng Có trách nhiệm.
Nhà khoa học trưởng Anthropic Jared Kaplan trả lời phỏng vấn truyền thông: "Chúng tôi cảm thấy ngừng đào tạo mô hình AI không giúp ích cho bất kỳ ai. Trong bối cảnh AI phát triển nhanh chóng, đơn phương đưa ra cam kết... trong khi đối thủ cạnh tranh đang tiến hành hết tốc lực, điều này không có ý nghĩa."
Nói cách khác, người khác không giữ võ đức, chúng tôi cũng không giả vờ nữa.
Điểm cốt lõi của RSP 1.0 và 2.0 là một cam kết cứng, nếu năng lực mô hình vượt quá phạm vi bao phủ của các biện pháp an toàn, thì tạm dừng đào tạo. Cam kết này đã mang lại cho Anthropic danh tiếng độc nhất vô nhị trong giới an ninh AI.
Nhưng phiên bản 3.0 đã xóa nó.
Thay vào đó là một khuôn khổ "linh hoạt" hơn, tức là chia các biện pháp an toàn mà Anthropic tự có thể làm và các khuyến nghị an toàn cần sự hợp tác toàn ngành thành hai đường ray. Cứ 3-6 tháng phát hành một báo cáo rủi ro. Mời chuyên gia bên ngoài xem xét.
Nghe có vẻ có trách nhiệm?
Nhà kiểm tra độc lập Chris Painter từ tổ chức phi lợi nhuận METR sau khi xem bản dự thảo chính sách sớm cho biết: "Điều này cho thấy Anthropic cho rằng cần phải vào 'chế độ phân loại', bởi vì phương pháp đánh giá và giảm thiểu rủi ro không theo kịp tốc độ tăng trưởng năng lực. Điều này chứng minh nhiều hơn rằng xã hội chưa sẵn sàng cho các rủi ro thảm khốc tiềm ẩn của AI."
Theo TIME đưa tin, Anthropic đã dành gần một năm thảo luận nội bộ về lần viết lại này, CEO Amodei và hội đồng quản trị đã thông qua với số phiếu tuyệt đối. Lời giải thích chính thức là, chính sách ban đầu được thiết kế với mục đích thúc đẩy sự đồng thuận trong ngành, nhưng kết quả là ngành hoàn toàn không theo kịp. Chính phủ Trump đã có thái độ buông lỏng đối với sự phát triển trí tuệ nhân tạo, thậm chí cố gắng bãi bỏ các quy định liên quan của các bang. Luật liên bang về AI còn xa vời. Mặc dù vào năm 2023, việc thiết lập khuôn khổ quản trị toàn cầu dường như vẫn còn khả thi, nhưng ba năm đã trôi qua, cánh cửa này rõ ràng đã đóng lại.
Một nhà nghiên cứu theo dõi quản trị AI lâu năm nói ẩn danh còn trực tiếp hơn: "RSP là tài sản thương hiệu có giá trị nhất của Anthropic. Xóa bỏ cam kết tạm dừng đào tạo, giống như một công ty thực phẩm hữu cơ lặng lẽ xé hai chữ 'hữu cơ' trên bao bì, rồi nói với bạn rằng việc kiểm tra của họ bây giờ minh bạch hơn."
Sự xé rách danh tính dưới mức định giá 3800 tỷ
Đầu tháng 2, Anthropic hoàn thành vòng gọi vốn 300 tỷ USD với định giá 3800 tỷ USD, Amazon là nhà đầu tư mỏ neo. Kể từ khi thành lập, đã đạt doanh thu hàng năm 140 tỷ USD. Ba năm qua, con số này mỗi năm đều tăng trưởng hơn 10 lần.
Đồng thời, Lầu Năm Góc đe dọa đưa nó vào danh sách đen. Musk công khai cáo buộc nó ăn cắp dữ liệu. Cam kết an toàn cốt lõi của chính mình bị xóa bỏ. Người phụ trách an ninh AI của Anthropic, Mrinank Sharma, từ chức và viết trên X: "Thế giới đang gặp nguy hiểm."
Mâu thuẫn?
Có lẽ mâu thuẫn là gen của Anthropic.
Công ty này được thành lập bởi các cựu lãnh đạo OpenAI, vì họ lo ngại OpenAI đi quá nhanh về vấn đề an toàn. Sau đó họ tự xây dựng một công ty, với tốc độ nhanh hơn để xây dựng các mô hình mạnh hơn, đồng thời nói với cả thế giới rằng những mô hình này nguy hiểm như thế nào.
Mô hình kinh doanh có thể tóm gọn trong một câu: chúng tôi sợ AI hơn bất kỳ ai, vì vậy bạn nên bỏ tiền cho chúng tôi chế tạo AI.
Tường thuật này vận hành hoàn hảo trong năm 2023-2024. An ninh AI là từ khóa nóng ở Washington, Anthropic là nhà vận động hành lang được ưa chuộng nhất.
Năm 2026, hướng gió đã thay đổi.
"AI tỉnh thức" (woke AI) trở thành nhãn hiệu tấn công, dự luật quản lý AI cấp bang bị Nhà Trắng ngăn chặn, SB 53 của California do Anthropic hỗ trợ mặc dù đã được ký thành luật, nhưng cấp liên bang hoang vu.
Lá bài an toàn của Anthropic, đang trượt từ "lợi thế khác biệt" sang "tài sản nợ chính trị".
Anthropic đang thực hiện một màn cân bằng phức tạp, nó cần đủ "an toàn" để duy trì thương hiệu, lại cần đủ "linh hoạt" để không bị thị trường và chính phủ ruồng bỏ. Vấn đề là, không gian khoan dung ở cả hai đầu đang thu hẹp.
Tường thuật an toàn, còn đáng giá bao nhiêu?
Xếp ba sự việc lại với nhau, bức tranh sẽ rõ ràng.
Cáo buộc công ty Trung Quốc chưng cất Claude, là để củng cố tường thuật vận động hành lang kiểm soát xuất khẩu chip. Để không bị tụt lại trong cuộc chạy đua vũ trang, đã xóa bỏ cam kết tạm dừng an toàn. Từ chối yêu cầu vũ khí tự động của Lầu Năm Góc, là để giữ lại lớp áo đạo đức cuối cùng.
Mỗi bước đều có logic, nhưng giữa các bước lại mâu thuẫn lẫn nhau.
Bạn không thể vừa nói công ty Trung Quốc "chưng cất" mô hình của bạn sẽ gây hại cho an ninh quốc gia, vừa xóa bỏ cam kết ngăn mô hình của chính bạn mất kiểm soát. Nếu mô hình thực sự nguy hiểm như vậy, bạn nên thận trọng hơn, chứ không phải tích cực hơn.
Trừ khi bạn là Anthropic.
Trong ngành AI, danh tính không được định nghĩa bởi tuyên bố của bạn, mà bởi bảng cân đối kế toán của bạn. Tường thuật "an toàn" của Anthropic, về bản chất là một khoản phí thương hiệu.
Vào giai đoạn đầu của cuộc chạy đua vũ trang AI, khoản phí này có giá trị. Nhà đầu tư sẵn sàng trả định giá cao hơn cho "AI có trách nhiệm", chính phủ sẵn sàng bật đèn xanh cho "AI đáng tin cậy", khách hàng sẵn sàng trả tiền cho "AI an toàn hơn".
Nhưng năm 2026, khoản phí này đang bốc hơi.
Anthropic hiện đang đối mặt, không phải là câu hỏi lựa chọn "có thỏa hiệp hay không", mà là câu hỏi sắp xếp "thỏa hiệp với ai trước". Thỏa hiệp với Lầu Năm Góc, thương hiệu bị tổn hại. Thỏa hiệp với đối thủ cạnh tranh, cam kết an toàn bị hủy bỏ. Thỏa hiệp với nhà đầu tư, cả hai đầu đều phải nhượng bộ.
5:01 chiều thứ Sáu, Anthropic sẽ đưa ra câu trả lời của mình.
Nhưng dù câu trả lời là gì, có một điều đã chắc chắn: Anthropic từng dựa vào "chúng tôi khác với OpenAI" để đứng vững, đang trở nên giống tất cả mọi người.
Điểm cuối của khủng hoảng danh tính, thường là sự biến mất của danh tính.
Twitter:https://twitter.com/BitpushNewsCN
Nhóm trao đổi Telegram của Bitpush:https://t.me/BitPushCommunity
Đăng ký Telegram của Bitpush: https://t.me/bitpush







