Sáng thứ Bảy, Sam Altman đã đăng tải trên X một bức thư nội bộ.
Lá thư được anh viết cho nhân viên OpenAI vào tối thứ Năm, nói rằng công ty đang đàm phán với Lầu Năm Góc và anh hy vọng có thể giúp "giảm bớt căng thẳng". Khi đăng tải lá thư, anh kèm theo vài dòng giải thích, đại ý muốn công khai những gì đã xảy ra trong mấy ngày qua.
Vào thời điểm anh đăng dòng tweet này, Claude đã leo lên vị trí số 1 trên bảng xếp hạng miễn phí của App Store Mỹ. Chỉ một ngày trước đó, ChatGPT vẫn đang ngồi ở vị trí đó.
Dữ liệu từ Sensor Tower ghi lại sự việc trong vài giờ tiếp theo: Chỉ riêng thứ Bảy, lượt gỡ cài đặt ChatGPT tại Mỹ đã tăng đột biến 295% so với ngày thường, đánh giá 1 sao tăng 775%. Trong khi đó, lượt tải xuống Claude trong ngày tăng 51%. Trên Reddit xuất hiện làn sóng bài đăng "Cancel ChatGPT" (Tẩy chay ChatGPT), người dùng đăng ảnh chụp màn hình hủy đăng ký, có người bình luận "fastest install of my life" (cài đặt nhanh nhất đời tôi). Một trang web tên QuitGPT.org đã ra mắt, tuyên bố 1,5 triệu người đã hành động.
Thứ Hai, lượng người dùng đổ về quá đông, Claude đã xảy ra sự cố ngừng hoạt động hàng loạt. Công ty bị chính phủ liên bang liệt vào danh sách "rủi ro an ninh chuỗi cung ứng" này, vì người dùng ùn ùn kéo đến, máy chủ đã quá tải.
Đòn phản công sản phẩm chính xác
Cùng ngày với làn sóng gỡ cài đặt, Anthropic đã ra mắt công cụ chuyển đổi ký ức.
Bản thân tính năng không phức tạp. Người dùng sao chép một đoạn gợi ý vào ChatGPT, yêu cầu nó xuất ra tất cả ký ức và sở thích đã lưu trữ, sau đó dán vào Claude, Claude nhập vào một lần, tiếp tục từ nơi bạn rời khỏi ChatGPT. Văn bản trên trang web chính thức chỉ có một câu: "switch to Claude without starting over" (chuyển sang Claude mà không cần bắt đầu lại).
Thời điểm của công cụ này, là thuộc tính then chốt nhất của nó.
Dữ liệu của chính OpenAI cho thấy, đến giữa năm 2025, hơn 70% các tình huống sử dụng của người dùng ChatGPT là không liên quan đến công việc, bao gồm hỏi đáp hàng ngày, viết lách, giải trí, tìm kiếm thông tin. Nó là AI đầu tiên mà nhiều người tiếp xúc, dựa vào hệ sinh thái plugin khổng lồ, Chế độ giọng nói và sự tích hợp sâu của các ứng dụng bên thứ ba để nhúng vào cuộc sống hàng ngày. Chi phí chuyển đổi của nhóm người dùng này không chỉ là "tải một ứng dụng mới", mà là để một AI không quen biết bạn bắt đầu lại từ con số 0 để hiểu bạn là ai. Sự tích lũy ký ức, trước đây là lý do mạnh nhất để ở lại.
Dữ liệu nghiên cứu của chính Anthropic cho thấy, các tình huống sử dụng Claude tập trung cao độ. Nhiệm vụ lập trình và toán học chiếm 34%, là danh mục đơn nhất, giáo dục và nghiên cứu khoa học là hướng phát triển nhanh nhất trong năm qua. Người dùng cốt lõi là nhà phát triển, nhà nghiên cứu và người viết lách nặng, nhóm người này lý trí hơn, dễ dàng đổi công cụ vì một đánh giá giá trị rõ ràng, miễn là chi phí di chuyển đủ thấp.
Công cụ chuyển đổi ký ức đã giảm chi phí này xuống mức thấp nhất. Đồng thời, Anthropic tuyên bố mở rộng tính năng ký ức cho toàn bộ người dùng miễn phí, tính năng này trước đây là độc quyền trả phí.
Nhưng một phần đáng kể người dùng đổ về này, không phải là người dùng mục tiêu ban đầu của Claude.
Từ phản hồi trên mạng xã hội, nhiều người dùng phổ thông chuyển từ ChatGPT sang, khi lần đầu sử dụng Claude thường có phản ứng: "Nó khác biệt." Có người cảm thấy câu trả lời của Claude sâu sắc hơn, sẽ chủ động đẩy ngược lại, chứ không phải cái gì cũng nói tốt. Có người phát hiện nó viết lách sạch sẽ hơn, nhưng không tạo ra hình ảnh, cũng không có trải nghiệm tương tác như Voice Mode.
Có người vốn muốn tìm một "sản phẩm thay thế ChatGPT ngoan ngoãn hơn", nhưng phát hiện tính cách Claude mạnh mẽ hơn, cần thời gian thích ứng. Một hướng dẫn chuyển đổi của TechRadar trong hai ngày này được đăng tải rộng rãi, tiêu đề là "Tôi ước gì đã có người nói với tôi những điều này", thông tin cốt lõi của bài viết là: Logic sử dụng của Claude và ChatGPT về cơ bản khác nhau, cái đầu giống như một đối tác làm việc có lập trường, cái sau giống như một trợ lý vạn năng hơn.
Sự khác biệt này vốn là định vị riêng của hai sản phẩm, nhưng bị sự kiện này bất ngờ phóng đại. Người dùng đổ về Claude vì lập trường đạo đức, rồi phát hiện một sản phẩm khác với kỳ vọng của họ, một AI kén chọn hơn, có cảm giác ranh giới rõ rệt hơn. Điều này vốn có thể là lý do rời bỏ, nhưng tại thời điểm đặc biệt này, nó lại trở thành lý do ở lại: Bạn tin tưởng lập trường của một công ty, thì dễ dàng chấp nhận logic sản phẩm của nó hơn.
Sau vài ngày ra mắt, Anthropic công bố dữ liệu: Người dùng hoạt động miễn phí tăng hơn 60% so với tháng 1, lượng đăng ký mới hàng ngày tăng gấp bốn lần. Claude từng bị ngừng hoạt động do lưu lượng truy cập quá lớn, hàng nghìn người dùng báo cáo không thể đăng nhập, được khắc phục trong vài giờ.
Ba chữ trong hợp đồng: OpenAI đã nói gì, và làm gì
Anthropic là công ty thương mại đầu tiên triển khai mô hình AI lên mạng lưới bí mật của quân đội Mỹ, hợp tác thông qua Palantir, giá trị hợp đồng khoảng 200 triệu USD. Nhưng trong nhiều tháng qua, mối quan hệ song phương tiếp tục xấu đi. Trọng tâm tranh cãi là một điều khoản: Lầu Năm Góc yêu cầu mô hình AI mở "tất cả mục đích hợp pháp", không đính kèm bất kỳ điều kiện nào. Anthropic thì kiên quyết ghi rõ hai ngoại lệ, không được sử dụng để giám sát hàng loạt công dân Mỹ, không được sử dụng cho hệ thống vũ khí tự động hoàn toàn.
Khoảng ngày 20 tháng 2, theo báo cáo, một lãnh đạo Anthropic đã chất vấn Palantir về cách sử dụng Claude trong chiến dịch bắt giữ Tổng thống Venezuela Maduro của quân đội Mỹ vào tháng 1, quân đội cực kỳ bất mãn. Thứ Năm, Lầu Năm Góc đưa ra tối hậu thư, yêu cầu Dario Amodei trả lời trước 5 giờ chiều cùng ngày.
Amodei đã đưa ra tuyên bố trước thời hạn, nói rằng công ty không thể chấp nhận điều khoản hiện tại, "không phải vì chúng tôi phản đối mục đích quân sự, mà trong một số ít trường hợp, chúng tôi tin rằng AI có khả năng phá hoại hơn là bảo vệ giá trị dân chủ". Trump ngay lập tức tuyên bố các cơ quan liên bang ngừng sử dụng toàn bộ sản phẩm Anthropic trong sáu tháng, Hegseth liệt công ty vào danh sách "rủi ro an ninh chuỗi cung ứng", nhãn dán này thường dùng cho các công ty đối thủ nước ngoài. Hợp đồng chấm dứt từ đó.
Vị trí bỏ trống, nhanh chóng có người lấp đầy. Ngay trong ngày hôm đó, OpenAI tuyên bố ký kết hợp đồng với Lầu Năm Góc. Altman trong thư nội bộ thứ Năm, lập trường vẫn rõ ràng, anh viết đây đã là "vấn đề của toàn ngành", nói OpenAI và Anthropic nắm giữ cùng "lằn ranh đỏ": phản đối giám sát hàng loạt, phản đối vũ khí tự động. Thứ Sáu, thỏa thuận đạt được, sẽ triển khai mô hình trên mạng lưới bí mật của quân đội, hạn chế chỉ chạy trên đám mây, cử kỹ sư giám sát, và tuyên bố đã ghi rõ hai hạn chế tương tự trong hợp đồng.
Altman sau đó mở hỏi đáp trên X, giải đáp trong vài giờ. Có người hỏi anh: Tại sao Lầu Năm Góc chấp nhận OpenAI, lại cấm Anthropic? Câu trả lời của anh là: "Anthropic dường như tập trung hơn vào các điều khoản cấm cụ thể trong hợp đồng, thay vì trích dẫn luật áp dụng, còn chúng tôi hài lòng với việc trích dẫn luật."
Câu nói này nói về sự khác biệt phương pháp luận, nhưng nó mở ra tranh cãi thực sự của sự việc.
Điểm then chốt khi Anthropic đàm phán thất bại, là cụm từ mà Lầu Năm Góc kiên quyết ghi vào: Hệ thống AI có thể được sử dụng cho "all lawful purposes", tức là tất cả mục đích hợp pháp. Lý do Anthropic từ chối là, cụm từ này trong ngữ cảnh an ninh quốc gia không phải là một ranh giới cố định. Luật hiện hành ở nhiều mặt chưa theo kịp năng lực của AI, phạm vi "hợp pháp" sẽ do chính cách giải thích của chính phủ quyết định. OpenAI đã ký cụm từ này, đồng thời tuyên bố đã thảo luận về các biện pháp bảo vệ tương tự trong hợp đồng.
Các chuyên gia pháp lý sau đó phân tích các điều khoản hợp đồng công khai của OpenAI, chỉ ra hai vấn đề cụ thể về cách diễn đạt.
Điều khoản giám sát ghi là, hệ thống không được sử dụng để giám sát "unconstrained" (không ràng buộc) thông tin cá nhân công dân Mỹ. Phó chủ tịch chính sách của Trung tâm Dân chủ và Công nghệ Samir Jain chỉ ra, cách diễn đạt ở đây ngụ ý phiên bản giám sát "có ràng buộc" được cho phép. Trong khuôn khổ pháp lý hiện hành, chính phủ hoàn toàn có thể mua hợp pháp hồ sơ vị trí, lịch sử duyệt web và dữ liệu tài chính của công dân từ các nhà môi giới dữ liệu, để AI phân tích những dữ liệu này, về mặt kỹ thuật không cấu thành "giám sát bất hợp pháp". Amodei trong cuộc phỏng vấn sau đó với CBS đã lấy đúng ví dụ này.
Điều khoản vũ khí ghi là, hệ thống không được sử dụng cho vũ khí tự động trong "trường hợp luật pháp, quy định hoặc chính sách của bộ yêu cầu kiểm soát của con người". Cụm từ hạn định này ngụ ý, hạn chế chỉ có hiệu lực khi các quy định khác đã yêu cầu kiểm soát của con người, sức ràng buộc hoàn toàn mượn từ chính sách hiện có. Và Lầu Năm Góc có quyền sửa đổi chính sách nội bộ của mình bất cứ lúc nào. Học giả pháp lý Charles Bullock trên X viết, điều khoản vũ khí trong hợp đồng dựa vào chỉ thị DoD 3000.09, chỉ thị này yêu cầu chỉ huy giữ lại "mức độ phán đoán của con người phù hợp", và "mức độ phù hợp" này là một tiêu chuẩn có thể được giải thích linh hoạt.
Phản hồi của OpenAI trước những chất vấn này là: Mô hình chỉ chạy trên đám mây, điều này về mặt kiến trúc đã loại trừ khả năng được tích hợp trực tiếp vào hệ thống vũ khí. Hợp đồng cũng ghi rõ cơ sở pháp lý cụ thể, có sức ràng buộc hơn các điều khoản cấm bằng văn bản, vì luật pháp là khuôn khổ đã được kiểm nghiệm. Bản thân Altman trong phần trả lời cũng thừa nhận: "Nếu chúng tôi cần chiến đấu trong tương lai, chúng tôi sẽ chiến đấu, nhưng điều này rõ ràng đặt chúng tôi vào một số rủi ro."
Đây không phải là vấn đề một công ty sẵn sàng thỏa hiệp, một công ty kiên trì nguyên tắc, đây là hai triết lý an ninh cơ bản khác nhau. Ranh giới của OpenAI là: Việc bất hợp pháp tôi không làm. Ranh giới của Anthropic là: Việc luật pháp chưa kịp cấm, nhưng tôi cho là không nên làm, tôi cũng không làm.
Sự phân rã này, cũng để lại vết nứt trong nội bộ OpenAI. Tuần trước, nhiều nhân viên OpenAI ký tên vào thư ngỏ, ủng hộ lập trường của Anthropic, phản đối việc liệt công ty vào rủi ro chuỗi cung ứng. Nhà nghiên cứu alignment Leo Gao công khai chất vấn liệu hợp đồng của công ty có cung cấp đủ bảo vệ hay không. Vỉa hè bên ngoài văn phòng OpenAI ở San Francisco, xuất hiện các bức vẽ graffiti chỉ trích bằng phấn. Bên ngoài văn phòng Anthropic thì là những lời nhắn ủng hộ. Buổi hỏi đáp kéo dài vài giờ của Altman trên X, phần lớn hướng đến nhóm người trong chính công ty mình vốn đứng về phía Anthropic.
Hai kết quả của cùng một câu chuyện
Anthropic trong nhiều năm luôn dùng "ngăn chặn rủi ro cấp độ văn minh" để định khung sứ mệnh an ninh của mình, đặt mối đe dọa tiềm tàng của AI tiên phong ngang hàng với vũ khí hạt nhân, định vị mình là người gác cửa trên tuyến phòng thủ này. Câu chuyện này là cốt lõi thương hiệu của nó, cũng là cách nó giành lấy niềm tin trên thị trường vốn.
Nhà bình luận công nghệ Packy McCormick trong thời gian sự việc này diễn ra, đã dẫn ra một khái niệm của Ben Thompson: Hype Tax (Thuế cường điệu). Ý là, nếu bạn dùng câu chuyện cực đoan để xây dựng ảnh hưởng của mình, thì khi câu chuyện này gặp quyền lực thực sự, bạn phải trả giá cho nó. Bạn so sánh công nghệ AI với vũ khí hạt nhân, chính phủ sẽ đối xử với bạn theo cách đối xử với vũ khí hạt nhân.
Anthropic đã trả giá cho câu chuyện này: mất một hợp đồng, bị liệt vào rủi ro an ninh, bị tổng thống chỉ đích danh, tất cả sản phẩm của công ty bị yêu cầu xóa sạch khỏi hệ thống liên bang trong sáu tháng.
Nhưng cùng một cuối tuần, cùng một câu chuyện đó lại tạo ra hiệu ứng hoàn toàn ngược lại ở một chiều kích khác.
Người dùng phổ thông nhìn thấy không phải là điều khoản hợp đồng, không phải giải thích pháp lý, không phải tranh cãi triết lý an ninh. Họ thấy: Một công ty nói không, bị chính phủ đá ra. Một công ty khác nói đồng ý, nhận được hợp đồng. Họ dùng khuôn khổ đánh giá của mình để lựa chọn, 295% lượt gỡ cài đặt, vị trí số 1 App Store, máy chủ ngừng hoạt động.
Đây là sự biểu đạt đạo đức tập thể của người tiêu dùng hiếm thấy trong lịch sử ngành AI.
Anthropic không chi một xu ngân sách quan hệ công chúng cho sự việc này. Tuyên bố của Amodei có ngôn từ chừng mực, không kêu gọi người dùng ủng hộ, không chỉ đích danh OpenAI, không tự tạo dựng mình thành người tuẫn đạo. Nhưng kết quả đã xảy ra.
Ở đây có một chi tiết đáng chú ý: Sự kiện khiến người dùng đổ về Claude, về bản chất là OpenAI đã làm một việc hoàn toàn hợp lý về mặt thương mại, ký kết thỏa thuận khi đối thủ cạnh tranh bị cấm, hợp đồng treo lơ lửng, và tuyên bố đã thảo luận các điều khoản bảo vệ tương tự. Altman cũng nói rõ, anh làm vậy một phần là để giúp giảm nhiệt tình hình, ngăn chặn tổn hại thêm cho Anthropic.
Dù động cơ thế nào, kết quả là OpenAI nhận được hợp đồng, người dùng Anthropic tăng trưởng. Cả hai bên đều có cái giá phải trả, cả hai bên đều có thu hoạch, chỉ là đơn vị tính khác nhau.
Còn một việc nữa đáng đặt ở đây.
Hợp đồng Lầu Năm Góc mà Anthropic mất, trị giá khoảng 200 triệu USD.
Doanh thu theo năm hiện tại của Anthropic, là 14 tỷ USD. Mục tiêu là đạt 26 tỷ USD trong năm 2026.
Anthropic tháng trước vừa hoàn thành vòng gọi vốn E Series 30 tỷ USD, định giá 380 tỷ USD.
Bài toán này, bây giờ không khó tính. Nhưng còn một câu hỏi khác chưa có lời giải: Khi AI thực sự được sử dụng quy mô lớn cho quyết định quân sự, những "lan can kỹ thuật" và kỹ sư được cử đến ghi trong hợp đồng, rốt cuộc có tác dụng hay không, dù là của OpenAI, hay những điều Anthropic vốn yêu cầu.
Câu hỏi này, không nằm trong bất kỳ hợp đồng công khai nào.











