Lời biên tập:
Khi trải nghiệm sinh tử cá nhân hòa quyện với ẩn dụ suy tàn của thể chế quốc gia, tường thuật chính trị không còn là thảo luận trừu tượng về thể chế, mà trở thành sự nhận thức cảm xúc sâu sắc. Bài viết lấy cái chết của người cha và sự ra đời của đứa trẻ làm điểm dẫn, mở rộng nhận thức cá nhân "cái chết là một quá trình" thành sự phản ánh về hiện trạng thể chế cộng hòa Hoa Kỳ. Theo tác giả, xung đột hiện nay giữa các công ty trí tuệ nhân tạo và chính phủ không phải là sự kiện biệt lập, mà là một góc khuất của sự nới lỏng thể chế lâu dài và mất cân bằng cấu trúc quyền lực.
Bài viết tập trung vào tranh cãi giữa Anthropic và hệ thống quốc phòng Mỹ, từ điều khoản hợp đồng, ranh giới chính sách đến mối đe dọa "rủi ro chuỗi cung ứng", những gì được thảo luận từ lâu không chỉ là cuộc chơi giữa doanh nghiệp và chính phủ, mà là một vấn đề căn bản hơn: trong kỷ nguyên trí tuệ nhân tạo tiên phong, quyền kiểm soát nên thuộc về ai? Là doanh nghiệp tư nhân, là quyền lực hành pháp, hay là một cơ chế công chưa trưởng thành nào đó? Khi an ninh quốc gia trở thành lý do mở rộng quyền lực, khi công cụ chính sách ngày càng phụ thuộc vào sự sắp xếp tạm thời và cưỡng chế, tính quy tắc và khả năng dự đoán của thể chế cộng hòa có đang suy yếu?
Bước nhảy công nghệ và thay đổi thể chế có thể đồng thời xảy ra, và sự giao thoa của cả hai thường ảnh hưởng đến xu hướng của một thời đại. Tác giả vừa đặt câu hỏi về cách làm của chính phủ, vừa giữ lại hy vọng về sự tái thiết thể chế trong tương lai, đồng thời nhắc nhở độc giả không đơn giản đánh đồng "kiểm soát dân chủ" với "kiểm soát chính phủ". Trong bối cảnh trí tuệ nhân tạo phát triển nhanh chóng và mô hình quản trị không ngừng được định hình lại, cuộc tranh cãi này có lẽ chỉ là mở màn. Làm thế nào để đạt được sự cân bằng mới giữa an ninh, hiệu quả và tự do sẽ trở thành vấn đề quan trọng lâu dài phải đối mặt trong tương lai.
Dưới đây là nguyên văn:
Hơn mười năm trước, tôi ngồi bên cạnh cha, chứng kiến ông qua đời. Sáu tháng trước đó, ông vẫn là một người tràn đầy sinh lực, khỏe mạnh hơn tôi ngày nay, đạp xe nhanh hơn và dẻo dai hơn hầu hết những người trẻ hai mươi tuổi. Rồi một ngày, ông phẫu thuật tim, và từ đó không còn là chính mình nữa. Linh hồn ông dường như bị rút cạn, ánh sáng trong mắt biến mất. Thỉnh thoảng ông cũng hồi phục chút sinh khí, người cha quen thuộc như thoáng trở về trong thân thể đang dần già nua của ông, nhưng những khoảnh khắc như vậy ngày càng ít đi. Tư duy của ông trở nên đứt quãng, giọng nói cũng nhỏ dần.
Trong sáu tháng đó, ông liên tục ra vào bệnh viện. Ngày cuối cùng, ông chuyển sang chăm sóc cuối đời. Hôm đó ông hầu như không nói gì. Trong những giờ cuối của cuộc đời, ông gần như đã rời khỏi thế giới này. Ông nằm trên giường bệnh, hơi thở chậm dần, âm thanh ngày càng yếu ớt. Cuối cùng hầu như không nghe thấy nữa, chỉ còn lại một "âm thanh hấp hối" đầy ám ảnh – đó là kết quả của việc cơ thể không còn khả năng nuốt. Một cơ thể không thể nuốt, cũng không thể ăn uống được nữa, theo một nghĩa nào đó, nó đã từ bỏ vật lộn.
Mẹ tôi và tôi nhìn nhau, trong lòng đều hiểu, nhưng không nói ra sự thật hiển nhiên, cũng không hỏi ra câu hỏi trong lòng nhau. Chúng tôi biết thời gian không còn nhiều. Lúc này nói gì, hỏi gì cũng không mang lại thông tin hữu ích; hỏi thêm chỉ thêm đau khổ.
Tôi đã không chỉ một lần trò chuyện riêng với ông. Tôi nắm tay ông, cố gắng chào tạm biệt. Mẹ trở về phòng, ba chúng tôi nắm tay nhau. Cuối cùng, một chiếc máy vang lên tiếng chuông dài, báo hiệu ông đã vượt qua một ranh giới nào đó – đó là ranh giới vô hình với những người trong phòng. Chiều muộn ngày 26 tháng 12 năm 2014, cha tôi qua đời.
Vài ngày sau, rồi mười một năm trôi qua, ngày 30 tháng 12 năm 2025, con trai tôi chào đời. Tôi đã tận mắt chứng kiến cái chết xảy ra, cũng tận mắt chứng kiến sự ra đời của sự sống. Điều tôi học được là: cả hai đều không phải là một sự kiện khoảnh khắc, mà là một quá trình diễn ra. Sự ra đời là một chuỗi thức tỉnh, cái chết là một chuỗi chìm vào giấc ngủ. Con trai tôi cần vài năm để thực sự "chào đời", còn cha tôi mất sáu tháng để thực sự "rời đi". Một số người thậm chí mất hàng thập kỷ để chết dần chết mòn.
Vào một thời điểm nào đó trong cuộc đời tôi, cụ thể là khi nào tôi không thể nói rõ, nước Cộng hòa Hoa Kỳ mà chúng ta quen thuộc bắt đầu suy tàn. Giống như hầu hết cái chết tự nhiên, nguyên nhân của nó phức tạp và đan xen. Không có bất kỳ sự kiện, khủng hoảng, tấn công, tổng thống, đảng phái, luật pháp, quan niệm, cá nhân, doanh nghiệp, công nghệ, sai sót, phản bội, thất bại, đánh giá sai hay đối thủ nước ngoài nào "đơn độc" dẫn đến sự khởi đầu của cái chết, mặc dù tất cả đều đóng vai trò trong đó. Tôi không biết chúng ta đã đi đến giai đoạn nào của quá trình này, nhưng tôi biết chúng ta đã ở trong "phòng chăm sóc cuối đời". Tôi đã biết điều này từ lâu, chỉ là đôi khi cũng như tất cả những người đang thương tiếc, tôi tự phủ nhận. Tôi không muốn nói nhiều, vì nói về nó thường chỉ mang lại đau khổ.
Tuy nhiên, nếu không thừa nhận chúng ta đang ngồi bên giường bệnh, hôm nay tôi không thể hoàn thành bài viết với sự chặt chẽ phân tích mà các bạn mong đợi. Để thảo luận trung thực về sự phát triển của trí tuệ nhân tạo tiên phong, cũng như tương lai chúng ta nên xây dựng, không thể né tránh sự thật rằng nền cộng hòa mà chúng ta quen biết đang trong giai đoạn hấp hối. Chỉ là, ở đây không có chiếc máy nào sẽ vang lên tiếng chuông cuối cùng cho chúng ta. Chúng ta chỉ có thể lặng lẽ quan sát.
Trong lịch sử Hoa Kỳ, nền cộng hòa của chúng ta đã nhiều lần "chết đi" và "tái sinh". Nước Mỹ đã trải qua không chỉ một lần "lập quốc". Có lẽ chúng ta đang đứng trên ngưỡng cửa của một sự tái sinh khác, lật sang chương mới của quốc gia không ngừng tự định hình lại. Tôi hy vọng như vậy. Nhưng cũng có thể chúng ta không còn đủ đức hạnh và trí tuệ để hỗ trợ cho một sự sáng lập mới, và hiểu biết thực tế hơn, là chúng ta đang chuyển đổi chậm rãi sang thời đại trị quốc kiểu "hậu cộng hòa" của nước Mỹ. Tôi không tự nhận mình biết câu trả lời.
Tiếp theo tôi sẽ viết về một cuộc đụng độ giữa một công ty trí tuệ nhân tạo và chính phủ Hoa Kỳ. Tôi không muốn phóng đại điều này. Cái "chết" mà tôi muốn mô tả, đã kéo dài suốt phần lớn cuộc đời tôi. Sự kiện tôi sắp viết xảy ra vào tuần trước, và thậm chí có thể được giải quyết ở mức độ nào đó trong vài ngày tới.
Tôi không nói sự kiện này "gây ra" cái chết của nền cộng hòa, cũng không nói nó "mở ra thời đại mới". Nếu nó có ý nghĩa gì, thì chỉ là khiến sự suy tàn đang diễn ra trở nên rõ ràng hơn đối với cá nhân tôi, khó phủ nhận hơn. Tôi xem sự kiện tuần trước như một "âm thanh hấp hối" của nền cộng hòa cũ, là âm thanh phát ra từ một thân thể đã từ bỏ vật lộn.
Theo như tôi biết, sự việc là thế này: Vào thời chính phủ Biden, công ty trí tuệ nhân tạo Anthropic đã đạt thỏa thuận với Bộ Quốc phòng (nay gọi là "Bộ Chiến tranh", sau đây viết tắt là DoW), cho phép hệ thống trí tuệ nhân tạo Claude của họ được sử dụng trong môi trường mật. Thỏa thuận này được mở rộng vào tháng 7 năm 2025 bởi chính phủ Trump (tiết lộ đầy đủ: lúc đó tôi làm việc trong chính phủ Trump, nhưng không tham gia giao dịch này). Các mô hình ngôn ngữ khác có thể được sử dụng trong các tình huống không mật, nhưng cho đến gần đây, công việc mật, tức là liên quan đến thu thập tình báo, hoạt động tác chiến, v.v., chỉ có thể sử dụng Claude.
Thỏa thuận ban đầu do nhóm Biden đàm phán với Anthropic, đáng chú ý là, một số nhà thiết kế chính sách AI cốt cán của chính phủ Biden đã gia nhập Anthropic ngay sau khi hết nhiệm kỳ, bao gồm hai hạn chế sử dụng. Thứ nhất, Claude không được sử dụng để giám sát quy mô lớn nhắm vào người Mỹ. Thứ hai, không được sử dụng để kiểm soát vũ khí tự chủ gây chết người, tức là vũ khí có khả năng hoàn toàn không cần sự tham gia của con người trong toàn bộ quá trình nhận dạng, theo dõi và sát thương. Chính phủ Trump khi mở rộng thỏa thuận đã có cơ hội xem xét các điều khoản này, và cuối cùng chấp nhận chúng.
Quan chức Trump tuyên bố, họ đổi ý không phải vì nóng vội tiến hành giám sát quy mô lớn hay triển khai vũ khí tự chủ gây chết người, mà là phản đối quan niệm doanh nghiệp tư nhân đặt ra hạn chế về việc sử dụng công nghệ quân sự. Sự thay đổi thái độ của chính phủ thúc đẩy họ sử dụng biện pháp chính sách, với ý định gây tổn hại thậm chí phá hủy Anthropic – một trong những công ty phát triển nhanh nhất trong lịch sử chủ nghĩa tư bản, cũng được coi là nhà dẫn đầu trong lĩnh vực AI toàn cầu hiện nay, trong khi chính phủ luôn miệng nói AI là cực kỳ quan trọng đối với tương lai quốc gia. Nhưng chúng ta sẽ nói về điểm này sau.
Quan điểm mà chính phủ Trump đưa ra không phải là không có lý: Nghe có vẻ không ổn khi doanh nghiệp tư nhân đặt ra hạn chế cho việc sử dụng công nghệ quân sự. Tuy nhiên, trên thực tế, hàng nghìn doanh nghiệp tư nhân đã làm như vậy. Mọi giao dịch công nghệ giữa quân đội và doanh nghiệp tư nhân đều tồn tại dưới dạng hợp đồng (do đó mới gọi là "nhà thầu quốc phòng"), và hợp đồng thường bao gồm hạn chế vận hành (ví dụ "Hệ thống X không được sử dụng ở quốc gia Y", tương tự như các điều khoản phổ biến của Starlink của Musk), hạn chế kỹ thuật (ví dụ "Máy bay chiến đấu nào đó chỉ được chứng nhận sử dụng trong điều kiện nhất định") và hạn chế sở hữu trí tuệ ("Nhà thầu sở hữu và có thể tái sử dụng tài sản trí tuệ công nghệ liên quan").
Ở một số khía cạnh, điều khoản của Anthropic tương tự như những hạn chế truyền thống này. Ví dụ, công ty này không phản đối bản thân vũ khí tự chủ gây chết người, mà cho rằng các hệ thống AI tiên phong hiện có chưa đủ khả năng để tự quyết định sinh tử con người. Điều này khá giống với "hạn chế chứng nhận máy bay chiến đấu".
Nhưng điểm khác biệt then chốt nằm ở chỗ, hạn chế mà Anthropic áp đặt thông qua hình thức hợp đồng, giống với hạn chế chính sách hơn là hạn chế kỹ thuật. Ví dụ, sự khác biệt giữa "Máy bay chiến đấu này chưa được chứng nhận bay đến độ cao nào đó" và "Bạn không được bay đến độ cao nào đó". Có lẽ quân đội vốn không nên chấp nhận các điều khoản như vậy, doanh nghiệp tư nhân cũng không nên đặt ra. Nhưng chính phủ Biden đã chấp nhận, và chính phủ Trump ban đầu cũng chấp nhận, cho đến sau này mới đổi ý.
Điều này tự nó đã nói lên: Những điều khoản như vậy không phải là hành vi vi phạm vô lý. Không có luật nào quy định hợp đồng chỉ được có hạn chế kỹ thuật mà không được có hạn chế chính sách. Hợp đồng không vi phạm pháp luật, có lẽ chỉ là không đủ sáng suốt khi nhìn lại. Ngay cả khi bạn ủng hộ lập trường phản đối giám sát quy mô lớn và vũ khí tự chủ gây chết người, bạn cũng có thể cho rằng hợp đồng quốc phòng không phải là công cụ tốt nhất để đạt được mục tiêu chính sách. Theo các quy tắc thông thường của nền cộng hòa, cách thức để thực hiện chính sách mới là thông qua lập pháp.
Tuy nhiên, "thông qua lập pháp" ngày càng giống một trò đùa trong nước Mỹ đương đại. Nếu bạn thực sự muốn đạt được một kết quả nào đó, lập pháp không còn là con đường ưu tiên. Quản trị ngày càng trở nên không chính thức, tính tạm thời gia tăng, quyền lực hành pháp bành trướng, công cụ chính sách ngày càng không phù hợp với mục tiêu của nó.
Chính phủ Trump tuyên bố việc họ đổi ý có hai lo ngại: Thứ nhất, Anthropic có thể rút lại dịch vụ vào thời khắc then chốt; thứ hai, với tư cách là nhà thầu phụ, điều khoản của Anthropic có thể ràng buộc các nhà thầu quân sự khác. Thêm vào đó, chính phủ coi Anthropic là đối thủ chính trị (họ có thể đánh giá đúng), quân đội đột nhiên nhận ra mình phụ thuộc vào một công ty không đáng tin cậy.
Cách làm hợp lý, lẽ ra nên là hủy bỏ hợp đồng và công khai giải thích lý do, đồng thời thông qua các điều khoản quy định để tránh tình huống tương tự trong tương lai. Nhưng Bộ Chiến tranh lại khăng khăng rằng hợp đồng phải cho phép "tất cả mục đích sử dụng hợp pháp", và đe dọa xếp Anthropic vào danh sách "rủi ro chuỗi cung ứng". Danh mục này thường chỉ áp dụng cho các doanh nghiệp bị đối thủ nước ngoài kiểm soát, như Huawei. Bộ trưởng Chiến tranh đi xa hơn, dọa sẽ ngăn chặn tất cả nhà thầu quân sự có "bất kỳ quan hệ thương mại nào" với Anthropic.
Điều này gần như tương đương với tuyên bố "ám sát doanh nghiệp" một công ty. Cho dù viên đạn chưa chắc đã gây chết người, cũng đủ để truyền đi thông điệp: Làm ăn theo điều kiện của chúng tôi, nếu không công việc kinh doanh của bạn sẽ chấm dứt.
Điều này chạm đến nguyên tắc cốt lõi của nền cộng hòa Hoa Kỳ: tài sản tư nhân. Nếu quân đội nói với Google "bán dữ liệu tìm kiếm được cá nhân hóa toàn cầu, nếu không sẽ bị liệt vào rủi ro", về nguyên tắc không khác gì hành vi hiện tại. Cái gọi là tài sản tư nhân, rốt cuộc chỉ là nguồn lực có thể bị trưng dụng nhân danh an ninh quốc gia.
Hành động này sẽ làm tăng chi phí vốn của toàn ngành AI, làm suy yếu uy tín quốc tế của AI Mỹ, thậm chí có thể làm tổn hại triển vọng sinh lời của chính ngành công nghiệp AI.
Với mỗi lần tổng thống thay đổi, việc hoạch định chính sách của Mỹ ngày càng trở nên khó lường, thô bạo và tùy tiện. Khó có thể phán đoán trật tự tự do bay hơi khi nào.
Ngay cả khi Bộ trưởng Chiến tranh rút lại lời đe dọa, thiệt hại đã gây ra. Chính phủ đã cho thấy: Chỉ cần bạn từ chối khuất phục, bạn có thể bị coi là kẻ thù. Điều này tạo nên sự xói mòn sâu sắc hơn đối với văn hóa chính trị Mỹ.
Quan trọng hơn, đây là lần đầu tiên cuộc tranh luận công khai thực sự xoay quanh "quyền kiểm soát AI tiên phong nên thuộc về đâu" được triển khai. Các thể chế công của chúng ta thể hiện sự mất trật tự, ác ý và thiếu rõ ràng chiến lược. Sự thất bại của giới tinh hoa chính trị không phải là chuyện mới, mà là chủ đề không ngừng gia tăng trong hai mươi năm qua: "Giống như quá khứ, nhưng rõ ràng tệ hơn."
Có lẽ giai đoạn tái thiết tiếp theo sẽ gắn liền mật thiết với AI tiên tiến. Trong việc xây dựng thể chế tương lai, xin đừng đánh đồng "kiểm soát dân chủ" với "kiểm soát chính phủ". Khoảng cách giữa hai bên, chưa bao giờ rõ rệt như ngày nay.
Dù tương lai thế nào, chúng ta phải đảm bảo rằng giám sát quy mô lớn và vũ khí tự chủ không thể xói mòn tự do. Tôi đánh giá cao các phòng thí nghiệm AI đã giữ vững lằn ranh. Trong vài thập kỷ tới, tự do của chúng ta có thể mong manh hơn chúng ta tưởng.
Mỗi người phải chọn tương lai mà mình sẵn sàng đấu tranh hoặc bảo vệ. Khi đưa ra lựa chọn, hãy bỏ qua sự ồn ào của "âm thanh hấp hối" đó, giữ cho tư duy độc lập. Bạn đang bước vào một thời đại xây dựng thể chế hoàn toàn mới.
Nhưng trước đó, hãy dành chút thời gian để thương tiếc cho nền cộng hòa từng tồn tại đó.






