Penulis: Ada, Shenchao TechFlow
Judul asli: Tujuh Puluh Dua Jam Krisis Identitas Anthropic
24 Februari, Selasa. Washington, Pentagon.
CEO Anthropic Dario Amodei duduk berhadapan dengan Menteri Pertahanan Pete Hegseth. Menurut beberapa sumber yang dikutip oleh NPR dan CNN, suasana pertemuan "sopan", tetapi isinya sama sekali tidak ramah.
Hegseth memberinya ultimatum: Jumat pukul 5:01 sore, cabut pembatasan penggunaan militer Claude, izinkan Pentagon menggunakannya untuk "semua penggunaan yang sah", termasuk penargetan senjata otonom dan pengawasan massal domestik.
Kalau tidak, batalkan kontrak senilai 200 juta dolar. Aktifkan Undang-Undang Produksi Pertahanan (Defense Production Act), sita paksa. Daftarkan Anthropic sebagai "risiko rantai pasok", yang setara dengan memasukkannya ke dalam daftar hitam entitas bermusuhan seperti Rusia dan China.
Pada hari yang sama, Anthropic merilis versi ketiga "Kebijakan Perluasan yang Bertanggung Jawab" (RSP 3.0), diam-diam menghapus janji inti sejak pendirian perusahaan: jika langkah-langkah keamanan tidak dapat dipastikan, jangan latih model yang lebih kuat.
Juga pada hari yang sama, Elon Musk memposting di X: "Anthropic mencuri data pelatihan secara besar-besaran, ini fakta." Secara bersamaan, catatan komunitas X menambahkan laporan bahwa Anthropic membayar penyelesaian 1,5 miliar dolar karena menggunakan buku bajakan untuk melatih Claude.
Dalam tujuh puluh dua jam, perusahaan AI yang menyebut diri memiliki "jiwa" ini, secara bersamaan memainkan tiga peran: martir keamanan, pencuri kekayaan intelektual, pengkhianat Pentagon.
Mana yang asli?
Mungkin semuanya.
"Taat atau Pergi" dari Pentagon
Lapisan pertama ceritanya sederhana.
Anthropic adalah perusahaan AI pertama yang mendapatkan akses tingkat rahasia dari Departemen Pertahanan AS. Kontrak didapatkan musim panas lalu, dengan batas atas 200 juta dolar. OpenAI, Google, xAI kemudian juga mendapatkan kontrak dengan skala serupa.
Menurut laporan Al Jazeera, Claude pernah digunakan dalam sebuah operasi militer AS bulan Januari tahun ini. Laporan menyebut operasi tersebut melibatkan penculikan Presiden Venezuela Maduro.
Tapi Anthropic menarik dua batasan: tidak mendukung penargetan senjata otonom penuh, tidak mendukung pengawasan massal terhadap warga AS. Anthropic berpendapat, keandalan kecerdasan buatan belum cukup untuk mengoperasikan senjata, dan saat ini belum ada peraturan hukum yang mengatur penerapan AI dalam pengawasan massal.
Pentagon tidak menerima.
Penasihat AI Gedung Putih David Sacks bulan Oktober lalu di X secara terbuka menuduh Anthropic "menggunakan ketakutan sebagai senjata, melakukan perebutan regulasi".
Pesaing sudah menyerah. OpenAI, Google, xAI setuju untuk membiarkan militer menggunakan AI mereka untuk "semua skenario yang sah". Grok milik Musk minggu ini baru disetujui masuk sistem rahasia.
Anthropic adalah yang terakhir bertahan.
Hingga berita ini diturunkan, Anthropic dalam pernyataan terbarunya menyatakan, mereka tidak berniat menyerah. Namun batas waktu Jumat pukul 5:01, sudah sangat dekat.
Seorang mantan penghubung Departemen Kehakiman dan Pertahanan yang anonim kepada CNN menyatakan kebingungan: "Bagaimana mungkin Anda sekaligus mengumumkan sebuah perusahaan sebagai 'risiko rantai pasok', dan memaksa perusahaan ini bekerja untuk militer Anda?"
Pertanyaan bagus, tapi ini tidak dalam pertimbangan Pentagon. Yang mereka pedulikan adalah, jika Anthropic tidak kompromi, akan mengambil tindakan paksa, atau, menjadi buangan Washington.
"Serangan Distilasi": Sebuah Tuduhan yang Memalukan
23 Februari, Anthropic memposting blog dengan kata-kata keras, menuduh tiga perusahaan AI China melakukan "serangan distilasi tingkat industri" terhadap Claude.
Terlapor adalah DeepSeek, Moonshot AI, MiniMax.
Anthropic menuduh mereka melalui 24 ribu akun palsu, meluncurkan lebih dari 16 juta interaksi terhadap Claude, mengekstrak secara terarah kemampuan inti Claude dalam penalaran agen, pemanggilan alat, dan pemrograman.
Anthropic menetapkan hal ini sebagai ancaman keamanan nasional, menyatakan model yang didistilasi "kemungkinan besar tidak mempertahankan pagar pengaman", mungkin digunakan oleh pemerintah otoriter untuk serangan siber, informasi palsu, dan pengawasan massal.
Narasi sempurna, waktu juga sempurna.
Tepat setelah pemerintah Trump baru saja melonggarkan kontrol ekspor chip ke China, tepat ketika Anthropic perlu mencari amunisi untuk posisi lobi kontrol ekspor chip mereka sendiri.
Tapi Musk menembak: "Anthropic mencuri data pelatihan secara besar-besaran, dan membayar miliaran dolar uang penyelesaian. Ini fakta."
Pendiri bersama infrastruktur AI IO.Net Tory Green mengatakan: "Kalian menggunakan data seluruh jaringan untuk melatih model sendiri, lalu orang lain menggunakan API publik kalian untuk mempelajari kalian, disebut 'serangan distilasi'?"
Anthropic menyebut distilasi sebagai "serangan", tapi hal ini dalam industri AI adalah hal biasa. OpenAI menggunakannya untuk mengompresi GPT-4, Google menggunakannya untuk mengoptimalkan Gemini, bahkan Anthropic sendiri juga melakukannya. Satu-satunya perbedaan adalah, kali ini yang di-distilasi adalah dirinya sendiri.
Menurut profesor AI Universitas Teknologi Nanyang Singapura Erik Cambria kepada CNBC: "Batas antara penggunaan sah dan pemanfaatan jahat seringkali kabur."
Lebih ironisnya, Anthropic baru saja membayar 1,5 miliar dolar uang penyelesaian karena menggunakan buku bajakan untuk melatih Claude. Ia menggunakan data seluruh jaringan untuk melatih model, lalu menuduh orang lain menggunakan API publiknya untuk mempelajarinya. Ini bukan standar ganda, ini standar triple.
Anthropic ingin berperan sebagai korban, malah terbongkar menjadi terdakwa.
Pembongkaran Janji Keamanan: RSP 3.0
Bersamaan dengan berhadapan dengan Pentagon dan saling serang dengan Silicon Valley, Anthropic merilis versi ketiga Kebijakan Perluasan yang Bertanggung Jawab.
Kepala Ilmuwan Anthropic Jared Kaplan dalam wawancara dengan media mengatakan: "Kami merasa menghentikan pelatihan model AI tidak membantu siapa pun. Dalam konteks perkembangan AI yang cepat, membuat janji sepihak... sementara pesaing melaju dengan kecepatan penuh, ini tidak masuk akal."
Dengan kata lain, orang lain tidak sopan, kami juga tidak mau berpura-pura.
Inti RSP 1.0 dan 2.0 adalah sebuah janji keras, jika kemampuan model melampaui cakupan langkah-langkah keamanan, hentikan pelatihan. Janji ini memberikan Anthropic reputasi unik di kalangan keamanan AI.
Tapi 3.0 menghapusnya.
Digantikan dengan kerangka yang lebih "fleksibel", yaitu memisahkan langkah-langkah keamanan yang bisa dilakukan Anthropic sendiri dan saran keamanan yang membutuhkan kolaborasi seluruh industri menjadi dua jalur. Setiap 3-6 bulan kirim laporan risiko. Minta tinjauan ahli eksternal.
Kedengarannya bertanggung jawab?
Pemeriksa independen dari organisasi nirlaba METR Chris Painter setelah melihat draf awal kebijakan mengatakan: "Ini menunjukkan Anthropic merasa perlu masuk ke 'mode triase', karena metode penilaian dan mitigasi risiko tidak dapat mengikuti kecepatan pertumbuhan kemampuan. Ini lebih membuktikan bahwa masyarakat tidak siap menghadapi risiko bencana potensial AI."
Menurut laporan TIME, Anthropic menghabiskan hampir setahun waktu diskusi internal untuk penulisan ulang ini, CEO Amodei dan dewan direksi menyetujui sepenuhnya. Penjelasan resmi adalah, kebijakan aslinya dirancang untuk mendorong konsensus industri, hasilnya industri sama sekali tidak mengikuti. Pemerintahan Trump mengambil sikap membiarkan perkembangan AI, bahkan berusaha menghapus peraturan terkait di berbagai negara bagian. Hukum AI tingkat federal masih jauh. Meskipun pada tahun 2023 membangun kerangka tata kelola global masih mungkin, tetapi tiga tahun telah berlalu, pintu ini jelas telah tertutup.
Seorang peneliti tata kelola AI yang telah lama melacak dan anonim mengatakan lebih langsung: "RSP adalah aset merek paling berharga Anthropic. Menghapus janji jeda pelatihan, seperti sebuah perusahaan makanan organik diam-diam merobek kata 'organik' dari kemasan, lalu memberitahu Anda pemeriksaan mereka sekarang lebih transparan."
Pelecehan Identitas di Bawah Valuasi 380 Miliar
Awal Februari, Anthropic dengan valuasi 380 miliar dolar menyelesaikan pendanaan 300 miliar dolar, Amazon adalah investor jangkar. Sejak berdiri, telah mencapai pendapatan tahunan 14 miliar dolar. Tiga tahun terakhir, angka ini setiap tahun tumbuh lebih dari 10 kali lipat.
Secara bersamaan, Pentagon mengancam akan memasukkannya ke daftar hitam. Musk secara terbuka menuduhnya pencurian data. Janji keamanan intinya sendiri dihapus. Kepala keamanan AI Anthropic Mrinank Sharma mengundurkan diri dan menulis di X: "Dunia dalam bahaya."
Kontradiksi?
Mungkin kontradiksi adalah gen Anthropic.
Perusahaan ini didirikan oleh mantan eksekutif OpenAI, karena mereka khawatir OpenAI terlalu cepat dalam masalah keamanan. Lalu mereka sendiri membangun sebuah perusahaan, dengan kecepatan lebih cepat membangun model lebih kuat, sambil memberitahu seluruh dunia betapa berbahayanya model-model ini.
Model bisnis dapat diringkas dalam satu kalimat, kami lebih takut pada AI daripada siapa pun, jadi Anda harus mengeluarkan uang untuk membiarkan kami membuat AI.
Narasi ini berjalan sempurna di tahun 2023-2024. Keamanan AI adalah kata panas di Washington, Anthropic adalah pelobi paling populer.
2026, arah angin berubah.
"AI woke" menjadi label serangan, undang-undang pengawasan AI tingkat negara bagian dihadang Gedung Putih, SB 53 California yang didukung Anthropic meskipun ditandatangani menjadi undang-undang, tetapi tingkat federal sepi.
Kartu keamanan Anthropic, sedang dari "keunggulan diferensiasi" meluncur ke "aset negatif politik".
Anthropic sedang melakukan permainan keseimbangan kompleks, perlu cukup "aman" untuk mempertahankan merek, dan perlu cukup "fleksibel" untuk tidak ditinggalkan pasar dan pemerintah. Masalahnya, ruang toleransi di kedua ujung menyempit.
Narasi Keamanan, Masih Berharga Berapa?
Melihat tiga hal ini bersamaan, gambarnya menjadi jelas.
Menuduh perusahaan China mendistilasi Claude, adalah untuk memperkuat narasi lobi kontrol ekspor chip. Untuk tidak tertinggal dalam perlombaan senjata, menghapus janji jeda keamanan. Menolak permintaan senjata otonom Pentagon, adalah untuk mempertahankan lapisan terakhir jubah moral.
Setiap langkah ada logikanya, tetapi setiap langkah saling bertentangan.
Anda tidak bisa sekaligus mengatakan perusahaan China "mendistilasi" model Anda membahayakan keamanan nasional, sambil menghapus janji mencegah model Anda sendiri lepas kendali. Jika model benar-benar berbahaya, Anda harus lebih hati-hati, bukan lebih agresif.
Kecuali Anda adalah Anthropic.
Dalam industri AI, identitas tidak didefinisikan oleh pernyataan Anda, tapi oleh neraca keuangan Anda. Narasi "keamanan" Anthropic, pada dasarnya adalah premium merek.
Di awal perlombaan senjata AI, premium ini berharga. Investor bersedia membayar valuasi lebih tinggi untuk "AI yang bertanggung jawab", pemerintah bersedia memberi lampu hijau untuk "AI yang dapat dipercaya", pelanggan bersedia membayar untuk "AI yang lebih aman".
Tapi tahun 2026, premium ini sedang menguap.
Yang dihadapi Anthropic sekarang, bukan pilihan "apakah kompromi atau tidak", tapi urutan "kompromi kepada siapa dulu". Kompromi kepada Pentagon, merek rusak. Kompromi kepada pesaing, janji keamanan batal. Kompromi kepada investor, kedua ujung harus mengalah.
Jumat pukul 5:01 sore, Anthropic akan menyerahkan jawabannya.
Tapi apapun jawabannya, satu hal sudah pasti: Anthropic yang dulu berdiri dengan "kami berbeda dengan OpenAI", sedang menjadi sama dengan semua orang.
Titik akhir krisis identitas, seringkali adalah hilangnya identitas.
Twitter:https://twitter.com/BitpushNewsCN
Grup TG Bitpush:https://t.me/BitPushCommunity
Langganan TG Bitpush: https://t.me/bitpush







