Ditulis oleh: Ada, Deep Tide TechFlow
24 Februari, Selasa. Washington, Pentagon.
CEO Anthropic Dario Amodei duduk berhadapan dengan Menteri Pertahanan Pete Hegseth. Menurut beberapa sumber yang dikutip oleh NPR dan CNN, suasana pertemuan "sopan", tetapi isinya sama sekali tidak ramah.
Hegseth memberinya ultimatum: Jumat pukul 5:01 sore, batasi penggunaan Claude untuk militer, izinkan Pentagon menggunakannya untuk "semua penggunaan yang sah", termasuk penargetan senjata otonom dan pengawasan massal domestik.
Jika tidak, batalkan kontrak senilai 200 juta dolar. Aktifkan Undang-Undang Produksi Pertahanan (Defense Production Act), wajibkan pengambilalihan. Masukkan Anthropic ke dalam daftar "risiko rantai pasokan", yang setara dengan memasukkannya ke daftar hitam entitas musuh seperti Rusia dan China.
Pada hari yang sama, Anthropic merilis versi ketiga "Kebijakan Perluasan yang Bertanggung Jawab" (RSP 3.0), diam-diam menghapus janji inti perusahaan sejak didirikan: jika tidak dapat memastikan langkah-langkah keamanan, jangan latih model yang lebih kuat.
Juga pada hari yang sama, Elon Musk memposting di X: "Anthropic mencuri data pelatihan secara besar-besaran, ini fakta." Pada saat yang sama, catatan komunitas X menambahkan laporan bahwa Anthropic membayar denda penyelesaian 1,5 miliar dolar karena menggunakan buku bajakan untuk melatih Claude.
Dalam tujuh puluh dua jam, perusahaan AI yang mengklaim memiliki "jiwa" ini, secara bersamaan memainkan tiga peran: martir keamanan, pencuri kekayaan intelektual, pengkhianat Pentagon.
Mana yang asli?
Mungkin semuanya.
"Taat atau Pergi" dari Pentagon
Lapisan pertama ceritanya sederhana.
Anthropic adalah perusahaan AI pertama yang mendapatkan akses tingkat rahasia dari Departemen Pertahanan AS. Kontrak didapatkan musim panas lalu, dengan batas atas 200 juta dolar. OpenAI, Google, xAI kemudian juga mendapatkan kontrak dengan skala serupa.
Menurut laporan Al Jazeera, Claude pernah digunakan dalam operasi militer AS bulan Januari tahun ini. Laporan tersebut menyebutkan bahwa operasi tersebut melibatkan penculikan Presiden Venezuela Maduro.
Tetapi Anthropic membuat dua batasan: tidak mendukung penargetan senjata sepenuhnya otonom, tidak mendukung pengawasan massal terhadap warga AS. Anthropic berpendapat bahwa keandalan kecerdasan buatan tidak cukup untuk mengendalikan senjata, dan saat ini belum ada undang-undang yang mengatur penerapan kecerdasan buatan dalam pengawasan massal.
Pentagon tidak menerima.
Penasihat AI Gedung Putih David Sacks bulan Oktober lalu secara terbuka menuduh Anthropic "menggunakan ketakutan sebagai senjata, melakukan perebutan regulasi".
Pesaing sudah menyerah. OpenAI, Google, xAI semuanya setuju untuk membiarkan militer menggunakan AI mereka untuk "semua skenario yang sah". Grok milik Musk minggu ini baru disetujui masuk ke sistem rahasia.
Anthropic adalah yang terakhir masih bertahan.
Hingga berita ini ditulis, Anthropic dalam pernyataan terbarunya menyatakan bahwa mereka tidak berniat menyerah. Namun batas waktu Jumat pukul 5:01, sudah sangat dekat.
Seorang mantan penghubung Departemen Kehakiman dan Pertahanan yang anonim kepada CNN menyatakan kebingungan: "Bagaimana mungkin Anda secara bersamaan menyatakan sebuah perusahaan adalah 'risiko rantai pasokan', dan memaksa perusahaan ini bekerja untuk militer Anda?"
Pertanyaan bagus, tetapi ini tidak dalam pertimbangan Pentagon. Yang mereka pedulikan adalah, jika Anthropic tidak kompromi, akan mengambil tindakan paksa, atau, menjadi anak buangan Washington.
"Serangan Distilasi": Sebuah Tuduhan yang Memalukan
23 Februari, Anthropic menerbitkan blog dengan kata-kata yang keras, menuduh tiga perusahaan AI China melakukan "serangan distilasi tingkat industri" terhadap Claude.
Terlapor adalah DeepSeek, Moonshot AI, MiniMax.
Anthropic menuduh mereka melalui 24 ribu akun palsu, meluncurkan lebih dari 16 juta interaksi terhadap Claude, mengekstrak secara terarah kemampuan inti Claude dalam penalaran agen, pemanggilan alat, dan pemrograman.
Anthropic menetapkan hal ini sebagai ancaman keamanan nasional, mengklaim model yang didistilasi "kemungkinan besar tidak mempertahankan pagar pengaman", mungkin digunakan oleh pemerintah otoriter untuk serangan siber, informasi palsu, dan pengawasan massal.
Narasi sempurna, waktu juga sempurna.
Tepat setelah pemerintah Trump baru saja melonggarkan kontrol ekspor chip ke China, tepat ketika Anthropic perlu mencari amunisi untuk posisi lobi kontrol ekspor chip mereka sendiri.
Tetapi Musk menembak: "Anthropic mencuri data pelatihan secara besar-besaran, dan membayar miliaran dolar denda penyelesaian. Ini fakta."
Pendiri bersama perusahaan infrastruktur AI IO.Net Tory Green mengatakan: "Anda melatih model Anda sendiri dengan data seluruh jaringan, lalu orang lain belajar dari Anda menggunakan API publik Anda, disebut 'serangan distilasi'?"
Anthropic menyebut distilasi sebagai "serangan", tetapi hal ini adalah hal biasa di industri AI. OpenAI menggunakannya untuk mengompresi GPT-4, Google menggunakannya untuk mengoptimalkan Gemini, bahkan Anthropic sendiri juga melakukannya. Satu-satunya perbedaan adalah, kali ini yang didistilasi adalah dirinya sendiri.
Menurut profesor AI Universitas Teknologi Nanyang Singapura Erik Cambria kepada CNBC: "Batas antara penggunaan sah dan pemanfaatan jahat seringkali kabur."
Yang lebih ironis adalah, Anthropic baru saja membayar denda penyelesaian 1,5 miliar dolar karena menggunakan buku bajakan untuk melatih Claude. Ia menggunakan data seluruh jaringan untuk melatih model, lalu menuduh orang lain belajar darinya menggunakan API publiknya. Ini bukan standar ganda, ini standar triple.
Anthropic ingin berperan sebagai korban, malah dibongkar menjadi terdakwa.
Pembongkaran Janji Keamanan: RSP 3.0
Tepat pada hari yang sama dengan konfrontasi dengan Pentagon dan saling serang dengan Silicon Valley, Anthropic merilis Kebijakan Perluasan Bertanggung Jawab versi ketiga.
Kepala Ilmuwan Anthropic Jared Kaplan dalam wawancara dengan media mengatakan: "Kami merasa menghentikan pelatihan model AI tidak membantu siapa pun. Dalam konteks perkembangan AI yang cepat, membuat janji sepihak... sementara pesaing maju dengan kecepatan penuh, ini tidak masuk akal."
Dengan kata lain, orang lain tidak sopan, kami juga tidak mau berpura-pura.
Inti RSP 1.0 dan 2.0 adalah janji keras, jika kemampuan model melampaui cakupan langkah-langkah keamanan, hentikan pelatihan. Janji ini memberikan Anthropic reputasi unik di kalangan keamanan AI.
Tetapi 3.0 menghapusnya.
Digantikan oleh kerangka yang lebih "fleksibel", yaitu memisahkan langkah-langkah keamanan yang dapat dilakukan Anthropic sendiri dan saran keamanan yang membutuhkan kolaborasi seluruh industri menjadi dua jalur. Setiap 3-6 bulan menerbitkan laporan risiko. Minta tinjauan ahli eksternal.
Kedengarannya bertanggung jawab?
Pemeriksa independen dari organisasi nirlaba METR Chris Painter setelah melihat draf awal kebijakan tersebut mengatakan: "Ini menunjukkan Anthropic merasa perlu masuk ke 'mode triase', karena metode penilaian dan mitigasi risiko tidak dapat mengikuti kecepatan pertumbuhan kemampuan. Ini lebih membuktikan bahwa masyarakat tidak siap menghadapi risiko bencana potensial AI."
Menurut laporan TIME, Anthropic menghabiskan hampir satu tahun diskusi internal untuk penulisan ulang ini, CEO Amodei dan dewan direksi menyetujui sepenuhnya. Penjelasan resmi adalah, kebijakan aslinya dirancang untuk mendorong konsensus industri, tetapi industri sama sekali tidak mengikuti. Pemerintahan Trump mengambil sikap membiarkan perkembangan kecerdasan buatan, bahkan berusaha menghapus peraturan terkait di berbagai negara bagian. Undang-undang kecerdasan buatan tingkat federal masih jauh. Meskipun pada tahun 2023 membangun kerangka tata kelola global masih mungkin, tetapi tiga tahun telah berlalu, pintu ini jelas telah tertutup.
Seorang peneliti tata kelola AI anonim yang telah lama melacak mengatakan lebih langsung: "RSP adalah aset merek Anthropic yang paling berharga. Menghapus janji penghentian pelatihan, seperti sebuah perusahaan makanan organik diam-diam merobek kata 'organik' dari kemasannya, lalu memberi tahu Anda bahwa pengujian mereka sekarang lebih transparan."
Pelecehan Identitas di Bawah Valuasi 380 Miliar
Awal Februari, Anthropic menyelesaikan pendanaan 300 miliar dolar dengan valuasi 380 miliar dolar, Amazon adalah investor utama. Sejak didirikan, telah mencapai pendapatan tahunan 14 miliar dolar. Tiga tahun terakhir, angka ini tumbuh lebih dari 10 kali setiap tahun.
Pada saat yang sama, Pentagon mengancam akan memasukkannya ke daftar hitam. Musk secara terbuka menuduhnya pencurian data. Janji keamanan intinya sendiri dihapus. Kepala keamanan AI Anthropic Mrinank Sharma mengundurkan diri dan menulis di X: "Dunia dalam bahaya."
Kontradiksi?
Mungkin kontradiksi adalah gen Anthropic.
Perusahaan ini didirikan oleh mantan eksekutif OpenAI, karena mereka khawatir OpenAI bergerak terlalu cepat dalam masalah keamanan. Kemudian mereka sendiri membangun sebuah perusahaan, membangun model yang lebih kuat dengan kecepatan lebih cepat, sambil memberitahu seluruh dunia betapa berbahayanya model-model ini.
Model bisnis dapat diringkas dalam satu kalimat, kami lebih takut pada AI daripada siapa pun, jadi Anda harus mengeluarkan uang untuk membiarkan kami membuat AI.
Narasi ini berjalan sempurna pada tahun 2023-2024. Keamanan AI adalah kata panas di Washington, Anthropic adalah pelobi paling populer.
2026, arah angin berubah.
"AI woke" menjadi label serangan, undang-undang pengawasan AI tingkat negara bagian dihalangi oleh Gedung Putih, SB 53 California yang didukung Anthropic meskipun ditandatangani menjadi undang-undang, tetapi tingkat federal sepi.
Kartu keamanan Anthropic, sedang bergeser dari "keunggulan diferensiasi" menuju "aset negatif politik".
Anthropic sedang melakukan permainan keseimbangan yang kompleks, ia perlu cukup "aman" untuk mempertahankan merek, dan perlu cukup "fleksibel" untuk tidak ditinggalkan pasar dan pemerintah. Masalahnya, ruang toleransi di kedua ujung menyusut.
Narasi Keamanan, Masih Berharga Berapa?
Melihat tiga hal ini bersama-sama, gambarnya menjadi jelas.
Menuduh perusahaan China mendistilasi Claude, adalah untuk memperkuat narasi lobi kontrol ekspor chip. Untuk tidak tertinggal dalam perlombaan senjata, menghapus janji penghentian keamanan. Menolak permintaan senjata otonom Pentagon, adalah untuk mempertahankan lapisan terakhir jubah moral.
Setiap langkah memiliki logika, tetapi setiap langkah saling bertentangan.
Anda tidak bisa sambil mengatakan perusahaan China "mendistilasi" model Anda akan membahayakan keamanan nasional, sambil menghapus janji mencegah model Anda sendiri lepas kendali. Jika model benar-benar berbahaya, Anda harus lebih hati-hati, bukan lebih agresif.
Kecuali jika Anda adalah Anthropic.
Di industri AI, identitas tidak didefinisikan oleh pernyataan Anda, tetapi oleh neraca keuangan Anda. Narasi "keamanan" Anthropic, pada dasarnya adalah premi merek.
Pada awal perlombaan senjata AI, premi ini berharga. Investor bersedia membayar valuasi lebih tinggi untuk "AI yang bertanggung jawab", pemerintah bersedia memberi lampu hijau untuk "AI yang dapat dipercaya", pelanggan bersedia membayar untuk "AI yang lebih aman".
Tetapi tahun 2026, premi ini sedang menguap.
Yang dihadapi Anthropic sekarang, bukan pilihan "apakah mau kompromi", tetapi urutan "kompromi kepada siapa dulu". Kompromi kepada Pentagon, merek rusak. Kompromi kepada pesaing, janji keamanan batal. Kompromi kepada investor, kedua ujung harus mengalah.
Jumat pukul 5:01 sore, Anthropic akan menyerahkan jawabannya.
Tetapi apapun jawabannya, satu hal sudah pasti: Anthropic yang dulu berdiri dengan "kami berbeda dengan OpenAI", sedang menjadi sama dengan semua orang.
Titik akhir krisis identitas, seringkali adalah hilangnya identitas.








