Narasi Keamanan Tertekan oleh Realitas, Bagaimana Anthropic Terjerumus dalam Krisis Identitas?

比推Dipublikasikan tanggal 2026-02-27Terakhir diperbarui pada 2026-02-27

Abstrak

Selama 72 jam, Anthropic menghadapi krisis identitas yang dalam. CEO Dario Amodei diberi ultimatum oleh Pentagon: cabut batasan penggunaan militer Claude untuk senjata otonom dan pengawasan massal hingga Jumat pukul 17.01, atau hadapi pembatalan kontrak $2 miliar dan dicap sebagai "risiko rantai pasokan". Bersamaan, Anthropic merilis Kebijakan Perluasan Bertanggung Jawab (RSP) 3.0 yang menghapus janji intinya untuk menghentikan pelatihan model jika langkah keamanan belum siap. Elon Musk menuduh Anthropic mencuri data pelatihan, merujuk pada penyelesaian $1,5 miliar untuk penggunaan buku bajakan. Anthropic juga menuduh tiga perusahaan AI China melakukan "serangan distilasi" terhadap Claude, namun dikritik karena hipokrisi—mereka sendiri menggunakan data internet untuk melatih model. Dengan valuasi $380 miliar, Anthropic terjepit antara tekanan militer, kompetisi, dan komitmen keamanan. Narasi "AI bertanggung jawab" mereka—yang dulu menjadi keunggulan—kini berisiko menjadi beban. Keputusan pada Jumat akan menentukan apakah Anthropic mempertahankan identitasnya atau menjadi sama seperti pesaingnya.

Penulis: Ada, Shenchao TechFlow

Judul asli: Tujuh Puluh Dua Jam Krisis Identitas Anthropic


24 Februari, Selasa. Washington, Pentagon.

CEO Anthropic Dario Amodei duduk berhadapan dengan Menteri Pertahanan Pete Hegseth. Menurut beberapa sumber yang dikutip oleh NPR dan CNN, suasana pertemuan "sopan", tetapi isinya sama sekali tidak ramah.

Hegseth memberinya ultimatum: Jumat pukul 5:01 sore, cabut pembatasan penggunaan militer Claude, izinkan Pentagon menggunakannya untuk "semua penggunaan yang sah", termasuk penargetan senjata otonom dan pengawasan massal domestik.

Kalau tidak, batalkan kontrak senilai 200 juta dolar. Aktifkan Undang-Undang Produksi Pertahanan (Defense Production Act), sita paksa. Daftarkan Anthropic sebagai "risiko rantai pasok", yang setara dengan memasukkannya ke dalam daftar hitam entitas bermusuhan seperti Rusia dan China.

Pada hari yang sama, Anthropic merilis versi ketiga "Kebijakan Perluasan yang Bertanggung Jawab" (RSP 3.0), diam-diam menghapus janji inti sejak pendirian perusahaan: jika langkah-langkah keamanan tidak dapat dipastikan, jangan latih model yang lebih kuat.

Juga pada hari yang sama, Elon Musk memposting di X: "Anthropic mencuri data pelatihan secara besar-besaran, ini fakta." Secara bersamaan, catatan komunitas X menambahkan laporan bahwa Anthropic membayar penyelesaian 1,5 miliar dolar karena menggunakan buku bajakan untuk melatih Claude.

Dalam tujuh puluh dua jam, perusahaan AI yang menyebut diri memiliki "jiwa" ini, secara bersamaan memainkan tiga peran: martir keamanan, pencuri kekayaan intelektual, pengkhianat Pentagon.

Mana yang asli?

Mungkin semuanya.

"Taat atau Pergi" dari Pentagon

Lapisan pertama ceritanya sederhana.

Anthropic adalah perusahaan AI pertama yang mendapatkan akses tingkat rahasia dari Departemen Pertahanan AS. Kontrak didapatkan musim panas lalu, dengan batas atas 200 juta dolar. OpenAI, Google, xAI kemudian juga mendapatkan kontrak dengan skala serupa.

Menurut laporan Al Jazeera, Claude pernah digunakan dalam sebuah operasi militer AS bulan Januari tahun ini. Laporan menyebut operasi tersebut melibatkan penculikan Presiden Venezuela Maduro.

Tapi Anthropic menarik dua batasan: tidak mendukung penargetan senjata otonom penuh, tidak mendukung pengawasan massal terhadap warga AS. Anthropic berpendapat, keandalan kecerdasan buatan belum cukup untuk mengoperasikan senjata, dan saat ini belum ada peraturan hukum yang mengatur penerapan AI dalam pengawasan massal.

Pentagon tidak menerima.

Penasihat AI Gedung Putih David Sacks bulan Oktober lalu di X secara terbuka menuduh Anthropic "menggunakan ketakutan sebagai senjata, melakukan perebutan regulasi".

Pesaing sudah menyerah. OpenAI, Google, xAI setuju untuk membiarkan militer menggunakan AI mereka untuk "semua skenario yang sah". Grok milik Musk minggu ini baru disetujui masuk sistem rahasia.

Anthropic adalah yang terakhir bertahan.

Hingga berita ini diturunkan, Anthropic dalam pernyataan terbarunya menyatakan, mereka tidak berniat menyerah. Namun batas waktu Jumat pukul 5:01, sudah sangat dekat.

Seorang mantan penghubung Departemen Kehakiman dan Pertahanan yang anonim kepada CNN menyatakan kebingungan: "Bagaimana mungkin Anda sekaligus mengumumkan sebuah perusahaan sebagai 'risiko rantai pasok', dan memaksa perusahaan ini bekerja untuk militer Anda?"

Pertanyaan bagus, tapi ini tidak dalam pertimbangan Pentagon. Yang mereka pedulikan adalah, jika Anthropic tidak kompromi, akan mengambil tindakan paksa, atau, menjadi buangan Washington.

"Serangan Distilasi": Sebuah Tuduhan yang Memalukan

23 Februari, Anthropic memposting blog dengan kata-kata keras, menuduh tiga perusahaan AI China melakukan "serangan distilasi tingkat industri" terhadap Claude.

Terlapor adalah DeepSeek, Moonshot AI, MiniMax.

Anthropic menuduh mereka melalui 24 ribu akun palsu, meluncurkan lebih dari 16 juta interaksi terhadap Claude, mengekstrak secara terarah kemampuan inti Claude dalam penalaran agen, pemanggilan alat, dan pemrograman.

Anthropic menetapkan hal ini sebagai ancaman keamanan nasional, menyatakan model yang didistilasi "kemungkinan besar tidak mempertahankan pagar pengaman", mungkin digunakan oleh pemerintah otoriter untuk serangan siber, informasi palsu, dan pengawasan massal.

Narasi sempurna, waktu juga sempurna.

Tepat setelah pemerintah Trump baru saja melonggarkan kontrol ekspor chip ke China, tepat ketika Anthropic perlu mencari amunisi untuk posisi lobi kontrol ekspor chip mereka sendiri.

Tapi Musk menembak: "Anthropic mencuri data pelatihan secara besar-besaran, dan membayar miliaran dolar uang penyelesaian. Ini fakta."

Pendiri bersama infrastruktur AI IO.Net Tory Green mengatakan: "Kalian menggunakan data seluruh jaringan untuk melatih model sendiri, lalu orang lain menggunakan API publik kalian untuk mempelajari kalian, disebut 'serangan distilasi'?"

Anthropic menyebut distilasi sebagai "serangan", tapi hal ini dalam industri AI adalah hal biasa. OpenAI menggunakannya untuk mengompresi GPT-4, Google menggunakannya untuk mengoptimalkan Gemini, bahkan Anthropic sendiri juga melakukannya. Satu-satunya perbedaan adalah, kali ini yang di-distilasi adalah dirinya sendiri.

Menurut profesor AI Universitas Teknologi Nanyang Singapura Erik Cambria kepada CNBC: "Batas antara penggunaan sah dan pemanfaatan jahat seringkali kabur."

Lebih ironisnya, Anthropic baru saja membayar 1,5 miliar dolar uang penyelesaian karena menggunakan buku bajakan untuk melatih Claude. Ia menggunakan data seluruh jaringan untuk melatih model, lalu menuduh orang lain menggunakan API publiknya untuk mempelajarinya. Ini bukan standar ganda, ini standar triple.

Anthropic ingin berperan sebagai korban, malah terbongkar menjadi terdakwa.

Pembongkaran Janji Keamanan: RSP 3.0

Bersamaan dengan berhadapan dengan Pentagon dan saling serang dengan Silicon Valley, Anthropic merilis versi ketiga Kebijakan Perluasan yang Bertanggung Jawab.

Kepala Ilmuwan Anthropic Jared Kaplan dalam wawancara dengan media mengatakan: "Kami merasa menghentikan pelatihan model AI tidak membantu siapa pun. Dalam konteks perkembangan AI yang cepat, membuat janji sepihak... sementara pesaing melaju dengan kecepatan penuh, ini tidak masuk akal."

Dengan kata lain, orang lain tidak sopan, kami juga tidak mau berpura-pura.

Inti RSP 1.0 dan 2.0 adalah sebuah janji keras, jika kemampuan model melampaui cakupan langkah-langkah keamanan, hentikan pelatihan. Janji ini memberikan Anthropic reputasi unik di kalangan keamanan AI.

Tapi 3.0 menghapusnya.

Digantikan dengan kerangka yang lebih "fleksibel", yaitu memisahkan langkah-langkah keamanan yang bisa dilakukan Anthropic sendiri dan saran keamanan yang membutuhkan kolaborasi seluruh industri menjadi dua jalur. Setiap 3-6 bulan kirim laporan risiko. Minta tinjauan ahli eksternal.

Kedengarannya bertanggung jawab?

Pemeriksa independen dari organisasi nirlaba METR Chris Painter setelah melihat draf awal kebijakan mengatakan: "Ini menunjukkan Anthropic merasa perlu masuk ke 'mode triase', karena metode penilaian dan mitigasi risiko tidak dapat mengikuti kecepatan pertumbuhan kemampuan. Ini lebih membuktikan bahwa masyarakat tidak siap menghadapi risiko bencana potensial AI."

Menurut laporan TIME, Anthropic menghabiskan hampir setahun waktu diskusi internal untuk penulisan ulang ini, CEO Amodei dan dewan direksi menyetujui sepenuhnya. Penjelasan resmi adalah, kebijakan aslinya dirancang untuk mendorong konsensus industri, hasilnya industri sama sekali tidak mengikuti. Pemerintahan Trump mengambil sikap membiarkan perkembangan AI, bahkan berusaha menghapus peraturan terkait di berbagai negara bagian. Hukum AI tingkat federal masih jauh. Meskipun pada tahun 2023 membangun kerangka tata kelola global masih mungkin, tetapi tiga tahun telah berlalu, pintu ini jelas telah tertutup.

Seorang peneliti tata kelola AI yang telah lama melacak dan anonim mengatakan lebih langsung: "RSP adalah aset merek paling berharga Anthropic. Menghapus janji jeda pelatihan, seperti sebuah perusahaan makanan organik diam-diam merobek kata 'organik' dari kemasan, lalu memberitahu Anda pemeriksaan mereka sekarang lebih transparan."

Pelecehan Identitas di Bawah Valuasi 380 Miliar

Awal Februari, Anthropic dengan valuasi 380 miliar dolar menyelesaikan pendanaan 300 miliar dolar, Amazon adalah investor jangkar. Sejak berdiri, telah mencapai pendapatan tahunan 14 miliar dolar. Tiga tahun terakhir, angka ini setiap tahun tumbuh lebih dari 10 kali lipat.

Secara bersamaan, Pentagon mengancam akan memasukkannya ke daftar hitam. Musk secara terbuka menuduhnya pencurian data. Janji keamanan intinya sendiri dihapus. Kepala keamanan AI Anthropic Mrinank Sharma mengundurkan diri dan menulis di X: "Dunia dalam bahaya."

Kontradiksi?

Mungkin kontradiksi adalah gen Anthropic.

Perusahaan ini didirikan oleh mantan eksekutif OpenAI, karena mereka khawatir OpenAI terlalu cepat dalam masalah keamanan. Lalu mereka sendiri membangun sebuah perusahaan, dengan kecepatan lebih cepat membangun model lebih kuat, sambil memberitahu seluruh dunia betapa berbahayanya model-model ini.

Model bisnis dapat diringkas dalam satu kalimat, kami lebih takut pada AI daripada siapa pun, jadi Anda harus mengeluarkan uang untuk membiarkan kami membuat AI.

Narasi ini berjalan sempurna di tahun 2023-2024. Keamanan AI adalah kata panas di Washington, Anthropic adalah pelobi paling populer.

2026, arah angin berubah.

"AI woke" menjadi label serangan, undang-undang pengawasan AI tingkat negara bagian dihadang Gedung Putih, SB 53 California yang didukung Anthropic meskipun ditandatangani menjadi undang-undang, tetapi tingkat federal sepi.

Kartu keamanan Anthropic, sedang dari "keunggulan diferensiasi" meluncur ke "aset negatif politik".

Anthropic sedang melakukan permainan keseimbangan kompleks, perlu cukup "aman" untuk mempertahankan merek, dan perlu cukup "fleksibel" untuk tidak ditinggalkan pasar dan pemerintah. Masalahnya, ruang toleransi di kedua ujung menyempit.

Narasi Keamanan, Masih Berharga Berapa?

Melihat tiga hal ini bersamaan, gambarnya menjadi jelas.

Menuduh perusahaan China mendistilasi Claude, adalah untuk memperkuat narasi lobi kontrol ekspor chip. Untuk tidak tertinggal dalam perlombaan senjata, menghapus janji jeda keamanan. Menolak permintaan senjata otonom Pentagon, adalah untuk mempertahankan lapisan terakhir jubah moral.

Setiap langkah ada logikanya, tetapi setiap langkah saling bertentangan.

Anda tidak bisa sekaligus mengatakan perusahaan China "mendistilasi" model Anda membahayakan keamanan nasional, sambil menghapus janji mencegah model Anda sendiri lepas kendali. Jika model benar-benar berbahaya, Anda harus lebih hati-hati, bukan lebih agresif.

Kecuali Anda adalah Anthropic.

Dalam industri AI, identitas tidak didefinisikan oleh pernyataan Anda, tapi oleh neraca keuangan Anda. Narasi "keamanan" Anthropic, pada dasarnya adalah premium merek.

Di awal perlombaan senjata AI, premium ini berharga. Investor bersedia membayar valuasi lebih tinggi untuk "AI yang bertanggung jawab", pemerintah bersedia memberi lampu hijau untuk "AI yang dapat dipercaya", pelanggan bersedia membayar untuk "AI yang lebih aman".

Tapi tahun 2026, premium ini sedang menguap.

Yang dihadapi Anthropic sekarang, bukan pilihan "apakah kompromi atau tidak", tapi urutan "kompromi kepada siapa dulu". Kompromi kepada Pentagon, merek rusak. Kompromi kepada pesaing, janji keamanan batal. Kompromi kepada investor, kedua ujung harus mengalah.

Jumat pukul 5:01 sore, Anthropic akan menyerahkan jawabannya.

Tapi apapun jawabannya, satu hal sudah pasti: Anthropic yang dulu berdiri dengan "kami berbeda dengan OpenAI", sedang menjadi sama dengan semua orang.

Titik akhir krisis identitas, seringkali adalah hilangnya identitas.


Twitter:https://twitter.com/BitpushNewsCN

Grup TG Bitpush:https://t.me/BitPushCommunity

Langganan TG Bitpush: https://t.me/bitpush

Tautan asli:https://www.bitpush.news/articles/7615114

Pertanyaan Terkait

QApa ultimatum yang diberikan Pentagon kepada Anthropic dan apa konsekuensinya jika mereka tidak mematuhinya?

APentagon memberikan ultimatum kepada Anthropic untuk mencabut batasan penggunaan militer pada Claude-nya, mengizinkan Pentagon menggunakannya untuk 'semua penggunaan yang sah' termasuk penargetan senjata otonom dan pengawasan massal domestik sebelum Jumat pukul 17:01. Jika tidak mematuhi, kontrak senilai $200 juta akan dibatalkan, Pentagon akan mengaktifkan Defense Production Act untuk menyita paksa, dan mencantumkan Anthropic sebagai 'risiko rantai pasokan' yang setara dengan daftar hitam entitas musuh seperti Rusia dan China.

QApa yang dihapus Anthropic dalam Kebijakan Perluasan yang Bertanggung Jawab (RSP) versi 3.0 dan mengapa perubahan ini signifikan?

ADalam RSP 3.0, Anthropic menghapus komitmen intinya yang menyatakan bahwa mereka tidak akan melatih model yang lebih kuat jika langkah-langkah keamanan tidak dapat dipastikan. Perubahan ini signifikan karena menghilangkan janji utama yang menjadi fondasi reputasi perusahaan di komunitas keselamatan AI, menandai pergeseran dari pendekatan kehati-hatian ke arah yang lebih agresif dalam pengembangan AI, mengikuti tekanan persaingan dan kurangnya konsensus industri.

QApa tuduhan Elon Musk terhadap Anthropic dan bagaimana hal ini berkaitan dengan klaim 'serangan distilasi' Anthropic terhadap perusahaan China?

AElon Musk menuduh Anthropic melakukan 'pencurian data pelatihan skala besar' dan membayar penyelesaian $1,5 miliar karena menggunakan buku bajakan untuk melatih Claude. Tuduhan ini berkaitan karena Anthropic mengklaim tiga perusahaan China (DeepSeek, Moonshot AI, MiniMax) melakukan 'serangan distilasi industri' terhadap Claude, sementara Anthropic sendiri dituding melakukan pelatihan data tanpa izin, menciptakan standar ganda dimana Anthropic menuduh orang lain melakukan hal yang mirip dengan yang mereka lakukan.

QBagaimana nilai dan pendapatan Anthropic berkembang, dan tekanan apa yang mereka hadapi meskipun memiliki kesuksesan finansial?

AAnthropic mencapai valuasi $380 miliar dengan pendapatan tahunan $140 miliar yang tumbuh lebih dari 10 kali lipat setiap tahun selama tiga tahun terakhir. Namun, mereka menghadapi tekanan termasuk ultimatum Pentagon, tuduhan pencurian data dari Elon Musk, penghapusan komitmen keamanan inti, dan pengunduran diri pemimpin keselamatan AI mereka yang memperingatkan 'dalam bahaya'. Kesuksesan finansial disertai dengan krisis identitas dan tekanan eksternal yang besar.

QApa yang dimaksud dengan 'krisis identitas' Anthropic menurut artikel, dan bagaimana narasi keamanan mereka berubah dari aset menjadi beban?

AKrisis identitas Anthropic merujuk pada kontradiksi antara citra publik mereka sebagai perusahaan AI 'aman dan bertanggung jawab' dengan tindakan mereka yang semakin kompromi terhadap tekanan militer, persaingan, dan komersial. Narasi keamanan mereka, yang awalnya menjadi keunggulan diferensiasi dan premium merek, berubah menjadi 'beban politik' karena lingkungan politik berubah (AI 'woke' diserang, regulasi federal mandek), membuat pendekatan kehati-hatian mereka kurang dihargai dan lebih sulit dipertahankan secara ekonomi.

Bacaan Terkait

Jatuh 10% Lalu Melonjak, Pengamatan Pasar Minyak Akhir Pekan

Setelah penutupan sementara, pembukaan kembali Selat Hormuz pada Jumat memicu optimisme pasar: saham AS naik, harga minyak mentah turun, dan imbal hasil obligasi pemerintah AS menurun. Namun, reaksi ini ternyata prematur. Pada Sabtu, dua kapal tanker ditolak melintas di Selat Hormuz. Trump memberi tekanan: jika tidak ada kesepakatan sebelum Rabu, AS akan memblokir pelabuhan Iran. Iran merespons dengan membatasi kembali selat dan menembak kapal yang mencoba melintas, menyebabkan dua kapal India berbalik arah dan menghentikan hampir semua lalu lintas. Trader bereaksi cepat di TradeXYZ, dengan kontrak minyak naik sekitar 4,52% dari harga penutupan akhir pekan, sementara kontrak indeks S&P turun hampir 0,8%. Trump kemudian mengubah pendekatan, mengumumkan utusan Steve Witkoff akan melakukan pembicaraan dengan Iran di Pakistan pada Selasa, memperpanjang batas waktu negosiasi hingga Rabu. Namun, dia juga mengancam akan menghancurkan setiap pembangkit listrik dan jembatan di Iran jika mereka tidak menerima kesepakatan. Iran menolak tekanan ini. Pada dini hari Senin, mereka menolak untuk berpartisipasi dalam putaran kedua pembicaraan, dengan laporan bahwa Tehran percaya AS mungkin melancarkan serangan sebelum gencatan senjata berakhir pada Selasa malam. Akibatnya, minyak melonjak lagi, menghapus titik tertinggi pada 18 April, sementara S&P jatuh di bawah titik terendahnya pada tanggal yang sama. Saham crypto tampil lebih buruk dibandingkan saham lainnya. Optimisme pasar yang menyebar minggu lalu akan dihukum, dan pergerakan pasar minggu ini sangat bergantung pada apakah Iran mempertahankan sikap tidak mau bernegosiasi.

marsbit53m yang lalu

Jatuh 10% Lalu Melonjak, Pengamatan Pasar Minyak Akhir Pekan

marsbit53m yang lalu

Trading

Spot
Futures

Artikel Populer

Cara Membeli ADA

Selamat datang di HTX.com! Kami telah membuat pembelian Cardano (ADA) menjadi mudah dan nyaman. Ikuti panduan langkah demi langkah kami untuk memulai perjalanan kripto Anda.Langkah 1: Buat Akun HTX AndaGunakan alamat email atau nomor ponsel Anda untuk mendaftar akun gratis di HTX. Rasakan perjalanan pendaftaran yang mudah dan buka semua fitur.Dapatkan Akun SayaLangkah 2: Buka Beli Kripto, lalu Pilih Metode Pembayaran AndaKartu Kredit/Debit: Gunakan Visa atau Mastercard Anda untuk membeli Cardano (ADA) secara instan.Saldo: Gunakan dana dari saldo akun HTX Anda untuk melakukan trading dengan lancar.Pihak Ketiga: Kami telah menambahkan metode pembayaran populer seperti Google Pay dan Apple Pay untuk meningkatkan kenyamanan.P2P: Lakukan trading langsung dengan pengguna lain di HTX.Over-the-Counter (OTC): Kami menawarkan layanan yang dibuat khusus dan kurs yang kompetitif bagi para trader.Langkah 3: Simpan Cardano (ADA) AndaSetelah melakukan pembelian, simpan Cardano (ADA) di akun HTX Anda. Selain itu, Anda dapat mengirimkannya ke tempat lain melalui transfer blockchain atau menggunakannya untuk memperdagangkan mata uang kripto lainnya.Langkah 4: Lakukan trading Cardano (ADA)Lakukan trading Cardano (ADA) dengan mudah di pasar spot HTX. Cukup akses akun Anda, pilih pasangan perdagangan, jalankan trading, lalu pantau secara real-time. Kami menawarkan pengalaman yang ramah pengguna baik untuk pemula maupun trader berpengalaman.

1.1k Total TayanganDipublikasikan pada 2024.12.10Diperbarui pada 2025.03.21

Cara Membeli ADA

Diskusi

Selamat datang di Komunitas HTX. Di sini, Anda bisa terus mendapatkan informasi terbaru tentang perkembangan platform terkini dan mendapatkan akses ke wawasan pasar profesional. Pendapat pengguna mengenai harga ADA (ADA) disajikan di bawah ini.

活动图片