Penulis:Geek Lao You
7 Maret 2026, ketika saya melihat berita pengunduran diri Caitlin Kalinowski, reaksi pertama saya bukan terkejut, melainkan—"akhirnya seseorang berbicara dengan tindakan".
Kalinowski adalah Kepala Teknik Perangkat Keras dan Robotika di OpenAI, yang baru bergabung pada November 2024, dan memilih untuk pergi dalam waktu kurang dari satu setengah tahun.
Alasannya langsung dan berat—dia merasa tidak dapat menerima kemungkinan pengawasan domestik dan aplikasi senjata otonom yang mungkin timbul setelah OpenAI menandatangani kontrak dengan Departemen Pertahanan AS.
Ini bukan sekadar kehilangan talenta biasa. Ini adalah seseorang yang secara langsung terlibat dalam membangun tubuh AI, memberitahu dunia dengan mengundurkan diri: dia tidak ingin bertanggung jawab atas hal-hal yang mungkin dilakukan oleh apa yang dia buat.
Untuk memahami kepergian Kalinowski, kita harus kembali ke peristiwa yang terjadi sekitar seminggu sebelumnya.
Pada 28 Februari, Sam Altman mengumumkan bahwa OpenAI telah mencapai kesepakatan dengan Departemen Pertahanan AS, yang memungkinkan Pentagon menggunakan model AI OpenAI di jaringan rahasianya. Begitu berita itu tersebar, opini publik gempar.
Yang menarik, "acuan" untuk kontrak ini adalah pesaing Anthropic.
Tidak lama sebelumnya, Anthropic menolak kerja sama serupa yang diajukan oleh Pentagon, bersikeras untuk memasukkan pagar etika yang lebih ketat dalam kontrak. Akibatnya, Menteri Pertahanan Pete Hegseth langsung mengecamnya di X, menyebut tindakan Anthropic sebagai "kelas master arogansi dan pengkhianatan", dan menyerukan pemerintahan Trump untuk menghentikan kerja sama dengan Anthropic.
OpenAI kemudian mengambil alih bisnis ini.
Reaksi pengguna cukup keras. Pada tanggal 28 Februari, jumlah uninstall ChatGPT melonjak 295% dibandingkan hari sebelumnya, gerakan #QuitGPT dengan cepat menyebar di media sosial, dengan jumlah pendukung boikot digital melebihi 2,5 juta dalam tiga hari. Claude memanfaatkan momentum ini untuk melampaui ChatGPT sebagai aplikasi dengan unduhan harian tertinggi di AS, menduduki puncak aplikasi gratis Apple App Store.
Tertekan, Altman pada 3 Maret secara terbuka mengakui bahwa dia "seharusnya tidak terburu-buru meluncurkan kontrak ini", mengatakan bahwa "ini hanya terlihat oportunistik dan ceroboh", dan mengumumkan revisi redaksi kontrak, dengan jelas menyatakan "sistem AI tidak boleh secara sengaja digunakan untuk pengawasan domestik terhadap personel dan warga negara AS".
Tetapi kata "sengaja" itu sendiri adalah celah. Pengacara Electronic Frontier Foundation dengan tepat menunjuk, badan intelijen dan penegak hukum sering mengandalkan data "kebetulan" atau "pembelian komersial" untuk menghindari perlindungan privasi yang lebih kuat—menambahkan "sengaja" tidak sama dengan pembatasan yang sebenarnya.
Pengunduran diri Kalinowski terjadi tepat dalam latar belakang ini.
01 Apa yang Dia Lihat, Lebih Spesifik dari yang Kita Bayangkan
Sementara kebanyakan orang masih mendiskusikan "apakah OpenAI sedang berkompromi dengan pemerintah", Kalinowski sebenarnya menghadapi masalah yang lebih spesifik dan lebih kejam—timnya sedang membuat robot.
Teknik perangkat keras dan robotika bukanlah pekerjaan abstrak menulis kode atau menyesuaikan parameter. Ini adalah memberi AI tangan, kaki, dan mata. Ketika kerja sama OpenAI dengan Departemen Pertahanan berkembang dari "penggunaan model" ke kemungkinan masa depan "aplikasi militer AI berwujud", sifat pekerjaan Kalinowski berubah.
Para peneliti di bidang senjata otonom telah lama memperingatkan kedatangan hari ini.
Kebijakan Departemen Pertahanan AS yang ada tidak mensyaratkan persetujuan manusia sebelum senjata otonom menggunakan kekuatan. Dengan kata lain, kontrak yang ditandatangani OpenAI secara teknis tidak mencegah modelnya menjadi bagian dari sistem yang "membuat GPT memutuskan untuk membunuh seseorang".
Ini bukan mengada-ada. Jessica Tillipman, Instruktur Hukum Pengadaan Pemerintah di Universitas Georgetown, dalam menganalisis kontrak OpenAI yang telah direvisi, dengan jelas menyatakan bahwa redaksi kontrak "tidak memberi OpenAI kebebasan seperti Anthropic untuk melarang penggunaan pemerintah yang sah", itu hanya menyatakan bahwa Pentagon tidak dapat menggunakan teknologi OpenAI yang melanggar "hukum dan kebijakan yang ada"—tetapi hukum yang ada sendiri memiliki celah besar dalam pengawasan senjata otonom.
Para ahli tata kelola di Universitas Oxford juga memiliki penilaian serupa, menganggap bahwa perjanjian OpenAI "kemungkinan besar tidak akan menutupi" celah struktural yang ditinggalkan oleh pengawasan domestik dan sistem senjata otonom yang digerakkan oleh AI pada tingkat tata kelola.
Kepergian Kalinowski adalah tanggapannya terhadap penilaian ini.
02 Apa yang Sedang Terjadi di Dalam OpenAI
Kalinowski bukan orang pertama yang pergi, dan kemungkinan besar bukan yang terakhir.
Data menunjukkan bahwa tingkat pergantian tim Etika dan Keamanan AI OpenAI telah mencapai 37%, dan alasan yang diberikan kebanyakan orang untuk mengundurkan diri adalah "tidak sesuai dengan nilai perusahaan" atau "tidak dapat menerima AI digunakan untuk tujuan militer". Ilmuwan Penelitian Aidan McLaughlin menulis secara internal, "Saya pribadi merasa kesepakatan ini tidak sepadan".
Perlu dicatat, waktu terjadinya gelombang pengunduran diri ini—tepat pada tahap OpenAI sedang memperluas peta bisnis dengan cepat. Tepat sebelum dan sesudah kontroversi kontrak pertahanan, perusahaan mengumumkan perpanjangan perjanjian existing senilai $38 miliar dengan AWS sebesar $100 miliar, dengan jangka waktu delapan tahun; sekaligus menyesuaikan kembali target pengeluaran yang diungkapkan ke luar, memperkirakan total pendapatan akan melebihi $280 miliar pada tahun 2030.
Percepatan bisnis, tim keamanan terus pergi. Selisih gunting ini adalah sumbu koordinat terpenting untuk memahami situasi OpenAI saat ini.
Nilai-nilai sebuah perusahaan, pada akhirnya tercermin dari siapa yang dipertahankannya, dan siapa yang tidak dapat dipertahankan. Ketika orang-orang yang paling peduli dengan "bagaimana teknologi ini akan digunakan" mulai pergi satu per satu, tidak sulit untuk menyimpulkan ke arah mana struktur organisasi yang tersisa akan bergerak.
Anthropic dalam permainan ini memilih jalan lain—menolak kontrak, menanggung kemarahan Departemen Pertahanan, tetapi memenangkan kepercayaan banyak pengguna. Pada waktu itu unduhan Claude meningkat secara逆势, dalam某种程度上 membuktikan bahwa "penolakan yang berprinsip" dalam bisnis tidak selalu merupakan strategi yang kalah.
Tetapi Anthropic juga membayar harganya—mereka dikeluarkan dari pemerintah, setidaknya untuk sementara waktu.
Ini adalah dilema sebenarnya: tidak ada pilihan yang sempurna.
Menolak, berarti mungkin kehilangan pengaruh, bahkan dikeluarkan dari pembuatan aturan. Menerima, berarti menggunakan teknologi sendiri, untuk menjamin perilaku yang tidak dapat sepenuhnya dikendalikan.
Jawaban Kalinowski adalah jalan ketiga—pergi.
Ini adalah hal paling jujur yang dapat dia lakukan.
03 Pertarungan Jiwa Silicon Valley, Baru Saja Dimulai
Jika perspektifnya diperlebar, arti peristiwa ini jauh melampaui pengunduran diri satu orang.
Kombinasi AI dan militer adalah pilihan yang harus dihadapi oleh seluruh industri cepat atau lambat. Pentagon memiliki anggaran, kebutuhan, dan kemampuan integrasi teknologi, mereka tidak akan berhenti mengulurkan tangan kepada perusahaan AI. Dan perusahaan AI—baik yang mengejar AGI seperti OpenAI, menekankan keamanan seperti Anthropic, atau pemain lain—cepat atau lambat harus memberikan jawaban mereka di depan pilihan ini.
Strategi Altman adalah mencoba menerima realitas bisnis sambil menarik garis batas melalui redaksi kontrak. Tetapi seperti yang ditunjukkan oleh banyak ahli hukum dan tata kelola, redaksi itu lebih seperti perlindungan tingkat PR, daripada batasan keras tingkat teknis.
Masalah yang lebih mendasar adalah, ketika model AI dikerahkan ke jaringan rahasia, ketika mulai berpartisipasi dalam pengambilan keputusan militer, dunia luar sama sekali tidak memiliki kemampuan untuk memverifikasi, apakah "jaminan" itu benar-benar dilaksanakan.
Kurangnya transparansi,本身就是risiko terbesar.
Kalinowski tinggal di OpenAI kurang dari satu setengah tahun, tetapi memilih untuk pergi pada titik ini. Dia tidak menerbitkan pernyataan panjang secara publik, tidak mengkritik siapa pun secara langsung, hanya menarik batasnya sendiri dengan tindakan.
Dalam arti tertentu, ini lebih kuat daripada artikel kebijakan apa pun.
Teknik perangkat keras dan robotika AI, awalnya adalah salah satu bidang terdepan paling menarik di Silicon Valley. Ketika Kalinowski pergi, yang dia bawa bukan hanya resume, tetapi juga sebuah pertanyaan, yang ditinggalkan untuk semua orang yang masih tinggal di industri ini—
Sejauh mana Anda bersedia bertanggung jawab atas apa yang Anda buat?





