Orang yang Membuat Robot untuk OpenAI, Melihat Masa Depan yang Mengerikan

marsbitDipublikasikan tanggal 2026-03-09Terakhir diperbarui pada 2026-03-09

Abstrak

Kalinowski, Kepala Teknik Perangkat Keras & Robotika OpenAI, mengundurkan diri pada Maret 2026 karena menentang kontrak OpenAI dengan Departemen Pertahanan AS. Ia khawatir teknologi AI-nya dapat digunakan untuk pengawasan domestik dan senjata otonom. Pengunduran dirinya terjadi seminggu setelah OpenAI mengambil alih kerja sama yang ditolak Anthropic karena alasan etis. Reaksi publik keras: uninstall ChatGPT melonjak 295%, gerakan #QuitGPT viral, dan Claude jadi aplikasi teratas di App Store. Altman mengakui kesalahan dan merevisi kontrak, tetapi pakar hukum menilai perubahan ini tidak cukup membatasi penyalahgunaan. Kalinowski, yang membangun tubuh fisik untuk AI, menyadari pekerjaannya dapat digunakan untuk sistem militer yang mematikan tanpa kendali manusia. Tingkat resign di tim etika & keselamatan OpenAI mencapai 37%, mencerminkan ketidaksepakatan internal atas arah perusahaan yang semakin komersial. Peristiwa ini menyoroti dilema industri AI: antara menerima pendanaan pemerintah dengan risiko penyalahgunaan, atau menolak dan kehilangan pengaruh. Pengunduran diri Kalinowski menjadi pertanyaan moral bagi seluruh industri tentang tanggung jawab atas teknologi yang mereka ciptakan.

Penulis:Geek Lao You

7 Maret 2026, ketika saya melihat berita pengunduran diri Caitlin Kalinowski, reaksi pertama saya bukan terkejut, melainkan—"akhirnya seseorang berbicara dengan tindakan".

Kalinowski adalah Kepala Teknik Perangkat Keras dan Robotika di OpenAI, yang baru bergabung pada November 2024, dan memilih untuk pergi dalam waktu kurang dari satu setengah tahun.

Alasannya langsung dan berat—dia merasa tidak dapat menerima kemungkinan pengawasan domestik dan aplikasi senjata otonom yang mungkin timbul setelah OpenAI menandatangani kontrak dengan Departemen Pertahanan AS.

Ini bukan sekadar kehilangan talenta biasa. Ini adalah seseorang yang secara langsung terlibat dalam membangun tubuh AI, memberitahu dunia dengan mengundurkan diri: dia tidak ingin bertanggung jawab atas hal-hal yang mungkin dilakukan oleh apa yang dia buat.

Untuk memahami kepergian Kalinowski, kita harus kembali ke peristiwa yang terjadi sekitar seminggu sebelumnya.

Pada 28 Februari, Sam Altman mengumumkan bahwa OpenAI telah mencapai kesepakatan dengan Departemen Pertahanan AS, yang memungkinkan Pentagon menggunakan model AI OpenAI di jaringan rahasianya. Begitu berita itu tersebar, opini publik gempar.

Yang menarik, "acuan" untuk kontrak ini adalah pesaing Anthropic.

Tidak lama sebelumnya, Anthropic menolak kerja sama serupa yang diajukan oleh Pentagon, bersikeras untuk memasukkan pagar etika yang lebih ketat dalam kontrak. Akibatnya, Menteri Pertahanan Pete Hegseth langsung mengecamnya di X, menyebut tindakan Anthropic sebagai "kelas master arogansi dan pengkhianatan", dan menyerukan pemerintahan Trump untuk menghentikan kerja sama dengan Anthropic.

OpenAI kemudian mengambil alih bisnis ini.

Reaksi pengguna cukup keras. Pada tanggal 28 Februari, jumlah uninstall ChatGPT melonjak 295% dibandingkan hari sebelumnya, gerakan #QuitGPT dengan cepat menyebar di media sosial, dengan jumlah pendukung boikot digital melebihi 2,5 juta dalam tiga hari. Claude memanfaatkan momentum ini untuk melampaui ChatGPT sebagai aplikasi dengan unduhan harian tertinggi di AS, menduduki puncak aplikasi gratis Apple App Store.

Tertekan, Altman pada 3 Maret secara terbuka mengakui bahwa dia "seharusnya tidak terburu-buru meluncurkan kontrak ini", mengatakan bahwa "ini hanya terlihat oportunistik dan ceroboh", dan mengumumkan revisi redaksi kontrak, dengan jelas menyatakan "sistem AI tidak boleh secara sengaja digunakan untuk pengawasan domestik terhadap personel dan warga negara AS".

Tetapi kata "sengaja" itu sendiri adalah celah. Pengacara Electronic Frontier Foundation dengan tepat menunjuk, badan intelijen dan penegak hukum sering mengandalkan data "kebetulan" atau "pembelian komersial" untuk menghindari perlindungan privasi yang lebih kuat—menambahkan "sengaja" tidak sama dengan pembatasan yang sebenarnya.

Pengunduran diri Kalinowski terjadi tepat dalam latar belakang ini.

01 Apa yang Dia Lihat, Lebih Spesifik dari yang Kita Bayangkan

Sementara kebanyakan orang masih mendiskusikan "apakah OpenAI sedang berkompromi dengan pemerintah", Kalinowski sebenarnya menghadapi masalah yang lebih spesifik dan lebih kejam—timnya sedang membuat robot.

Teknik perangkat keras dan robotika bukanlah pekerjaan abstrak menulis kode atau menyesuaikan parameter. Ini adalah memberi AI tangan, kaki, dan mata. Ketika kerja sama OpenAI dengan Departemen Pertahanan berkembang dari "penggunaan model" ke kemungkinan masa depan "aplikasi militer AI berwujud", sifat pekerjaan Kalinowski berubah.

Para peneliti di bidang senjata otonom telah lama memperingatkan kedatangan hari ini.

Kebijakan Departemen Pertahanan AS yang ada tidak mensyaratkan persetujuan manusia sebelum senjata otonom menggunakan kekuatan. Dengan kata lain, kontrak yang ditandatangani OpenAI secara teknis tidak mencegah modelnya menjadi bagian dari sistem yang "membuat GPT memutuskan untuk membunuh seseorang".

Ini bukan mengada-ada. Jessica Tillipman, Instruktur Hukum Pengadaan Pemerintah di Universitas Georgetown, dalam menganalisis kontrak OpenAI yang telah direvisi, dengan jelas menyatakan bahwa redaksi kontrak "tidak memberi OpenAI kebebasan seperti Anthropic untuk melarang penggunaan pemerintah yang sah", itu hanya menyatakan bahwa Pentagon tidak dapat menggunakan teknologi OpenAI yang melanggar "hukum dan kebijakan yang ada"—tetapi hukum yang ada sendiri memiliki celah besar dalam pengawasan senjata otonom.

Para ahli tata kelola di Universitas Oxford juga memiliki penilaian serupa, menganggap bahwa perjanjian OpenAI "kemungkinan besar tidak akan menutupi" celah struktural yang ditinggalkan oleh pengawasan domestik dan sistem senjata otonom yang digerakkan oleh AI pada tingkat tata kelola.

Kepergian Kalinowski adalah tanggapannya terhadap penilaian ini.

02 Apa yang Sedang Terjadi di Dalam OpenAI

Kalinowski bukan orang pertama yang pergi, dan kemungkinan besar bukan yang terakhir.

Data menunjukkan bahwa tingkat pergantian tim Etika dan Keamanan AI OpenAI telah mencapai 37%, dan alasan yang diberikan kebanyakan orang untuk mengundurkan diri adalah "tidak sesuai dengan nilai perusahaan" atau "tidak dapat menerima AI digunakan untuk tujuan militer". Ilmuwan Penelitian Aidan McLaughlin menulis secara internal, "Saya pribadi merasa kesepakatan ini tidak sepadan".

Perlu dicatat, waktu terjadinya gelombang pengunduran diri ini—tepat pada tahap OpenAI sedang memperluas peta bisnis dengan cepat. Tepat sebelum dan sesudah kontroversi kontrak pertahanan, perusahaan mengumumkan perpanjangan perjanjian existing senilai $38 miliar dengan AWS sebesar $100 miliar, dengan jangka waktu delapan tahun; sekaligus menyesuaikan kembali target pengeluaran yang diungkapkan ke luar, memperkirakan total pendapatan akan melebihi $280 miliar pada tahun 2030.

Percepatan bisnis, tim keamanan terus pergi. Selisih gunting ini adalah sumbu koordinat terpenting untuk memahami situasi OpenAI saat ini.

Nilai-nilai sebuah perusahaan, pada akhirnya tercermin dari siapa yang dipertahankannya, dan siapa yang tidak dapat dipertahankan. Ketika orang-orang yang paling peduli dengan "bagaimana teknologi ini akan digunakan" mulai pergi satu per satu, tidak sulit untuk menyimpulkan ke arah mana struktur organisasi yang tersisa akan bergerak.

Anthropic dalam permainan ini memilih jalan lain—menolak kontrak, menanggung kemarahan Departemen Pertahanan, tetapi memenangkan kepercayaan banyak pengguna. Pada waktu itu unduhan Claude meningkat secara逆势, dalam某种程度上 membuktikan bahwa "penolakan yang berprinsip" dalam bisnis tidak selalu merupakan strategi yang kalah.

Tetapi Anthropic juga membayar harganya—mereka dikeluarkan dari pemerintah, setidaknya untuk sementara waktu.

Ini adalah dilema sebenarnya: tidak ada pilihan yang sempurna.

Menolak, berarti mungkin kehilangan pengaruh, bahkan dikeluarkan dari pembuatan aturan. Menerima, berarti menggunakan teknologi sendiri, untuk menjamin perilaku yang tidak dapat sepenuhnya dikendalikan.

Jawaban Kalinowski adalah jalan ketiga—pergi.

Ini adalah hal paling jujur yang dapat dia lakukan.

03 Pertarungan Jiwa Silicon Valley, Baru Saja Dimulai

Jika perspektifnya diperlebar, arti peristiwa ini jauh melampaui pengunduran diri satu orang.

Kombinasi AI dan militer adalah pilihan yang harus dihadapi oleh seluruh industri cepat atau lambat. Pentagon memiliki anggaran, kebutuhan, dan kemampuan integrasi teknologi, mereka tidak akan berhenti mengulurkan tangan kepada perusahaan AI. Dan perusahaan AI—baik yang mengejar AGI seperti OpenAI, menekankan keamanan seperti Anthropic, atau pemain lain—cepat atau lambat harus memberikan jawaban mereka di depan pilihan ini.

Strategi Altman adalah mencoba menerima realitas bisnis sambil menarik garis batas melalui redaksi kontrak. Tetapi seperti yang ditunjukkan oleh banyak ahli hukum dan tata kelola, redaksi itu lebih seperti perlindungan tingkat PR, daripada batasan keras tingkat teknis.

Masalah yang lebih mendasar adalah, ketika model AI dikerahkan ke jaringan rahasia, ketika mulai berpartisipasi dalam pengambilan keputusan militer, dunia luar sama sekali tidak memiliki kemampuan untuk memverifikasi, apakah "jaminan" itu benar-benar dilaksanakan.

Kurangnya transparansi,本身就是risiko terbesar.

Kalinowski tinggal di OpenAI kurang dari satu setengah tahun, tetapi memilih untuk pergi pada titik ini. Dia tidak menerbitkan pernyataan panjang secara publik, tidak mengkritik siapa pun secara langsung, hanya menarik batasnya sendiri dengan tindakan.

Dalam arti tertentu, ini lebih kuat daripada artikel kebijakan apa pun.

Teknik perangkat keras dan robotika AI, awalnya adalah salah satu bidang terdepan paling menarik di Silicon Valley. Ketika Kalinowski pergi, yang dia bawa bukan hanya resume, tetapi juga sebuah pertanyaan, yang ditinggalkan untuk semua orang yang masih tinggal di industri ini—

Sejauh mana Anda bersedia bertanggung jawab atas apa yang Anda buat?

Pertanyaan Terkait

QMengapa Caitlin Kalinowski mengundurkan diri dari OpenAI?

ACaitlin Kalinowski mengundurkan diri karena tidak dapat menerima kemungkinan penggunaan teknologi OpenAI untuk pengawasan domestik dan aplikasi senjata otonom setelah perusahaan menandatangani kontrak dengan Departemen Pertahanan AS.

QApa reaksi publik terhadap kontrak OpenAI dengan Departemen Pertahanan AS?

AReaksi publik sangat negatif. Uninstall ChatGPT meningkat 295%, gerakan #QuitGPT menyebar di media sosial dengan lebih dari 2,5 juta pendukung, dan Claude dari Anthropic menjadi aplikasi unduhan teratas di Apple App Store.

QApa yang dikatakan Sam Altman tentang kontroversi kontrak tersebut?

ASam Altman mengakui bahwa keputusannya "tidak seharusnya terburu-buru" dan "terlihat oportunistik dan ceroboh". Ia kemudian merevisi kontrak untuk menyatakan bahwa sistem AI tidak boleh "sengaja digunakan untuk pengawasan domestik terhadap personel dan warga AS".

QMengapa kontrak yang direvisi masih dianggap bermasalah oleh para ahli?

APara ahli hukum dan tata kelola menyatakan bahwa penambahan kata "sengaja" tidak memberikan batasan yang nyata, karena badan intelijen sering menggunakan data "tidak sengaja" atau "dibeli secara komersial" untuk menghindari perlindungan privasi yang lebih ketat.

QApa dampak dari gelombang pengunduran diri di tim etika dan keamanan AI OpenAI?

ATingkat pengunduran diri yang mencapai 37% di tim etika dan keamanan AI menunjukkan pergeseran nilai perusahaan. Kepergian para ahli yang peduli dengan penggunaan teknologi secara bertanggung jawab dapat mengarahkan struktur organisasi ke arah yang lebih mengutamakan kepentingan komersial.

Bacaan Terkait

Pendapat KOL: Mengapa SOL di Level Ini Akan Mengalami Kenaikan?

Alasan SOL diperkirakan akan naik pada level saat ini menurut KOL gum: SOL baru saja memulai terobosan dari konsolidasi yang berlangsung selama 4 bulan. Alasan terobosan terjadi sekarang, bukan sebulan lalu, adalah karena SOL merupakan token yang mewakili kesehatan crypto secara keseluruhan, yang menunjukkan apakah ada selera risiko di pasar. Pergerakan saat ini mencerminkan kembalinya risiko. Pemegang kuat (strong holders) kembali mengendalikan token, sementara pedagang dan dana spekulatif telah meninggalkannya, menyebabkan volume perdagangan anjlok. Setiap kenaikan volume yang wajar dapat mengubah momentum menjadi naik. Dukungan institusi yang kuat serta integrasi dengan DeFi dan Aset Riil (RWA) menjadi faktor pendukung. Undang-Undang Clarity (Clarity Act) diprediksi paling menguntungkan Solana dan SOL. SOL memiliki volatilitas tinggi dalam 4 tahun terakhir, turun 70% dari ATH tetapi masih naik 12x dari dasar bear market. Ini adalah salah satu dari sedikit token yang mencetak ATH baru pada siklus sebelumnya dan memiliki ekosistem aplikasi, pengguna, protokol, dan use case yang kuat. Volatilitas menciptakan banyak pemegang token tanpa keyakinan kuat, yang hanya mengejar momentum. Pergerakan harga beberapa bulan terakhir diyakini mencerminkan peralihan kepemilikan dari pemegang jangka pendek ke akumulator jangka panjang. Konferensi Accelerate di Miami menyoroti fokus pada AI di Solana, sehingga diperkirakan akan ada gelombang besar pengembang AI yang masuk tahun depan. Memecoin akan terus berkembang di Solana, yang merupakan rantai paling cocok untuk hal tersebut. Aktivitas on-chain yang tinggi akan mendorong biaya transaksi, memperkuat posisinya sebagai platform utama untuk ekosistem memecoin dan produk pendukungnya seperti bot perdagangan.

marsbit28m yang lalu

Pendapat KOL: Mengapa SOL di Level Ini Akan Mengalami Kenaikan?

marsbit28m yang lalu

Pertarungan "Perang" Bursa Korea dengan Badan Pengawas, Menantang Batasan Penegakan dan Legislasi

Industri kripto Korea Selatan sedang mengalami konflik terbuka dengan regulator. Otoritas Intelijen Keuangan (FIU) telah memberlakukan hukuman berat, seperti penangguhan operasi parsial dan denda besar, kepada bursa besar seperti Upbit (Dunamu) dan Bithumb karena dugaan pelanggaran anti-pencucian uang (AML), termasuk transaksi dengan VASP luar negeri yang tidak terdaftar. Namun, bursa-bursa kini melawan melalui jalur hukum. Pengadilan telah memenangkan Dunamu dalam beberapa tuntutan dan menangguhkan eksekusi hukuman terhadap Bithumb, dengan alasan FIU tidak cukup jelas dalam menjelaskan standar pelanggaran dan dasar hukum hukuman beratnya. Di front lain, asosiasi industri DAXA menentang rencana amandemen undang-undang yang akan mewajibkan pelaporan transaksi mencurigakan (STR) untuk semua transfer aset kripto di atas 10 juta won (sekitar Rp 120 juta). DAXA berargumen aturan "satu ukuran untuk semua" ini akan membanjiri sistem dengan laporan yang tidak relevan, justru melemahkan efektivitas pengawasan AML, dan melampaui kewenangan hukum yang ada. Konflik ini menyoroti ketegangan dalam regulasi kripto Korea: kerangka hukum menyeluruh belum matang, sementara penegakan aturan AML yang ada semakin ketat. Perlawanan dari bursa menandai pergeseran, di mana tindakan regulator kini lebih sering ditantang di pengadilan dan dalam proses legislatif. Hasil jangka panjang dari konflik ini dapat membentuk kerangka regulasi yang lebih matang dan berkelanjutan.

marsbit1j yang lalu

Pertarungan "Perang" Bursa Korea dengan Badan Pengawas, Menantang Batasan Penegakan dan Legislasi

marsbit1j yang lalu

Trading

Spot
Futures
活动图片