Orang yang Membuat Robot untuk OpenAI, Melihat Masa Depan yang Mengerikan

marsbitDipublikasikan tanggal 2026-03-09Terakhir diperbarui pada 2026-03-09

Abstrak

Kalinowski, Kepala Teknik Perangkat Keras & Robotika OpenAI, mengundurkan diri pada Maret 2026 karena menentang kontrak OpenAI dengan Departemen Pertahanan AS. Ia khawatir teknologi AI-nya dapat digunakan untuk pengawasan domestik dan senjata otonom. Pengunduran dirinya terjadi seminggu setelah OpenAI mengambil alih kerja sama yang ditolak Anthropic karena alasan etis. Reaksi publik keras: uninstall ChatGPT melonjak 295%, gerakan #QuitGPT viral, dan Claude jadi aplikasi teratas di App Store. Altman mengakui kesalahan dan merevisi kontrak, tetapi pakar hukum menilai perubahan ini tidak cukup membatasi penyalahgunaan. Kalinowski, yang membangun tubuh fisik untuk AI, menyadari pekerjaannya dapat digunakan untuk sistem militer yang mematikan tanpa kendali manusia. Tingkat resign di tim etika & keselamatan OpenAI mencapai 37%, mencerminkan ketidaksepakatan internal atas arah perusahaan yang semakin komersial. Peristiwa ini menyoroti dilema industri AI: antara menerima pendanaan pemerintah dengan risiko penyalahgunaan, atau menolak dan kehilangan pengaruh. Pengunduran diri Kalinowski menjadi pertanyaan moral bagi seluruh industri tentang tanggung jawab atas teknologi yang mereka ciptakan.

Penulis:Geek Lao You

7 Maret 2026, ketika saya melihat berita pengunduran diri Caitlin Kalinowski, reaksi pertama saya bukan terkejut, melainkan—"akhirnya seseorang berbicara dengan tindakan".

Kalinowski adalah Kepala Teknik Perangkat Keras dan Robotika di OpenAI, yang baru bergabung pada November 2024, dan memilih untuk pergi dalam waktu kurang dari satu setengah tahun.

Alasannya langsung dan berat—dia merasa tidak dapat menerima kemungkinan pengawasan domestik dan aplikasi senjata otonom yang mungkin timbul setelah OpenAI menandatangani kontrak dengan Departemen Pertahanan AS.

Ini bukan sekadar kehilangan talenta biasa. Ini adalah seseorang yang secara langsung terlibat dalam membangun tubuh AI, memberitahu dunia dengan mengundurkan diri: dia tidak ingin bertanggung jawab atas hal-hal yang mungkin dilakukan oleh apa yang dia buat.

Untuk memahami kepergian Kalinowski, kita harus kembali ke peristiwa yang terjadi sekitar seminggu sebelumnya.

Pada 28 Februari, Sam Altman mengumumkan bahwa OpenAI telah mencapai kesepakatan dengan Departemen Pertahanan AS, yang memungkinkan Pentagon menggunakan model AI OpenAI di jaringan rahasianya. Begitu berita itu tersebar, opini publik gempar.

Yang menarik, "acuan" untuk kontrak ini adalah pesaing Anthropic.

Tidak lama sebelumnya, Anthropic menolak kerja sama serupa yang diajukan oleh Pentagon, bersikeras untuk memasukkan pagar etika yang lebih ketat dalam kontrak. Akibatnya, Menteri Pertahanan Pete Hegseth langsung mengecamnya di X, menyebut tindakan Anthropic sebagai "kelas master arogansi dan pengkhianatan", dan menyerukan pemerintahan Trump untuk menghentikan kerja sama dengan Anthropic.

OpenAI kemudian mengambil alih bisnis ini.

Reaksi pengguna cukup keras. Pada tanggal 28 Februari, jumlah uninstall ChatGPT melonjak 295% dibandingkan hari sebelumnya, gerakan #QuitGPT dengan cepat menyebar di media sosial, dengan jumlah pendukung boikot digital melebihi 2,5 juta dalam tiga hari. Claude memanfaatkan momentum ini untuk melampaui ChatGPT sebagai aplikasi dengan unduhan harian tertinggi di AS, menduduki puncak aplikasi gratis Apple App Store.

Tertekan, Altman pada 3 Maret secara terbuka mengakui bahwa dia "seharusnya tidak terburu-buru meluncurkan kontrak ini", mengatakan bahwa "ini hanya terlihat oportunistik dan ceroboh", dan mengumumkan revisi redaksi kontrak, dengan jelas menyatakan "sistem AI tidak boleh secara sengaja digunakan untuk pengawasan domestik terhadap personel dan warga negara AS".

Tetapi kata "sengaja" itu sendiri adalah celah. Pengacara Electronic Frontier Foundation dengan tepat menunjuk, badan intelijen dan penegak hukum sering mengandalkan data "kebetulan" atau "pembelian komersial" untuk menghindari perlindungan privasi yang lebih kuat—menambahkan "sengaja" tidak sama dengan pembatasan yang sebenarnya.

Pengunduran diri Kalinowski terjadi tepat dalam latar belakang ini.

01 Apa yang Dia Lihat, Lebih Spesifik dari yang Kita Bayangkan

Sementara kebanyakan orang masih mendiskusikan "apakah OpenAI sedang berkompromi dengan pemerintah", Kalinowski sebenarnya menghadapi masalah yang lebih spesifik dan lebih kejam—timnya sedang membuat robot.

Teknik perangkat keras dan robotika bukanlah pekerjaan abstrak menulis kode atau menyesuaikan parameter. Ini adalah memberi AI tangan, kaki, dan mata. Ketika kerja sama OpenAI dengan Departemen Pertahanan berkembang dari "penggunaan model" ke kemungkinan masa depan "aplikasi militer AI berwujud", sifat pekerjaan Kalinowski berubah.

Para peneliti di bidang senjata otonom telah lama memperingatkan kedatangan hari ini.

Kebijakan Departemen Pertahanan AS yang ada tidak mensyaratkan persetujuan manusia sebelum senjata otonom menggunakan kekuatan. Dengan kata lain, kontrak yang ditandatangani OpenAI secara teknis tidak mencegah modelnya menjadi bagian dari sistem yang "membuat GPT memutuskan untuk membunuh seseorang".

Ini bukan mengada-ada. Jessica Tillipman, Instruktur Hukum Pengadaan Pemerintah di Universitas Georgetown, dalam menganalisis kontrak OpenAI yang telah direvisi, dengan jelas menyatakan bahwa redaksi kontrak "tidak memberi OpenAI kebebasan seperti Anthropic untuk melarang penggunaan pemerintah yang sah", itu hanya menyatakan bahwa Pentagon tidak dapat menggunakan teknologi OpenAI yang melanggar "hukum dan kebijakan yang ada"—tetapi hukum yang ada sendiri memiliki celah besar dalam pengawasan senjata otonom.

Para ahli tata kelola di Universitas Oxford juga memiliki penilaian serupa, menganggap bahwa perjanjian OpenAI "kemungkinan besar tidak akan menutupi" celah struktural yang ditinggalkan oleh pengawasan domestik dan sistem senjata otonom yang digerakkan oleh AI pada tingkat tata kelola.

Kepergian Kalinowski adalah tanggapannya terhadap penilaian ini.

02 Apa yang Sedang Terjadi di Dalam OpenAI

Kalinowski bukan orang pertama yang pergi, dan kemungkinan besar bukan yang terakhir.

Data menunjukkan bahwa tingkat pergantian tim Etika dan Keamanan AI OpenAI telah mencapai 37%, dan alasan yang diberikan kebanyakan orang untuk mengundurkan diri adalah "tidak sesuai dengan nilai perusahaan" atau "tidak dapat menerima AI digunakan untuk tujuan militer". Ilmuwan Penelitian Aidan McLaughlin menulis secara internal, "Saya pribadi merasa kesepakatan ini tidak sepadan".

Perlu dicatat, waktu terjadinya gelombang pengunduran diri ini—tepat pada tahap OpenAI sedang memperluas peta bisnis dengan cepat. Tepat sebelum dan sesudah kontroversi kontrak pertahanan, perusahaan mengumumkan perpanjangan perjanjian existing senilai $38 miliar dengan AWS sebesar $100 miliar, dengan jangka waktu delapan tahun; sekaligus menyesuaikan kembali target pengeluaran yang diungkapkan ke luar, memperkirakan total pendapatan akan melebihi $280 miliar pada tahun 2030.

Percepatan bisnis, tim keamanan terus pergi. Selisih gunting ini adalah sumbu koordinat terpenting untuk memahami situasi OpenAI saat ini.

Nilai-nilai sebuah perusahaan, pada akhirnya tercermin dari siapa yang dipertahankannya, dan siapa yang tidak dapat dipertahankan. Ketika orang-orang yang paling peduli dengan "bagaimana teknologi ini akan digunakan" mulai pergi satu per satu, tidak sulit untuk menyimpulkan ke arah mana struktur organisasi yang tersisa akan bergerak.

Anthropic dalam permainan ini memilih jalan lain—menolak kontrak, menanggung kemarahan Departemen Pertahanan, tetapi memenangkan kepercayaan banyak pengguna. Pada waktu itu unduhan Claude meningkat secara逆势, dalam某种程度上 membuktikan bahwa "penolakan yang berprinsip" dalam bisnis tidak selalu merupakan strategi yang kalah.

Tetapi Anthropic juga membayar harganya—mereka dikeluarkan dari pemerintah, setidaknya untuk sementara waktu.

Ini adalah dilema sebenarnya: tidak ada pilihan yang sempurna.

Menolak, berarti mungkin kehilangan pengaruh, bahkan dikeluarkan dari pembuatan aturan. Menerima, berarti menggunakan teknologi sendiri, untuk menjamin perilaku yang tidak dapat sepenuhnya dikendalikan.

Jawaban Kalinowski adalah jalan ketiga—pergi.

Ini adalah hal paling jujur yang dapat dia lakukan.

03 Pertarungan Jiwa Silicon Valley, Baru Saja Dimulai

Jika perspektifnya diperlebar, arti peristiwa ini jauh melampaui pengunduran diri satu orang.

Kombinasi AI dan militer adalah pilihan yang harus dihadapi oleh seluruh industri cepat atau lambat. Pentagon memiliki anggaran, kebutuhan, dan kemampuan integrasi teknologi, mereka tidak akan berhenti mengulurkan tangan kepada perusahaan AI. Dan perusahaan AI—baik yang mengejar AGI seperti OpenAI, menekankan keamanan seperti Anthropic, atau pemain lain—cepat atau lambat harus memberikan jawaban mereka di depan pilihan ini.

Strategi Altman adalah mencoba menerima realitas bisnis sambil menarik garis batas melalui redaksi kontrak. Tetapi seperti yang ditunjukkan oleh banyak ahli hukum dan tata kelola, redaksi itu lebih seperti perlindungan tingkat PR, daripada batasan keras tingkat teknis.

Masalah yang lebih mendasar adalah, ketika model AI dikerahkan ke jaringan rahasia, ketika mulai berpartisipasi dalam pengambilan keputusan militer, dunia luar sama sekali tidak memiliki kemampuan untuk memverifikasi, apakah "jaminan" itu benar-benar dilaksanakan.

Kurangnya transparansi,本身就是risiko terbesar.

Kalinowski tinggal di OpenAI kurang dari satu setengah tahun, tetapi memilih untuk pergi pada titik ini. Dia tidak menerbitkan pernyataan panjang secara publik, tidak mengkritik siapa pun secara langsung, hanya menarik batasnya sendiri dengan tindakan.

Dalam arti tertentu, ini lebih kuat daripada artikel kebijakan apa pun.

Teknik perangkat keras dan robotika AI, awalnya adalah salah satu bidang terdepan paling menarik di Silicon Valley. Ketika Kalinowski pergi, yang dia bawa bukan hanya resume, tetapi juga sebuah pertanyaan, yang ditinggalkan untuk semua orang yang masih tinggal di industri ini—

Sejauh mana Anda bersedia bertanggung jawab atas apa yang Anda buat?

Pertanyaan Terkait

QMengapa Caitlin Kalinowski mengundurkan diri dari OpenAI?

ACaitlin Kalinowski mengundurkan diri karena tidak dapat menerima kemungkinan penggunaan teknologi OpenAI untuk pengawasan domestik dan aplikasi senjata otonom setelah perusahaan menandatangani kontrak dengan Departemen Pertahanan AS.

QApa reaksi publik terhadap kontrak OpenAI dengan Departemen Pertahanan AS?

AReaksi publik sangat negatif. Uninstall ChatGPT meningkat 295%, gerakan #QuitGPT menyebar di media sosial dengan lebih dari 2,5 juta pendukung, dan Claude dari Anthropic menjadi aplikasi unduhan teratas di Apple App Store.

QApa yang dikatakan Sam Altman tentang kontroversi kontrak tersebut?

ASam Altman mengakui bahwa keputusannya "tidak seharusnya terburu-buru" dan "terlihat oportunistik dan ceroboh". Ia kemudian merevisi kontrak untuk menyatakan bahwa sistem AI tidak boleh "sengaja digunakan untuk pengawasan domestik terhadap personel dan warga AS".

QMengapa kontrak yang direvisi masih dianggap bermasalah oleh para ahli?

APara ahli hukum dan tata kelola menyatakan bahwa penambahan kata "sengaja" tidak memberikan batasan yang nyata, karena badan intelijen sering menggunakan data "tidak sengaja" atau "dibeli secara komersial" untuk menghindari perlindungan privasi yang lebih ketat.

QApa dampak dari gelombang pengunduran diri di tim etika dan keamanan AI OpenAI?

ATingkat pengunduran diri yang mencapai 37% di tim etika dan keamanan AI menunjukkan pergeseran nilai perusahaan. Kepergian para ahli yang peduli dengan penggunaan teknologi secara bertanggung jawab dapat mengarahkan struktur organisasi ke arah yang lebih mengutamakan kepentingan komersial.

Bacaan Terkait

GensynAI : Jangan Biarkan AI Mengulangi Kesalahan Internet

Beberapa bulan terakhir, banyak talenta dari industri kripto beralih ke AI karena pesatnya perkembangan industri kecerdasan buatan. Para peneliti yang bergerak di kedua bidang ini terus mengeksplorasi satu pertanyaan yang belum terjawab: **Bisakah blockchain menjadi bagian dari infrastruktur AI?** Proyek yang menggabungkan AI dan Crypto, seperti AI Agent, on-chain reasoning, pasar data, dan penyewaan daya komputasi, telah banyak bermunculan. Namun, sebagian besar masih berada di "lapisan aplikasi AI" dan belum membentuk closed-loop bisnis yang nyata. Berbeda dengan itu, **Gensyn** justru menyasar lapisan paling inti dan mahal dalam industri AI: **pelatihan model**. Gensyn bertujuan untuk mengorganisir sumber daya GPU yang tersebar secara global menjadi jaringan pelatihan AI terbuka. Pengembang dapat mengirimkan tugas pelatihan, node menyediakan daya komputasi, dan jaringan bertugas memverifikasi hasil pelatihan serta mendistribusikan insentif. Nilai utama di balik ini bukan semata-mata "desentralisasi", melainkan solusi atas masalah mendesak dalam industri AI: **sumber daya komputasi (GPU) yang semakin terkonsentrasi di tangan segelintir raksasa teknologi.** Kelangkaan pasokan H100, kenaikan harga layanan cloud, dan persaingan ketat untuk mengunci sumber daya komputasi menunjukkan bahwa kepemilikan GPU kini menjadi penentu kecepatan pengembangan AI, terutama di era model besar (large models). **Mengapa Gensyn Menarik Perhatian?** 1. **Menyasar Lapisan Infrastruktur Inti AI:** Gensyn langsung masuk ke dalam proses pelatihan model, bagian yang paling menantang secara teknis dan paling banyak mengonsumsi sumber daya. Ini adalah lapisan yang mudah membentuk hambatan platform (platform壁垒). Jika jaringan pelatihannya mencapai skala, ia berpotensi menjadi pintu masuk penting bagi pengembangan AI di masa depan. 2. **Menawarkan Model Kolaborasi Komputasi yang Lebih Terbuka:** Berbeda dengan ketergantungan pada platform cloud terpusat yang biayanya terus naik, Gensyn mengusung model yang memanfaatkan GPU menganggur dan menjadwalkan sumber daya komputasi secara dinamis. Ini dapat meningkatkan efisiensi penggunaan daya komputasi secara keseluruhan dan mengurangi hambatan inovasi bagi tim AI kecil-menengah. 3. **Tingkat Kesulitan Teknis sebagai Keunggulan:** Tantangan sebenarnya bukan sekadar menghubungkan GPU, tetapi **cara memverifikasi hasil pelatihan, memastikan kejujuran node, dan menjaga keandalan pelatihan di lingkungan terdistribusi.** Gensyn fokus pada solusi teknis ini (seperti mekanisme verifikasi probabilistik, model distribusi tugas), menjadikannya lebih mirip perusahaan infrastruktur teknologi mendalam (deep tech). 4. **Memiliki Closed-Loop Bisnis Nyata:** Kebutuhan akan pelatihan AI adalah pasar nyata yang terus berkembang, dengan celah pasokan GPU yang berkelanjutan. Gensyn tidak sekadar menambahkan blockchain untuk kepentingannya sendiri, tetapi menjawab kebutuhan industri akan sistem penjadwalan sumber daya yang lebih fleksibel dan terbuka. Singkatnya, batas antara Crypto (sistem finansial) dan AI (sistem teknologi) semakin kabur. AI membutuhkan koordinasi sumber daya, mekanisme insentif, dan kolaborasi global—hal-hal yang menjadi keahlian Crypto. Gensyn mewakili upaya untuk membuka akses kemampuan pelatihan, yang selama ini dikuasai sedikit perusahaan besar, menjadi sistem yang lebih terbuka dan dapat dikolaborasikan. Inisiatif ini tidak lagi sekadar cerita konsep, tetapi berkembang menuju infrastruktur AI nyata, di mana perusahaan paling bernilai di era AI sering kali lahir dari lapisan infrastruktur.

marsbit6j yang lalu

GensynAI : Jangan Biarkan AI Mengulangi Kesalahan Internet

marsbit6j yang lalu

Mengapa AI China Berkembang Begitu Cepat? Jawabannya Tersembunyi di Dalam Laboratorium

Pengarang mencatat bahwa laboratorium AI China telah menjadi kekuatan yang semakin sulit diabaikan dalam kompetisi model besar global. Keunggulannya tidak hanya terletak pada banyaknya talenta, kemampuan rekayasa yang kuat, dan iterasi cepat, tetapi juga berasal dari cara organisasi yang sangat realistis: lebih banyak fokus pada pembuatan model daripada konsep, lebih menekankan eksekusi tim daripada individu bintang, dan lebih memilih menguasai tumpukan teknologi inti sendiri daripada bergantung pada layanan eksternal. Dari kunjungan ke sejumlah laboratorium AI terkemuka China, penulis menemukan ekosistem AI China tidak sepenuhnya sama dengan AS. AS lebih menekankan orisinalitas, investasi modal, dan pengaruh ilmuwan puncak, sedangkan China lebih mahir dalam mengejar cepat arah yang sudah ada. Melalui sumber terbuka, optimasi rekayasa, dan kontribusi banyak peneliti muda, China mendorong kemampuan model ke garis depan dengan cepat. Yang paling menarik untuk diperhatikan bukanlah apakah AI China telah melampaui AS, melainkan dua jalur pengembangan berbeda yang terbentuk: AS lebih seperti kompetisi garis depan yang digerakkan modal dan laboratorium bintang, sedangkan China lebih seperti kompetisi industri yang didorong oleh kemampuan rekayasa, ekosistem sumber terbuka, dan kesadaran penguasaan teknologi mandiri. Ini berarti kompetisi AI di masa depan tidak hanya soal peringkat model, tetapi juga kemampuan organisasi, ekosistem pengembang, dan eksekusi industri. Perubahan nyata AI China terletak pada cara mereka berpartisipasi dalam garis depan global dengan caranya sendiri, bukan hanya meniru Silicon Valley. Penulis juga menyoroti beberapa perbedaan utama dalam ekosistem AI China: permintaan AI domestik mulai muncul, banyak pengembang terpengaruh Claude, perusahaan memiliki mentalitas kepemilikan teknologi, ada dukungan pemerintah meski skalanya belum jelas, industri data kurang berkembang dibanding Barat, dan ada kebutuhan kuat akan chip NVIDIA lebih banyak. Penutupnya menekankan pentingnya ekosistem global yang terbuka dan kolaboratif untuk menciptakan AI yang lebih aman, mudah diakses, dan bermanfaat bagi dunia.

marsbit8j yang lalu

Mengapa AI China Berkembang Begitu Cepat? Jawabannya Tersembunyi di Dalam Laboratorium

marsbit8j yang lalu

3 Tahun 5 Kali Lipat, Pabrik Kaca Berusia Satu Abad Dibangkitkan Kembali

Menurut CRU, permintaan serat optik untuk pusat data AI meningkat 75.9% per tahun, dan kesenjangan pasokan-meningkat dari 6% menjadi 15%. Harga serat optik melonjak lebih dari 3 kali lipat dalam beberapa bulan, dan kapasitas produksi tidak dapat mengimbangi. Inilah alasan NVIDIA berinvestasi di Corning dan mempercepat ekspansi kapasitas serat optik, dengan total investasi $45 miliar dalam tiga perusahaan di seluruh rantai optik. Corning, perusahaan kaca berusia 175 tahun dari New York, melihat sahamnya naik 316.81% dalam setahun terakhir, mencapai kapitalisasi pasar $160 miliar. NVIDIA memilih Corning karena keahliannya dalam serat optik khusus berkinerja tinggi yang penting untuk pusat data AI, seperti serat dengan kehilangan sinyal ultra-rendah (0.15 dB/km), kepadatan tinggi, dan ketahanan tekuk yang baik. Penghasilan Corning dari segmen komunikasi optik untuk perusahaan (Enterprise) melonjak dari $1.3 miliar pada 2023 menjadi lebih dari $3 miliar pada 2025. Perusahaan telah mengamankan kontrak pasokan jangka panjang bernilai miliaran dolar dari klien seperti Meta dan NVIDIA. Meskipun bukan produsen serat optik terbesar secara global, keunggulan teknis Corning di pasar serat canggih untuk AI, ditambah dengan investasi R&D tahunan sebesar $1 miliar, memberinya posisi unik. Percepatan adopsi teknologi **CPO (Co-Packaged Optics)** oleh NVIDIA, yang dijadwalkan mulai produksi massal pada paruh kedua 2026, menjadi katalis penting bagi permintaan serat optik premium Corning. Namun, valuasi sahamnya yang telah melonjak pesat dan potensi keterlambatan dalam eksekusi pesanan menjadi faktor risiko yang perlu diperhatikan.

marsbit8j yang lalu

3 Tahun 5 Kali Lipat, Pabrik Kaca Berusia Satu Abad Dibangkitkan Kembali

marsbit8j yang lalu

Trading

Spot
Futures
活动图片