Penulis: Zoë Hitzig
Disusun oleh: Deep Tide TechFlow
Panduan Deep Tide: Dengan OpenAI mengumumkan pengujian iklan di ChatGPT, mantan peneliti Zoë Hitzig mengundurkan diri dengan marah dan menulis artikel yang mengungkap perubahan nilai-nilai internal perusahaan. Penulis menunjukkan bahwa ChatGPT telah mengumpulkan arsip percakapan jujur manusia yang belum pernah terjadi sebelumnya, dan begitu model iklan diperkenalkan, sangat mudah berubah menjadi alat yang memanipulasi pengguna secara psikologis dengan menggunakan informasi pribadi mereka. Dia memperingatkan bahwa OpenAI sedang mengulangi jalan lama Facebook "berjanji dulu, ingkar kemudian", menempatkan keterlibatan pengguna di atas keamanan. Artikel ini membahas secara mendalam dilema etika pendanaan AI, dan mengusulkan skema alternatif seperti subsidi lintas perusahaan, pengawasan independen, dan perwalian data, menyerukan industri untuk waspada terhadap dorongan kepentingan di balik "psikosis chatbot".
Teks lengkap sebagai berikut:
Minggu ini, OpenAI mulai menguji iklan di ChatGPT. Saya juga mengundurkan diri dari perusahaan. Sebelumnya, saya bekerja di sini sebagai peneliti selama dua tahun, bertanggung jawab untuk membantu membangun model AI dan model penetapan harganya, serta memandu kebijakan keamanan awal sebelum standar industri ditetapkan.
Saya pernah percaya bahwa saya dapat membantu mereka yang membangun AI untuk berlari lebih cepat dari masalah yang mungkin ditimbulkannya. Tetapi apa yang terjadi minggu ini mengkonfirmasi realitas yang secara bertahap saya sadari: OpenAI tampaknya telah berhenti mempertanyakan hal-hal yang ingin saya bantu jawab ketika saya pertama kali bergabung.
Saya tidak berpikir bahwa iklan tidak bermoral atau tidak etis. Biaya menjalankan AI sangat mahal, dan iklan dapat menjadi sumber pendapatan yang penting. Tetapi saya memiliki reservasi mendalam terhadap strategi OpenAI.
Selama beberapa tahun, pengguna ChatGPT telah menghasilkan arsip percakapan jujur manusia yang belum pernah terjadi sebelumnya, sebagian karena orang percaya bahwa mereka berbicara dengan objek yang tidak memiliki tujuan tersembunyi. Pengguna sedang berinteraksi dengan suara adaptif dan conversational, dan mengungkapkan pikiran paling pribadi mereka. Orang-orang akan memberitahu chatbot tentang ketakutan kesehatan mereka, masalah hubungan, keyakinan tentang Tuhan dan akhirat. Model iklan yang dibangun di atas arsip ini sangat mungkin memanipulasi pengguna dengan cara yang saat ini belum memiliki alat untuk memahami (apalagi mencegah).
Banyak orang membingkai masalah pendanaan AI sebagai pilihan "memilih yang lebih ringan dari dua kejahatan": baik membatasi akses ke teknologi transformatif ini kepada segelintir orang kaya yang mampu membayar; atau menerima iklan, bahkan jika itu berarti mengeksploitasi ketakutan dan keinginan terdalam pengguna untuk memasarkan produk. Saya pikir ini adalah dikotomi palsu. Perusahaan teknologi sepenuhnya dapat mencari skema lain, yang dapat menjaga alat-alat ini tetap tersedia secara luas, sambil membatasi motivasi perusahaan untuk memantau, membuat profil, dan memanipulasi penggunanya.
OpenAI menyatakan akan mematuhi prinsip-prinsip dalam menampilkan iklan di ChatGPT: iklan akan diberi label jelas, muncul di bagian bawah jawaban, dan tidak akan memengaruhi konten balasan. Saya percaya bahwa iklan versi pertama mungkin akan mengikuti prinsip-prinsip ini. Tetapi saya khawatir iterasi berikutnya tidak akan, karena perusahaan sedang membangun mesin ekonomi yang kuat, yang akan menghasilkan motivasi kuat untuk menggulingkan aturannya sendiri. (The New York Times telah menggugat OpenAI terkait pelanggaran hak cipta konten berita dinamis yang terkait dengan sistem AI. OpenAI menyangkal tuduhan tersebut.)
Pada awalnya, Facebook pernah berjanji bahwa pengguna akan mengontrol data mereka sendiri, dan dapat memberikan suara pada perubahan kebijakan. Tetapi janji-janji ini kemudian runtuh. Perusahaan menghapus sistem pemungutan suara publik untuk kebijakan. Perubahan privasi yang diklaim memberikan pengguna lebih banyak kendali atas data, kemudian ditemukan oleh Federal Trade Commission (FTC) justru sebaliknya,实际上是将私人信息公开化了. Semua ini terjadi secara bertahap di bawah tekanan model iklan, yang menempatkan keterlibatan pengguna (Engagement) di atas segalanya.
Erosi prinsip OpenAI sendiri untuk memaksimalkan keterlibatan mungkin sudah dimulai. Mengoptimalkan keterlibatan pengguna hanya untuk menghasilkan lebih banyak pendapatan iklan adalah melanggar prinsip perusahaan, tetapi dilaporkan bahwa perusahaan sudah mengoptimalkan jumlah pengguna aktif harian, kemungkinan dengan mendorong model untuk berperilaku lebih menyenangkan dan menjilat. Optimasi ini akan membuat pengguna merasa lebih tergantung pada dukungan AI dalam kehidupan mereka. Kita sudah melihat konsekuensi dari ketergantungan berlebihan, termasuk kasus "psikosis chatbot (Chatbot Psychosis)" yang dicatat oleh psikiater, dan tuduhan bahwa ChatGPT memperkuat pikiran untuk bunuh diri pada beberapa pengguna.
Meskipun demikian, pendapatan iklan memang membantu memastikan bahwa alat AI paling kuat tidak default hanya milik mereka yang mampu membayar. Memang, Anthropic menyatakan tidak akan pernah menampilkan iklan di Claude, tetapi pengguna aktif mingguan Claude hanya sebagian kecil dari 800 juta pengguna ChatGPT; strategi pendapatannya sangat berbeda. Selain itu, biaya berlangganan tingkat atas untuk ChatGPT, Gemini, dan Claude sekarang mencapai $200 hingga $250 per bulan — untuk perangkat lunak tunggal, ini lebih dari 10 kali lipat biaya berlangganan standar Netflix.
Jadi masalah sebenarnya bukan pada ada tidaknya iklan, tetapi apakah kita dapat merancang struktur yang dapat menghindari mengucilkan pengguna biasa, sambil menghindari memanipulasi mereka sebagai konsumen. Saya pikir kita bisa.
Salah satu caranya adalah subsidi silang eksplisit — menggunakan keuntungan dari layanan atau kelompok pelanggan tertentu untuk mengimbangi kerugian bagian lain. Jika sebuah bisnis menggunakan AI dalam skala besar untuk menyelesaikan pekerjaan bernilai tinggi yang sebelumnya dilakukan oleh karyawan manusia (misalnya, platform real estat menggunakan AI untuk menulis daftar properti atau laporan penilaian), maka itu juga harus membayar biaya tambahan untuk mensubsidi akses gratis atau berbiaya rendah bagi orang lain.
Pendekatan ini mengacu pada cara kami menangani infrastruktur dasar. Federal Communications Commission (FCC) mewajibkan operator telekomunikasi untuk menyumbang ke suatu dana, untuk menjaga biaya telepon dan broadband di daerah pedesaan dan keluarga berpenghasilan rendah tetap terjangkau. Banyak negara bagian menambahkan biaya kesejahteraan publik pada tagihan listrik, untuk memberikan bantuan berpenghasilan rendah.
Pilihan kedua adalah menerima iklan, tetapi dengan tata kelola yang nyata — bukan posting blog yang penuh dengan prinsip, tetapi struktur mengikat dengan fungsi pengawasan independen, yang bertanggung jawab untuk mengatur penggunaan data pribadi. Sudah ada preseden untuk ini. Hukum kodeterminasi Jerman (German co-determination law) mewajibkan perusahaan besar seperti Siemens dan Volkswagen untuk memberikan hingga setengah dari kursi dewan pengawas mereka kepada pekerja, menunjukkan bahwa perwakilan pemangku kepentingan formal di dalam perusahaan swasta dapat ditegakkan. Meta juga diharuskan mengikuti keputusan moderasi konten yang dikeluarkan oleh Dewan Pengawasnya (Oversight Board), sebuah badan independen yang terdiri dari ahli eksternal (meskipun efektivitasnya pernah dikritik).
Industri AI membutuhkan kombinasi dari pendekatan ini — sebuah komite yang mencakup baik ahli independen maupun perwakilan masyarakat yang datanya terpengaruh, dengan kekuatan mengikat atas data percakapan mana yang dapat digunakan untuk iklan bertarget, apa yang dianggap sebagai perubahan kebijakan signifikan, dan apa yang diinformasikan kepada pengguna.
Metode ketiga melibatkan menempatkan data pengguna di bawah kendali independen melalui perwalian atau koperasi, dengan kewajiban hukum untuk bertindak demi kepentingan pengguna. Misalnya, koperasi Swiss MIDATA memungkinkan anggota menyimpan data kesehatan mereka di platform terenkripsi, dan memutuskan kasus per kasus apakah akan berbagi dengan peneliti. Anggota MIDATA mengelola kebijakannya dalam rapat umum, dan komite etik yang mereka pilih meninjau permintaan akses penelitian.
Tidak satu pun dari opsi ini mudah. Tetapi kita masih punya waktu untuk menyempurnakannya, untuk menghindari dua hasil yang paling saya khawatirkan: satu teknologi yang memanipulasi orang yang menggunakannya tanpa biaya, atau teknologi lain yang hanya melayani segelintir elit yang mampu membayar.





