AI Membaca '1984', Lalu Memutuskan untuk Melarangnya

marsbitDipublikasikan tanggal 2026-03-27Terakhir diperbarui pada 2026-03-27

Abstrak

Seorang pustakawan di sekolah menengah di Manchester, Inggris, kehilangan pekerjaannya setelah menolak rekomendasi AI yang melarang 193 buku, termasuk "1984" karya George Orwell, dengan alasan tema kekerasan dan eksplisit. AI menyarankan pelarangan tersebut, tetapi sekolah justru menyelidiki dan memaksa sang pustakawan mengundurkan diri dengan alasan "keamanan anak". Sementara itu, Wikipedia memilih melarang konten yang dihasilkan AI untuk mencegah misinformasi dan keracunan data, sementara OpenAI membatalkan fitur "mode dewasa" pada ChatGPT karena kekhawatiran dampak negatifnya. Ketiga kasus ini menunjukkan ketidakmampuan manusia dalam mengimbangi kecepatan AI dalam memproduksi dan menyaring konten, serta kurangnya standar global dalam regulasi konten berbasis AI.

Penulis: Curry, Deep Tide TechFlow

Minggu lalu, sebuah sekolah menengah di Manchester, Inggris, menggunakan AI untuk memeriksa perpustakaannya.

AI membuat daftar 193 buku yang harus diturunkan, masing-masing disertai alasan. '1984' karya George Orwell termasuk dalam daftar, dengan alasan "mengandung tema penyiksaan, kekerasan, dan paksaan seksual".

'1984' bercerita tentang dunia di mana pemerintah memantau segalanya, menulis ulang sejarah, dan memutuskan apa yang boleh dan tidak boleh dilihat warga. Sekarang, AI melakukan hal yang sama untuk sebuah sekolah, dan mungkin ia sendiri tidak tahu apa yang sedang dibicarakannya.

Pustakawan sekolah itu merasa tidak masuk akal dan menolak untuk menjalankan semua rekomendasi yang diberikan AI.

Sekolah kemudian melaporkannya ke pemerintah daerah dengan alasan "keamanan anak" dan melakukan investigasi internal terhadapnya, menuduhnya memperkenalkan buku-buku yang tidak pantas ke perpustakaan. Dia cuti sakit karena tekanan dan akhirnya mengundurkan diri.

Yang absurd, kesimpulan investigasi pemerintah daerah menetapkan bahwa dia memang melanggar prosedur keamanan anak, dan keluhannya diterima.

Ketua Bagian Perpustakaan Sekolah Inggris Caroline Roche mengatakan, kesimpulan ini berarti dia tidak akan bisa bekerja di sekolah mana pun lagi.

Orang yang menolak penilaian AI kehilangan pekerjaan, sementara orang yang menyetujui penilaian AI tidak terjadi apa-apa.

Kemudian, sekolah mengakui dalam dokumen internal bahwa semua klasifikasi dan alasannya dihasilkan oleh AI, dengan pernyataan: "Meskipun klasifikasi dihasilkan oleh AI, kami percaya klasifikasi ini pada dasarnya akurat."

Sebuah sekolah menyerahkan penilaian "buku apa yang pantas dibaca siswa" kepada AI, AI mengembalikan jawaban yang tidak dipahaminya sendiri, lalu seorang manajer manusia mencapnya tanpa melihatnya dengan saksama.

Setelah hal ini diungkap oleh organisasi kebebasan berbicara Inggris Index on Censorship, masalah yang ditimbulkan jauh melampaui rak buku satu sekolah:

Ketika AI mulai memutuskan untuk manusia konten apa yang pantas dan konten apa yang berbahaya, siapa yang menilai apakah penilaian AI itu benar?

Wikipedia Menutup Pintu untuk AI

Minggu yang sama, lembaga lain menjawab pertanyaan ini dengan tindakan.

Sekolah membiarkan AI memutuskan apa yang boleh dibaca manusia. Situs ensiklopedia online terbesar di dunia, Wikipedia, membuat pilihan sebaliknya: tidak membiarkan AI memutuskan apa yang ditulis di ensiklopedia.

Minggu yang sama, Wikipedia bahasa Inggris secara resmi mengesahkan kebijakan baru yang melarang penggunaan model bahasa besar (LLM) untuk menghasilkan atau menulis ulang konten entri. Hasil voting adalah 44 suara setuju, 2 suara menolak.

Penyebab langsungnya adalah sebuah akun AI bernama TomWikiAssist. Awal Maret tahun ini, akun ini secara mandiri membuat dan menyunting beberapa entri di Wikipedia, yang kemudian ditemukan oleh komunitas dan ditangani secara darurat.

AI hanya butuh beberapa detik untuk menulis sebuah entri, tetapi relawan membutuhkan waktu berjam-jam untuk memverifikasi fakta, sumber, dan diksi dalam sebuah entri AI apakah akurat.

Komunitas editor Wikipedia jumlahnya terbatas. Jika AI dapat memproduksi konten tanpa batas, editor manusia tidak akan sanggup meninjau semuanya.

Itu bukan bagian yang paling merepotkan. Wikipedia adalah salah satu sumber data pelatihan terpenting untuk model AI global. AI belajar pengetahuan dari Wikipedia, lalu menggunakan yang dipelajarinya untuk menulis entri Wikipedia baru, entri baru itu kemudian dimakan oleh model AI generasi berikutnya untuk terus dilatih.

Begitu informasi salah yang dihasilkan AI menyusup, itu akan terus diperbesar dalam siklus ini, menjadi semacam keracunan AI berlapis:

AI mencemari data pelatihan, data pelatihan kemudian mencemari AI.

Namun, kebijakan Wikipedia juga menyisakan dua celah untuk AI: editor dapat menggunakan AI untuk memoles teks yang mereka tulis sendiri, dan dapat menggunakan AI untuk membantu penerjemahan. Tetapi kebijakan tersebut secara khusus memperingatkan bahwa AI akan "melampaui permintaan Anda, mengubah makna teks, membuatnya tidak sesuai dengan sumber yang dikutip".

Penulis manusia membuat kesalahan, Wikipedia selama lebih dari dua puluh tahun mengandalkan kolaborasi komunitas untuk terus memperbaikinya. AI berbuat salah dengan cara yang berbeda, hal-hal yang diada-adakannya terlihat lebih nyata daripada yang asli, dan dapat diproduksi secara massal.

Sebuah sekolah mempercayai penilaian AI, hasilnya kehilangan seorang pustakawan. Wikipedia memilih untuk tidak percaya, langsung menutup pintunya.

Tapi bagaimana jika bahkan pembuat AI sendiri mulai tidak percaya?

Pembuat AI Sendiri, Takut Duluan

Lembaga di luar sedang menutup pintu untuk AI, perusahaan AI sendiri juga sedang menarik diri.

Minggu yang sama, OpenAI menunda tanpa batas waktu "mode dewasa" ChatGPT. Fitur ini awalnya direncanakan diluncurkan pada bulan Desember tahun lalu, memungkinkan pengguna dewasa yang telah memverifikasi usia untuk melakukan percakapan erotis dengan ChatGPT.

CEO Sam Altman sendiri yang mengumumkannya pada bulan Oktober tahun lalu, dengan kalimat aslinya adalah "memperlakukan pengguna dewasa seperti orang dewasa".

Hasilnya, setelah ditunda tiga kali, langsung dibatalkan.

Menurut laporan Financial Times Inggris, dewan penasihat kesehatan internal OpenAI menentang fitur ini dengan suara bulat. Kekhawatiran para penasihat cukup spesifik: pengguna akan mengembangkan ketergantungan emosional yang tidak sehat pada AI, dan anak di bawah umur pasti akan menemukan cara untuk melewati verifikasi usia.

Seorang penasihat berkata lebih langsung: tanpa perbaikan signifikan, hal ini bisa menjadi "pelatih bunuh diri yang seksi".

Tingkat kesalahan sistem verifikasi usia lebih dari 10%. Dengan skala 800 juta pengguna aktif ChatGPT per minggu, 10% berarti puluhan juta orang mungkin salah diklasifikasikan.

Mode dewasa bukan satu-satunya produk yang dipotong bulan ini. Alat video AI Sora, fungsi pembayaran instan bawaan ChatGPT, semuanya diturunkan pada waktu yang sama. Altman mengatakan perusahaan akan fokus pada bisnis inti, memotong "tugas sampingan".

Tapi OpenAI bersamaan sedang mempersiapkan IPO.

Sebuah perusahaan yang sedang mengejar penawaran umum perdana, memotong fitur-fitur yang berpotensi memicu kontroversi, nama yang lebih akurat untuk tindakan ini mungkin bukan fokus.

Lima bulan lalu Altman masih mengatakan ingin memperlakukan pengguna seperti orang dewasa, lima bulan kemudian dia menemukan, perusahaannya sendiri belum搞清楚 (memahami sepenuhnya) apa yang boleh dan tidak boleh disentuh pengguna oleh AI.

Bahkan pembuat AI sendiri tidak memiliki jawabannya. Lalu siapa yang seharusnya menarik garis ini?

Selisih Kecepatan yang Tak Tertandingi

Jika Anda menyatukan ketiga hal ini, mudah untuk menarik kesimpulan inti:

Kecepatan AI memproduksi konten, dan kecepatan manusia memoderasi konten, sudah tidak berada pada tingkat yang sama.

Pilihan sekolah di Manchester itu, dalam konteks ini sangat mudah dipahami. Berapa lama waktu yang dibutuhkan untuk meminta pustakawan membaca 193 buku satu per satu baru membuat penilaian? Meminta AI menjalankannya, beberapa menit.

Kepala sekolah memilih skema beberapa menit itu, apakah Anda pikir dia benar-benar percaya pada penilaian AI? Saya rasa lebih karena dia tidak ingin menghabiskan waktu itu.

Ini adalah masalah ekonomi. Biaya produksi mendekati nol, biaya moderasi sepenuhnya ditanggung oleh manusia.

Jadi, setiap lembaga yang dipengaruhi AI, dipaksa untuk merespons dengan cara yang paling kasar: Wikipedia langsung melarang, OpenAI langsung memotong lini produk. Tidak ada skema yang merupakan hasil pertimbangan matang, semuanya adalah menutup dulu karena tidak sempat memikirkannya dengan jelas.

"Tutup dulu baru bicara" sedang menjadi norma.

Kemampuan AI beriterasi setiap beberapa bulan, sementara diskusi tentang konten yang boleh disentuh AI, bahkan belum memiliki kerangka internasional yang layak. Setiap lembaga hanya mengurus garis di halamannya sendiri, garis-garis itu saling bertentangan, dan tidak ada yang mengoordinasikannya.

Kecepatan AI masih meningkat. Tenaga moderator tidak akan bertambah. Selisih gunting ini hanya akan semakin besar, sampai suatu hari terjadi sesuatu yang jauh lebih serius daripada melarang '1984'.

Pada saat itu baru menarik garis, mungkin sudah terlambat.

Pertanyaan Terkait

QMengapa AI di sebuah sekolah di Manchester memutuskan untuk melarang buku '1984' karya George Orwell?

AAI melarang buku '1984' karena alasan 'mengandung tema penyiksaan, kekerasan, dan paksaan seksual'.

QApa yang terjadi pada pustakawan sekolah yang menolak rekomendasi AI untuk melarang buku-buku tersebut?

APustakawan tersebut diselidiki oleh sekolah dengan alasan 'keamanan anak', dilaporkan ke pemerintah daerah, dan akhirnya mengundurkan diri karena tekanan. Investigasi pemerintah daerah menyimpulkan bahwa ia melanggar prosedur keamanan anak.

QKeputusan apa yang diambil oleh Wikipedia mengenai penggunaan model bahasa besar (LLM) untuk menulis atau menyunting konten?

AWikipedia secara resmi melarang penggunaan model bahasa besar (LLM) untuk menghasilkan atau menulis ulang konten artikel, dengan suara 44 setuju dan 2 menentang.

QMengapa OpenAI membatalkan rencana 'mode dewasa' untuk ChatGPT?

AOpenAI membatalkan 'mode dewasa' karena kekhawatiran dari dewan penasihat kesehatan tentang ketergantungan emosional yang tidak sehat pengguna pada AI dan risiko remaja melewati verifikasi usia. Tingkat kesalahan verifikasi usia melebihi 10%.

QApa masalah utama yang dihadapi manusia dalam menghadapi konten yang dihasilkan AI menurut artikel ini?

AMasalah utamanya adalah kecepatan AI menghasilkan konten jauh melebihi kemampuan manusia untuk memverifikasi dan mengauditnya, menciptakan kesenjangan yang semakin besar. Biaya verifikasi oleh manusia tetap tinggi, sementara biaya generasi AI mendekati nol.

Bacaan Terkait

Menurunkan Ekspektasi untuk Bull Market Bitcoin Berikutnya

Artikel ini membahas penurunan ekspektasi penulis terhadap potensi kenaikan harga Bitcoin (BTC) pada siklus bull market berikutnya. Penulis, Alex Xu, yang sebelumnya memegang BTC sebagai aset terbesarnya, telah mengurangi porsi BTC dari full menjadi sekitar 30% pada kisaran harga $100.000-$120.000, dan kembali mengurangi di level $78.000-$79.000. Alasan utama penurunan ekspektasi ini adalah: 1. **Energi Penggerak yang Melemah:** Narasi adopsi BTC yang mendorong kenaikan signifikan di siklus sebelumnya (dari aset niche hingga institusi besar via ETF) sulit terulang. Langkah berikutnya, seperti masuknya BTC ke dalam cadangan bank sentral negara maju, dianggap sangat sulit tercapai dalam 2-3 tahun ke depan. 2. **Biaya Peluang Pribadi:** Penulis menemukan peluang investasi yang lebih menarik di perusahaan-perusahaan lain. 3. **Dampak Resesi Industri Kripto:** Menyusutnya industri kripto secara keseluruhan (banyak model bisnis seperti SocialFi dan GameFi terbukti gagal) dapat memperlambat pertumbuhan basis pemegang BTC. 4. **Biaya Pendanaan Pembeli Utama:** Perusahaan pembeli BTC terbesar, Stratis, menghadapi kenaikan biaya pendanaan yang memberatkan, yang dapat mengurangi kecepatan pembeliannya dan memberi tekanan jual. 5. **Pesaing Baru untuk "Emas Digital":** Hadirnya "tokenized gold" (emas yang ditokenisasi) menawarkan keunggulan yang mirip dengan BTC (seperti dapat dibagi dan dipindahkan) sehingga menjadi pesaing serius. 6. **Masalah Anggaran Keamanan:** Imbalan miner yang terus berkurang pasca halving menimbulkan kekhawatiran tentang keamanan jaringan, sementara upaya mencari sumber fee baru seperti ordinals dan L2 dinilai gagal. Penulis menyatakan tetap memegang BTC sebagai aset besar dan terbuka untuk membeli kembali jika alasannya tidak lagi relevan atau muncul faktor positif baru, meski siap menerima jika harganya sudah terlalu tinggi untuk dibeli kembali.

marsbit04/27 02:47

Menurunkan Ekspektasi untuk Bull Market Bitcoin Berikutnya

marsbit04/27 02:47

Trading

Spot
Futures
活动图片