AI Membaca '1984', Lalu Memutuskan untuk Melarangnya

marsbitDipublikasikan tanggal 2026-03-27Terakhir diperbarui pada 2026-03-27

Abstrak

Seorang pustakawan di sekolah menengah di Manchester, Inggris, kehilangan pekerjaannya setelah menolak rekomendasi AI yang melarang 193 buku, termasuk "1984" karya George Orwell, dengan alasan tema kekerasan dan eksplisit. AI menyarankan pelarangan tersebut, tetapi sekolah justru menyelidiki dan memaksa sang pustakawan mengundurkan diri dengan alasan "keamanan anak". Sementara itu, Wikipedia memilih melarang konten yang dihasilkan AI untuk mencegah misinformasi dan keracunan data, sementara OpenAI membatalkan fitur "mode dewasa" pada ChatGPT karena kekhawatiran dampak negatifnya. Ketiga kasus ini menunjukkan ketidakmampuan manusia dalam mengimbangi kecepatan AI dalam memproduksi dan menyaring konten, serta kurangnya standar global dalam regulasi konten berbasis AI.

Penulis: Curry, Deep Tide TechFlow

Minggu lalu, sebuah sekolah menengah di Manchester, Inggris, menggunakan AI untuk memeriksa perpustakaannya.

AI membuat daftar 193 buku yang harus diturunkan, masing-masing disertai alasan. '1984' karya George Orwell termasuk dalam daftar, dengan alasan "mengandung tema penyiksaan, kekerasan, dan paksaan seksual".

'1984' bercerita tentang dunia di mana pemerintah memantau segalanya, menulis ulang sejarah, dan memutuskan apa yang boleh dan tidak boleh dilihat warga. Sekarang, AI melakukan hal yang sama untuk sebuah sekolah, dan mungkin ia sendiri tidak tahu apa yang sedang dibicarakannya.

Pustakawan sekolah itu merasa tidak masuk akal dan menolak untuk menjalankan semua rekomendasi yang diberikan AI.

Sekolah kemudian melaporkannya ke pemerintah daerah dengan alasan "keamanan anak" dan melakukan investigasi internal terhadapnya, menuduhnya memperkenalkan buku-buku yang tidak pantas ke perpustakaan. Dia cuti sakit karena tekanan dan akhirnya mengundurkan diri.

Yang absurd, kesimpulan investigasi pemerintah daerah menetapkan bahwa dia memang melanggar prosedur keamanan anak, dan keluhannya diterima.

Ketua Bagian Perpustakaan Sekolah Inggris Caroline Roche mengatakan, kesimpulan ini berarti dia tidak akan bisa bekerja di sekolah mana pun lagi.

Orang yang menolak penilaian AI kehilangan pekerjaan, sementara orang yang menyetujui penilaian AI tidak terjadi apa-apa.

Kemudian, sekolah mengakui dalam dokumen internal bahwa semua klasifikasi dan alasannya dihasilkan oleh AI, dengan pernyataan: "Meskipun klasifikasi dihasilkan oleh AI, kami percaya klasifikasi ini pada dasarnya akurat."

Sebuah sekolah menyerahkan penilaian "buku apa yang pantas dibaca siswa" kepada AI, AI mengembalikan jawaban yang tidak dipahaminya sendiri, lalu seorang manajer manusia mencapnya tanpa melihatnya dengan saksama.

Setelah hal ini diungkap oleh organisasi kebebasan berbicara Inggris Index on Censorship, masalah yang ditimbulkan jauh melampaui rak buku satu sekolah:

Ketika AI mulai memutuskan untuk manusia konten apa yang pantas dan konten apa yang berbahaya, siapa yang menilai apakah penilaian AI itu benar?

Wikipedia Menutup Pintu untuk AI

Minggu yang sama, lembaga lain menjawab pertanyaan ini dengan tindakan.

Sekolah membiarkan AI memutuskan apa yang boleh dibaca manusia. Situs ensiklopedia online terbesar di dunia, Wikipedia, membuat pilihan sebaliknya: tidak membiarkan AI memutuskan apa yang ditulis di ensiklopedia.

Minggu yang sama, Wikipedia bahasa Inggris secara resmi mengesahkan kebijakan baru yang melarang penggunaan model bahasa besar (LLM) untuk menghasilkan atau menulis ulang konten entri. Hasil voting adalah 44 suara setuju, 2 suara menolak.

Penyebab langsungnya adalah sebuah akun AI bernama TomWikiAssist. Awal Maret tahun ini, akun ini secara mandiri membuat dan menyunting beberapa entri di Wikipedia, yang kemudian ditemukan oleh komunitas dan ditangani secara darurat.

AI hanya butuh beberapa detik untuk menulis sebuah entri, tetapi relawan membutuhkan waktu berjam-jam untuk memverifikasi fakta, sumber, dan diksi dalam sebuah entri AI apakah akurat.

Komunitas editor Wikipedia jumlahnya terbatas. Jika AI dapat memproduksi konten tanpa batas, editor manusia tidak akan sanggup meninjau semuanya.

Itu bukan bagian yang paling merepotkan. Wikipedia adalah salah satu sumber data pelatihan terpenting untuk model AI global. AI belajar pengetahuan dari Wikipedia, lalu menggunakan yang dipelajarinya untuk menulis entri Wikipedia baru, entri baru itu kemudian dimakan oleh model AI generasi berikutnya untuk terus dilatih.

Begitu informasi salah yang dihasilkan AI menyusup, itu akan terus diperbesar dalam siklus ini, menjadi semacam keracunan AI berlapis:

AI mencemari data pelatihan, data pelatihan kemudian mencemari AI.

Namun, kebijakan Wikipedia juga menyisakan dua celah untuk AI: editor dapat menggunakan AI untuk memoles teks yang mereka tulis sendiri, dan dapat menggunakan AI untuk membantu penerjemahan. Tetapi kebijakan tersebut secara khusus memperingatkan bahwa AI akan "melampaui permintaan Anda, mengubah makna teks, membuatnya tidak sesuai dengan sumber yang dikutip".

Penulis manusia membuat kesalahan, Wikipedia selama lebih dari dua puluh tahun mengandalkan kolaborasi komunitas untuk terus memperbaikinya. AI berbuat salah dengan cara yang berbeda, hal-hal yang diada-adakannya terlihat lebih nyata daripada yang asli, dan dapat diproduksi secara massal.

Sebuah sekolah mempercayai penilaian AI, hasilnya kehilangan seorang pustakawan. Wikipedia memilih untuk tidak percaya, langsung menutup pintunya.

Tapi bagaimana jika bahkan pembuat AI sendiri mulai tidak percaya?

Pembuat AI Sendiri, Takut Duluan

Lembaga di luar sedang menutup pintu untuk AI, perusahaan AI sendiri juga sedang menarik diri.

Minggu yang sama, OpenAI menunda tanpa batas waktu "mode dewasa" ChatGPT. Fitur ini awalnya direncanakan diluncurkan pada bulan Desember tahun lalu, memungkinkan pengguna dewasa yang telah memverifikasi usia untuk melakukan percakapan erotis dengan ChatGPT.

CEO Sam Altman sendiri yang mengumumkannya pada bulan Oktober tahun lalu, dengan kalimat aslinya adalah "memperlakukan pengguna dewasa seperti orang dewasa".

Hasilnya, setelah ditunda tiga kali, langsung dibatalkan.

Menurut laporan Financial Times Inggris, dewan penasihat kesehatan internal OpenAI menentang fitur ini dengan suara bulat. Kekhawatiran para penasihat cukup spesifik: pengguna akan mengembangkan ketergantungan emosional yang tidak sehat pada AI, dan anak di bawah umur pasti akan menemukan cara untuk melewati verifikasi usia.

Seorang penasihat berkata lebih langsung: tanpa perbaikan signifikan, hal ini bisa menjadi "pelatih bunuh diri yang seksi".

Tingkat kesalahan sistem verifikasi usia lebih dari 10%. Dengan skala 800 juta pengguna aktif ChatGPT per minggu, 10% berarti puluhan juta orang mungkin salah diklasifikasikan.

Mode dewasa bukan satu-satunya produk yang dipotong bulan ini. Alat video AI Sora, fungsi pembayaran instan bawaan ChatGPT, semuanya diturunkan pada waktu yang sama. Altman mengatakan perusahaan akan fokus pada bisnis inti, memotong "tugas sampingan".

Tapi OpenAI bersamaan sedang mempersiapkan IPO.

Sebuah perusahaan yang sedang mengejar penawaran umum perdana, memotong fitur-fitur yang berpotensi memicu kontroversi, nama yang lebih akurat untuk tindakan ini mungkin bukan fokus.

Lima bulan lalu Altman masih mengatakan ingin memperlakukan pengguna seperti orang dewasa, lima bulan kemudian dia menemukan, perusahaannya sendiri belum搞清楚 (memahami sepenuhnya) apa yang boleh dan tidak boleh disentuh pengguna oleh AI.

Bahkan pembuat AI sendiri tidak memiliki jawabannya. Lalu siapa yang seharusnya menarik garis ini?

Selisih Kecepatan yang Tak Tertandingi

Jika Anda menyatukan ketiga hal ini, mudah untuk menarik kesimpulan inti:

Kecepatan AI memproduksi konten, dan kecepatan manusia memoderasi konten, sudah tidak berada pada tingkat yang sama.

Pilihan sekolah di Manchester itu, dalam konteks ini sangat mudah dipahami. Berapa lama waktu yang dibutuhkan untuk meminta pustakawan membaca 193 buku satu per satu baru membuat penilaian? Meminta AI menjalankannya, beberapa menit.

Kepala sekolah memilih skema beberapa menit itu, apakah Anda pikir dia benar-benar percaya pada penilaian AI? Saya rasa lebih karena dia tidak ingin menghabiskan waktu itu.

Ini adalah masalah ekonomi. Biaya produksi mendekati nol, biaya moderasi sepenuhnya ditanggung oleh manusia.

Jadi, setiap lembaga yang dipengaruhi AI, dipaksa untuk merespons dengan cara yang paling kasar: Wikipedia langsung melarang, OpenAI langsung memotong lini produk. Tidak ada skema yang merupakan hasil pertimbangan matang, semuanya adalah menutup dulu karena tidak sempat memikirkannya dengan jelas.

"Tutup dulu baru bicara" sedang menjadi norma.

Kemampuan AI beriterasi setiap beberapa bulan, sementara diskusi tentang konten yang boleh disentuh AI, bahkan belum memiliki kerangka internasional yang layak. Setiap lembaga hanya mengurus garis di halamannya sendiri, garis-garis itu saling bertentangan, dan tidak ada yang mengoordinasikannya.

Kecepatan AI masih meningkat. Tenaga moderator tidak akan bertambah. Selisih gunting ini hanya akan semakin besar, sampai suatu hari terjadi sesuatu yang jauh lebih serius daripada melarang '1984'.

Pada saat itu baru menarik garis, mungkin sudah terlambat.

Pertanyaan Terkait

QMengapa AI di sebuah sekolah di Manchester memutuskan untuk melarang buku '1984' karya George Orwell?

AAI melarang buku '1984' karena alasan 'mengandung tema penyiksaan, kekerasan, dan paksaan seksual'.

QApa yang terjadi pada pustakawan sekolah yang menolak rekomendasi AI untuk melarang buku-buku tersebut?

APustakawan tersebut diselidiki oleh sekolah dengan alasan 'keamanan anak', dilaporkan ke pemerintah daerah, dan akhirnya mengundurkan diri karena tekanan. Investigasi pemerintah daerah menyimpulkan bahwa ia melanggar prosedur keamanan anak.

QKeputusan apa yang diambil oleh Wikipedia mengenai penggunaan model bahasa besar (LLM) untuk menulis atau menyunting konten?

AWikipedia secara resmi melarang penggunaan model bahasa besar (LLM) untuk menghasilkan atau menulis ulang konten artikel, dengan suara 44 setuju dan 2 menentang.

QMengapa OpenAI membatalkan rencana 'mode dewasa' untuk ChatGPT?

AOpenAI membatalkan 'mode dewasa' karena kekhawatiran dari dewan penasihat kesehatan tentang ketergantungan emosional yang tidak sehat pengguna pada AI dan risiko remaja melewati verifikasi usia. Tingkat kesalahan verifikasi usia melebihi 10%.

QApa masalah utama yang dihadapi manusia dalam menghadapi konten yang dihasilkan AI menurut artikel ini?

AMasalah utamanya adalah kecepatan AI menghasilkan konten jauh melebihi kemampuan manusia untuk memverifikasi dan mengauditnya, menciptakan kesenjangan yang semakin besar. Biaya verifikasi oleh manusia tetap tinggi, sementara biaya generasi AI mendekati nol.

Bacaan Terkait

Saham Chip Cetak Rekor Sejak 2000, Saham SaaS Jatuh ke Terendah Tahun Ini: Dua Dunia di Bawah Garis Pemisah AI

Penulis: Ada, Deep Tide TechFlow Pada 23 April, saham Texas Instruments mencatat performa terbaik sejak tahun 2000, sementara ServiceNow mengalami penurunan terbesar dalam sejarah. Pasar sedang menggambar garis pemisah: infrastruktur AI menang, aplikasi AI kalah. Texas Instruments melaporkan pendapatan Q1 naik 19% menjadi $4,83 miliar, melampaui ekspektasi. Sahamnya naik 18%. Intel juga melaporkan pendapatan $13,58 miliar, jauh di atas perkiraan, dengan saham meroket 20% setelah jam perdagangan. ETF semikonduktor (SMH) naik 28% tahun ini. Di sisi lain, saham perangkat lunak seperti ServiceNow, IBM, Salesforce, dan Adobe anjlok. ServiceNow turun 18%, IBM turun 10%. ETF perangkat lunak (IGV) turun 5% dan memasuki pasar beruang. Alasan di balik perpecahan ini adalah logika sederhana: AI membutuhkan chip dan listrik, sehingga infrastruktur seperti chip pasti menang. Namun, AI mengancam model bisnis SaaS tradisional dengan mengurangi jumlah lisensi yang dibutuhkan dan memungkinkan perusahaan membangun alat internal sendiri dengan biaya lebih rendah. Nilai pasar saham semikonduktor naik ~40% tahun ini, sementara saham perangkat lunak turun >13%. Modal beralih dari lapisan aplikasi ke lapisan infrastruktur dalam sektor teknologi. Meskipun laporan keuangan ServiceNow dan IBM tidak buruk, pasar mengabaikan detailnya dan fokus pada narasi ancaman AI. Valuasi chip sudah sangat tinggi, dengan P/E Texas Instruments di atas 50 dan Intel 120, mencerminkan ekspektasi pertumbuhan AI di masa depan. Perubahan struktural ini menunjukkan bahwa penangkapan nilai AI bermigrasi ke bawah, dari perangkat lunak ke perangkat keras. Pasar percaya pada AI, jadi membeli infrastrukturnya, tetapi masih ragu-ragu tentang aplikasinya. Perpecahan ini akan berlanjut hingga siklus pengeluaran modal AI berikutnya.

marsbit1j yang lalu

Saham Chip Cetak Rekor Sejak 2000, Saham SaaS Jatuh ke Terendah Tahun Ini: Dua Dunia di Bawah Garis Pemisah AI

marsbit1j yang lalu

Trading

Spot
Futures
活动图片