Claude Sengaja Dibodohi, Model AI Juga Mulai 'Bermuka Dua'?

marsbitDipublikasikan tanggal 2026-04-14Terakhir diperbarui pada 2026-04-14

Abstrak

Claude, model AI dari Anthropic, dituduh mengalami penurunan kinerja intelektual ("dibodohi") secara sengaja. Data dari AMD AI menunjukkan penurunan signifikan dalam kedalaman pemrosesan dan penggunaan alat sejak pertengahan Februari. Anthropic mengonfirmasi bahwa ini adalah bagian dari pengoptimalan produk yang disebut "pemikiran adaptif," yang menyesuaikan upaya pemrosesan secara dinamis. Insiden ini memicu kemarahan pengguna, terutama yang berbayar, karena perubahan dilakukan tanpa pemberitahuan. Pola ini mencerminkan pergeseran industri AI menuju stratifikasi kemampuan model: versi enterprise yang lebih mahal mendapatkan kinerja penuh, sementara pengguna individu mendapat versiaya dasar yang "cukup". Ini menandai akhir era subsidi dan awal komersialisasi yang lebih terfokus pada B2B, berpotensi mengikis kepercayaan dan narasi AI yang inklusif.

Oleh | Pabrik Model Dunia

Claude jadi lebih bodoh?

Baru-baru ini, Direktur Senior AMD AI Group, Stella Laurenzo, mengkritik Anthropic.

Dia menggunakan log produksi nyata timnya untuk menganalisis ulang 17.871 blok pemikiran dalam 6.852 file sesi, yang melibatkan 234.760 panggilan alat.

Data menunjukkan bahwa Claude mulai menunjukkan penurunan perilaku yang signifikan sejak pertengahan Februari.

Median pemikiran Claude merosot dari 2.200 karakter menjadi hanya 600 karakter, turun 67%-73%;

Jumlah pembacaan file sebelum pengeditan berkurang drastis dari 6,6 kali menjadi hanya 2 kali, bahkan sepertiga modifikasi dilakukan tanpa membaca file sama sekali.

Stella dalam analisisnya mencatat, karena penurunan kemampuan penalaran, model secara bertahap berhenti membaca kode secara lengkap sebelum memodifikasinya.

Dia menulis: "Ketika alur pemikiran menjadi dangkal, model akan secara default mengambil operasi dengan biaya terendah".

Ini bukan kasus isolated, ketidakpuasan developer sudah mulai meluas sejak Maret.

Di X, seorang pengguna menulis: "Aku pikir aku yang jadi gila beberapa minggu terakhir dengan Claude. Rasanya lebih lambat, lebih malas, seperti tidak berpikir sebelum menjawab, hasilnya aku yang berhalusinasi".

Di Reddit juga ada pengguna yang mengeluh: "Claude terasa tidak begitu 'berkesadaran' lagi, seperti menjalani lobotomi. Selain jadi lebih bodoh, dia juga mulai melakukan operasi ekstrem tanpa bertanya...".

Ada juga yang menyatakan ini adalah pengkhianatan telanjang Anthropic terhadap pengguna: "Mereka hanya membuat masalahnya tidak terlihat oleh kami semua pengguna, intinya 'kalau kamu tidak bisa mengukurnya, saya tidak akan menunjukkannya'... Inilah akibatnya ketika lab AI mengoptimalkan keuntungan daripada kualitas output".

Dari keluhan pengguna hingga data yang konkret,基本上证实了Claude的降智行为 (perilaku pembodohan Claude pada dasarnya telah dikonfirmasi).

Dan tanggapan resmi Anthropic juga mengakui bahwa kedalaman pemikiran dan upaya (effort) memang terus disesuaikan.

Jika ini disengaja oleh Anthropic, apakah itu berarti di masa depan kemampuan model akan 'menyusut' tanpa disadari?

Atau, kemampuan model terkuat, tidak akan lagi disediakan secara setara untuk semua orang?

Pembodohan Claude "Disengaja"

Claude Opus 4.6 dan mode pengkodean khususnya Claude Code, ketika diluncurkan pada Januari 2026, pernah dipuja-puja developer sebagai langit-langit pengkodean.

Kedalaman pemikirannya mencengangkan, research-first (riset dulu baru bertindak), pemrosesan konteks panjang stabil, rekonstruksi multi-file hampir tak tertandingi.

Tim internal AMD bahkan menggunakannya untuk menggabungkan dan meluncurkan 190.000 baris kode warisan hanya dalam akhir pekan, produktivitas langsung maksimal.

Namun titik balik terjadi pada awal Februari.

Anthropic secara diam-diam meluncurkan fitur "adaptive thinking", deskripsi resminya adalah "membuat model menyesuaikan kedalaman pemikiran secara cerdas berdasarkan kompleksitas tugas".

Secara permukaan terlihat ramah pengguna, tetapi sebenarnya mengaktifkan sakelar penghematan global.

Awal Maret, nilai effort default model diam-diam diturunkan ke medium, sementara ringkasan proses pemikiran disembunyikan dengan cepat, pengguna tidak bisa lagi langsung melihat seberapa dalam model berpikir.

Pada periode yang sama, Anthropic merilis 14 pembaruan versi kecil secara beruntun, tetapi mengalami 5 kali gangguan downtime besar, menunjukkan tekanan komputasi dan beban sudah mendekati batas.

Umpan balik developer mulai meluas, ada yang memperhatikan kinerja terutama buruk pada jam sibuk (sore waktu AS), mencurigai adanya pembatasan dinamis karena beban.

Hingga bulan April, Direktur AI AMD turun tangan sendiri, membuktikan dengan data dan memicu kemarahan舆论 (opini publik).

Pada titik ini, kepala Claude Code Anthropic, Boris Cherny, baru不得不发布了一条官方回复 (akhirnya不得不发布了一条官方回复 - finally had to issue an official response).

Dia menyatakan, "adaptive thinking" mempengaruhi tampilan thinking, bukan penalaran底层 (dasar), dan bersikeras ini adalah "optimasi yang disengaja" bukan bug. Pengguna yang ingin meningkatkan efeknya, dapat secara manual menyesuaikan effort ke high.

Pesan tersirat Anthropic很清楚: Pembodohan bukan bug, adalah优化产品 (optimasi produk) yang kami lakukan khusus, kalian sesuaikan parameternya sendiri saja.

Tanggapan ini瞬间点燃了更大的怒火 (seketika memicu kemarahan yang lebih besar).

Kuncinya adalah, dari pertengahan Februari hingga awal April, Anthropic tidak pernah mengumumkan sebelumnya perubahan signifikan apa pun.

Sejumlah besar pengguna berbayar, tanpa sepengetahuan mereka, biaya langganan tidak berkurang sedikit pun, tetapi model secara diam-diam dibatasi.

Jadi pembodohan Claude bukanlah model "otaknya rusak", melainkan Anthropic melakukan tindakan yang lebih tersembunyi, dan juga lebih komersial:

Dengan menurunkan kedalaman pemikiran default, untuk ditukar dengan kecepatan yang lebih cepat, beban yang lebih rendah, dan biaya GPU yang lebih murah.

Stratifikasi Kemampuan Model

Di balik badai pembodohan ini, sebenarnya ada fenomena yang perlu diwaspadai:

Kemampuan model已经开始分层 (telah mulai berstratifikasi).

Perhitungan Stella很直白: Berdasarkan penetapan harga on-demand AWS Bedrock, biaya penalaran aktual timnya pada bulan Maret adalah sekitar $42.121, sedangkan biaya langganan Claude Code yang dibayarkan pada bulan yang sama hanya $400.

Selisih ini setidaknya menunjukkan bahwa dalam skenario penggunaan berat ekstrem, ada kesenjangan besar antara biaya langganan dan konsumsi daya komputasi nyata.

Kemungkinan besar ini adalah pangsa pasar yang dibeli Anthropic dengan membakar uang modal, tetapi subsidi ini memiliki batas.

Ketika konsumsi penalaran pengguna berat mencapai ambang batas tertentu, keberlanjutan model bisnis mulai goyah.

Boris Cherny dalam tanggapannya mengungkapkan sinyal kunci: Anthropic sedang menguji untuk secara default mengaktifkan mode high effort bagi pengguna Teams dan Enterprise.

Dengan kata lain, penalaran yang lebih kuat sedang dikonfigurasi berlapis sebagai sumber daya yang lebih mahal, bukan lagi kemampuan yang diperoleh secara setara oleh semua orang secara default.

Ini berarti model bisnis model besar akan semakin terdiferensiasi.

Saat ini 80% pendapatan perusahaan Anthropic berasal dari layanan perusahaan dan panggilan API, B端 (pihak B) dengan keterikatan tinggi才是真正的命脉 (adalah urat nadi sebenarnya).

Berbagai tindakan Anthropic saat ini都是为了把企业使用往自己的第一方平台里收 (semua bertujuan untuk menarik penggunaan perusahaan ke platform first-party mereka sendiri).

Untuk klien B端 bernilai tinggi, Anthropic kemungkinan besar akan mempercepat peluncuran versi enterprise yang lebih kuat, menyediakan kemampuan model lengkap untuk klien perusahaan yang membayar biaya nyata.

Sedangkan pengguna C端 pembayaran bulanan,只能继续享用 (hanya bisa terus menikmati) versi bodoh "cukup digunakan saja", memenuhi obrolan, penulisan naskah, penyempurnaan kode dan kebutuhan ringan lainnya, tetapi绝不触及 (sama sekali tidak menyentuh) garis batas biaya.

Adapun zona tengah, pengembang independen, tim kecil yang既需要 (既需要 -既需要 -既需要 -既需要 kompleks penalaran kompleks、又无力承担 (dan又无力承担 -又无力承担 -又无力承担 -又无力承担 tidak mampu menanggung) harga enterprise,将成为最受挤压的群体 (akan menjadi kelompok yang paling tertekan).

Seorang pengguna di X memposting konfirmasi:

"Kinerja API versi enterprise Claude jauh lebih baik daripada langganan Pro/Max. Menggunakan kerangka pengujian yang sama, perilaku versi enterprise dan Pro/Max memang berbeda. Tetapi ini juga berarti sekarang harus menghabiskan $4-12k per bulan, tergantung berapa banyak thread yang saya jalankan secara bersamaan".

Artinya, jalankomersialisasi模型 besar di masa depan,大概率是 (kemungkinan besar adalah) B端优先 (B端 diutamakan)、C端降本 (C端 pengurangan biaya).

Siapa yang Menanggung Biaya Pembodohan?

Peristiwa pembodohan Claude,绝不是孤例 (sama sekali bukan contoh terisolasi),而是整个AI行业进入商业化下半场的缩影 (melainkan miniatur dari seluruh industri AI memasuki babak kedua komersialisasi).

Baik OpenAI yang多次暗地缩水降级 (berkali-kali diam-diam menyusut dan menurunkan tingkat) seri GPT,还是Google对Gemini静默限流 (atau Google membatasi aliran diam-diam对Gemini),都在重复同一个剧本: (semua mengulangi naskah yang sama:)

Pertama gunakan kinerja tinggi untuk memancing pengguna, lalu kontrol biaya melalui penghematan perangkat lunak.

Hasil yang pasti adalah, B端 bisa membeli model yang lebih kuat dengan harga tinggi, ditambah jaminan SLA, sedangkan C端 mendapatkan model rakyat versi distilasi, low effort.

Kecepatan peningkatan kecerdasan model C端,已经明显落后于 (telah明显落后于 - telah明显落后于 - telah明显落后于 - telah明显落后于 jelas tertinggal dari) B端.

Lebih parahnya, diferensiasi ini bersifat隐性 (tersembunyi).

Anthropic dan vendor lain正以一种难以察觉的方式降低推理预算 (sedang menurunkan anggaran penalaran dengan cara yang sulit diperhatikan), pengguna biasa tidak akan menerima提示 apa pun (petunjuk apa pun).

Pilihan ini dalam jangka pendek mungkin dapat meredakan tekanan biaya komputasi, tetapi代价 jangka panjang adalah hilangnya kepercayaan merek.

Ketika Claude会偷偷降智 menjadi konsensus pengguna, Anthropic kehilangan bukan hanya beberapa pengguna berat, melainkan kepercayaan seluruh ekosistem terhadap narasi普惠AI (AI inklusif)、透明 (transparan).

Secara lebih makro, peristiwa Claude adalah miniatur industri AI yang beralih dari pertumbuhan liar ke pengelolaan intensif.

Masa subsidi结束了 (selesai), biaya nyata开始显现 (mulai muncul), siapa yang akan menanggung biaya ini?

Apakah dengan memampatkan pengalaman C端 seperti ini、提高B端定价 (menaikkan harga B端),还是等待软硬件革命带来效率突破 (atau menunggu revolusi perangkat lunak dan keras membawa terobosan efisiensi), ini semua akan menentukan格局 aplikasi AI lima tahun ke depan (lanskap aplikasi AI lima tahun ke depan).

Tren masa depan已初见苗头 (telah menunjukkan tanda-tanda awal), AI不再是越来越聪明的普惠神话 (bukan lagi mitos inklusif yang semakin cerdas),而是走向精英化分层 (melainkan menuju stratifikasi elitis).

Pertanyaan Terkait

QApa yang menyebabkan Claude mengalami penurunan kinerja menurut analisis data Stella Laurenzo?

AMenurut analisis data Stella Laurenzo dari AMD AI Group, Claude mengalami penurunan signifikan dalam pemikiran median dari 2.200 karakter menjadi hanya 600 karakter (turun 67-73%), dan membaca file sebelum mengedit turun dari 6.6 kali menjadi hanya 2 kali. Sepertiga modifikasi bahkan dilakukan tanpa membaca file sama sekali.

QBagaimana Anthropic menanggapi tuduhan penurunan kinerja Claude?

AAnthropic melalui perwakilan Boris Cherny membenarkan bahwa perubahan tersebut adalah 'optimasi yang disengaja' bukan bug. Mereka memperkenalkan fitur 'adaptive thinking' yang menyesuaikan kedalaman pemikiran berdasarkan kompleksitas tugas, dan menyarankan pengguna mengatur effort secara manual ke 'high' untuk hasil lebih baik.

QApa implikasi komersial dari insiden penurunan kinerja Claude ini?

AInsiden ini mengungkap pembagian kemampuan model yang tidak setara: pengguna enterprise membayar premium (hingga $4-12k/bulan) mendapatkan kemampuan penuh, sementara pengguna individual mendapat versi 'cukup-untuk-digunakan' dengan biaya lebih rendah, menciptakan stratifikasi elit dalam akses AI.

QMengapa Anthropic diduga melakukan pembatasan kemampuan Claude secara diam-diam?

AAnalisis biaya menunjukkan ketidakseimbangan antara biaya komputasi aktual ($42.121) dan biaya langganan ($400), membuat pembatasan kapasitas menjadi solusi untuk keberlanjutan bisnis. Beban komputasi yang berat mendorong pengoptimalan biaya melalui pembatasan default.

QApa dampak jangka panjang dari stratifikasi kemampuan model AI seperti yang terjadi pada Claude?

ADampaknya termasuk erosi kepercayaan pengguna terhadap transparansi penyedia AI, percepatan pengembangan versi enterprise yang lebih kuat, dan marginalisasi pengembang independen yang tidak mampu membayar harga premium, mengubah narasi AI yang inklusif menjadi layanan bertingkat elit.

Bacaan Terkait

Trading

Spot
Futures
活动图片