Catatan Editor: Di tengah narasi investasi dan industri AI yang terus memanas, pertanyaan "apakah ada gelembung" telah menjadi isu inti yang berulang kali dibahas pasar. Di satu sisi, narasi risiko ekstrem terus memperkuat kekhawatiran akan teknologi yang lepas kendali; di sisi lain, pengeluaran modal dan tingkat valuasi yang berkembang pesat juga membuat "teori gelembung" selalu tidak pernah hilang. Dalam perbedaan pendapat ini, penilaian pasar menunjukkan ketidakpastian yang jelas.
Penulis artikel ini, Ben Thompson, adalah pendiri platform analisis teknologi Stratechery, yang telah lama memfokuskan pada evolusi struktur industri dan model bisnis teknologi. Menjelang diselenggarakannya NVIDIA GTC 2026, dia merevisi penilaian sebelumnya tentang "apakah AI berada dalam gelembung": tidak lagi menganggap saat ini sebagai gelembung, tetapi memahaminya sebagai pertumbuhan struktural yang didorong oleh perubahan paradigma teknologi.
Penilaian ini didasarkan pada pengamatan tiga lompatan kunci LLM. Sejak ChatGPT pertama kali menunjukkan kemampuan model bahasa besar kepada pasar pada tahun 2022, LLM telah berkembang dari "dapat digunakan tetapi tidak andal", menjadi "memiliki kemampuan penalaran", hingga "mampu menjalankan tugas secara mandiri". Terutama pada akhir 2025, dengan dirilisnya Anthropic Opus 4.5 dan OpenAI GPT-5.2-Codex, beban kerja agen (agentic) mulai beralih dari konsep menjadi kenyataan.
Kuncinya bukan pada model itu sendiri, tetapi pada kemunculan "agent harness". Agen memisahkan pengguna dari model, bertanggung jawab untuk menjadwalkan model, memanggil alat, dan memverifikasi hasil, mengubah AI dari alat yang membutuhkan intervensi manusia terus-menerus menjadi sistem eksekusi yang dapat dipercayakan tugas. Perubahan ini tidak hanya meningkatkan keandalan, tetapi juga memperluas batas aplikasi AI.
Berdasarkan perubahan paradigma ini, penulis lebih lanjut menunjuk bahwa ekspansi permintaan AI tidak lagi tergantung pada skala pengguna, tetapi lebih pada kemampuan penjadwalan per pengguna; pada saat yang sama, beban kerja agen memiliki karakteristik "pemenang mengambil semua", yang akan terus mendorong permintaan akan komputasi kinerja tinggi, dan membawa peluang struktural bagi produsen chip dan penyedia layanan cloud.
Dalam kerangka ini, pengeluaran modal skala besar saat ini tidak lagi hanya merupakan taruhan spekulatif untuk masa depan, tetapi lebih mungkin merupakan cerminan depan dari permintaan nyata. Seiring AI beralih dari "alat bantu" menjadi "infrastruktur eksekusi", dampak ekonominya, mungkin baru mulai terlihat.
Berikut adalah teks aslinya:
Dulu, saya cenderung pada yang terakhir, bahkan berpikir bahwa gelembung dalam tahap tertentu belum tentu buruk.
Tapi saat ini, berdiri pada Maret 2026, menjelang pembukaan NVIDIA GTC, penilaian saya berubah: ini belum tentu gelembung. (Dan ironisnya, penilaian ini sendiri, mungkin justru merupakan sinyal gelembung.)
Tiga Lompatan Paradigma LLM
Beberapa minggu terakhir, saat membahas laporan keuangan NVIDIA dan Oracle, saya berulang kali menyebutkan bahwa LLM telah mengalami tiga lompatan kunci.
Tahap Pertama: ChatGPT
Titik balik pertama adalah peluncuran ChatGPT pada November 2022, yang hampir tidak perlu dijelaskan lagi. Meskipun model bahasa besar berbasis Transformer telah muncul sejak 2017, dan kemampuannya terus meningkat, tetapi lama diremehkan. Bahkan pada Oktober 2022, dalam wawancara Stratechery, saya masih berpikir bahwa teknologi ini meskipun menakjubkan, tetapi kurang dalam hal produk dan dinamika kewirausahaan.
Tapi beberapa minggu kemudian, semuanya benar-benar terbalik. ChatGPT membuat dunia untuk pertama kalinya benar-benar menyadari kemampuan LLM.
Namun, versi awal juga meninggalkan dua kesan mendalam, terutama sering disebutkan oleh "penganut teori gelembung":
Pertama, model sering salah, bahkan saat tidak tahu jawabannya akan "berhalusinasi" dengan membuat-buat. Ini membuatnya lebih seperti "alat pamer", mengagumkan tetapi tidak andal.
Kedua, meskipun demikian tetap sangat berguna, tetapi dengan syarat Anda harus tahu cara menggunakannya, dan perlu terus memeriksa output, mengoreksi kesalahan.
Tahap Kedua: o1
Titik balik kedua adalah model o1 yang dirilis OpenAI pada September 2024. Saat itu, LLM telah mengalami kemajuan signifikan karena model dasar yang lebih kuat dan teknologi pasca-pelatihan, output lebih akurat, halusinasi lebih sedikit.
Tapi terobosan kunci o1 adalah: ia akan "berpikir" dulu, baru menjawab.
LLM tradisional bergantung pada jalur, sekali salah dalam proses penalaran, akan terus salah sampai akhir. Ini adalah kelemahan mendasar dari "model autoregresif". Sedangkan model penalaran akan mengevaluasi jawaban sendiri, ia akan menghasilkan jawaban dulu, lalu menilai apakah benar, jika perlu mencoba jalur lain.
Ini berarti, model mulai secara aktif mengelola kesalahan, mengurangi beban intervensi pengguna. Hasilnya juga sangat signifikan. Jika terobosan ChatGPT adalah "membuat LLM dapat digunakan", maka terobosan o1 adalah "membuat LLM andal".
Tahap Ketiga: Agent (Opus 4.5 / Codex)
Akhir 2025, lompatan ketiga muncul.
November 2025, Anthropic merilis Opus 4.5, awalnya tanggapan biasa-biasa saja. Tapi pada Desember, model Claude Code yang dilengkapi model ini tiba-tiba menunjukkan kemampuan yang belum pernah ada sebelumnya; hampir bersamaan, OpenAI merilis GPT-5.2-Codex, juga menunjukkan level serupa.
Orang-orang sebelumnya terus membicarakan "Agent", tetapi pada saat ini, mereka akhirnya mulai benar-benar menyelesaikan tugas, bahkan tugas kompleks yang membutuhkan berjam-jam, dan diselesaikan dengan benar.
Kuncinya bukan pada model itu sendiri, tetapi pada lapisan kontrol (harness), yaitu lapisan perangkat lunak yang menjadwalkan model, memanggil alat, menjalankan proses. Dengan kata lain, pengguna tidak lagi mengoperasikan model secara langsung, tetapi memberikan tujuan, oleh Agent yang menjadwalkan model, memanggil alat, menjalankan proses dan memverifikasi hasil.
Ambil pemrograman sebagai contoh:
· Tahap pertama: model menghasilkan kode
· Tahap kedua: model melakukan penalaran selama proses generasi
· Tahap ketiga: Agent menghasilkan kode → menjalankan tes → secara otomatis menjalankan tes → jika salah coba lagi, pengguna tidak perlu terus campur tangan.
Ini berarti, cacat inti era ChatGPT sedang diselesaikan secara sistematis, tingkat kebenaran lebih tinggi, kemampuan penalaran lebih kuat, mekanisme verifikasi otomatis.
Satu-satunya masalah yang tersisa adalah: sebenarnya harus digunakan untuk apa?
Alasan saya berulang kali menekankan tiga titik balik ini adalah untuk menjelaskan mengapa seluruh industri sedang sangat kekurangan daya komputasi, dan mengapa pengeluaran modal skala besar adalah wajar.
Tiga paradigma, kebutuhan daya komputasi sangat berbeda:
· Tahap pertama: pelatihan menghabiskan daya komputasi, tetapi biaya inferensi rendah
· Tahap kedua: biaya inferensi melonjak (lebih banyak token + frekuensi penggunaan lebih tinggi)
· Tahap ketiga (Agent): multiple call model inferensi, Agent sendiri juga mengonsumsi daya komputasi (bahkan cenderung CPU), frekuensi penggunaan semakin meledak
Tapi yang lebih penting adalah poin ketiga: perubahan struktur permintaan sangat diremehkan.
Saat ini, orang yang menggunakan chatbot jauh lebih banyak daripada yang menggunakan Agent, dan banyak orang sebenarnya tidak sepenuhnya menggunakan AI. Alasannya adalah menggunakan AI membutuhkan "keaktifan". LLM adalah alat, ia tidak memiliki tujuan, tidak memiliki kehendak, hanya dapat dipanggil secara aktif.
Tapi Agent mengubah ini, ia mengurangi tuntutan keaktifan manusia. Di masa depan, satu orang dapat mengomando multiple Agent secara bersamaan.
Ini berarti, bahkan jika hanya sedikit orang yang memiliki "keaktifan", sudah cukup untuk mendorong permintaan daya komputasi dan output ekonomi yang besar.
AI masih perlu "didorong oleh manusia", tetapi tidak lagi membutuhkan "banyak orang".
Keinginan membayar untuk AI di sisi konsumen terbatas,这一点已经逐渐清晰 (poin ini telah semakin jelas). Yang benar-benar bersedia membayar untuk produktivitas adalah perusahaan.
Perusahaan paling bersemangat, bukan hanya karena AI meningkatkan efisiensi, tetapi karena AI dapat menggantikan tenaga manusia, dan lebih efisien.
Realitas saat ini adalah, di perusahaan besar, yang benar-benar mendorong bisnis ke depan, seringkali adalah minoritas; tetapi organisasinya sangat besar, membawa banyak biaya koordinasi. Peran Agent adalah memperbesar pengaruh "orang yang mendorong nilai", sekaligus mengurangi gesekan organisasi.
Hasilnya adalah "lebih sedikit orang → output lebih tinggi → biaya lebih rendah". Ini juga alasan mengapa, pemutusan hubungan kerja di masa depan,很可能不只是"penyesuaian siklus" (kemungkinan besar bukan hanya "penyesuaian siklus"),而是结构变化 (tetapi perubahan struktural).
Perusahaan akan memikirkan kembali, tidak hanya memikirkan apakah "merekrut terlalu banyak orang di era pandemi", tetapi juga memikirkan di era AI, apakah kita sebenarnya tidak membutuhkan banyak orang?
Mengapa Ini Bukan Gelembung?
Dari sudut pandang ini, logika "bukan gelembung" menjadi cukup jelas:
1. Cacat inti LLM sedang terus diselesaikan oleh daya komputasi dan arsitektur
2. Ambang batas jumlah orang yang mendorong permintaan sedang menurun
3. Manfaat yang dibawa Agent, bukan hanya pengurangan biaya, tetapi juga peningkatan pendapatan
Oleh karena itu, tidak sulit memahami mengapa semua penyedia cloud mengatakan, daya komputasi pasokan tidak mencukupi permintaan, dan terus meningkatkan pengeluaran modal secara signifikan.
Agent dan Rekonstruksi Rantai Nilai
Masalah kunci lainnya adalah, jika model akhirnya menjadi komoditas, apakah OpenAI dan Anthropic masih bisa menghasilkan uang?
Pandangan tradisional认为不会 (mengira tidak), tetapi Agent mengubah ini. Kuncinya adalah, nilai sebenarnya tidak ada pada model itu sendiri, tetapi pada integrasi "model + sistem kontrol".
Keuntungan往往流向"lapisan integrasi" (sering mengalir ke "lapisan integrasi"),而非可替代的模块 (bukan modul yang dapat diganti). Sama seperti Apple, perangkat kerasnya tidak menjadi komoditas karena terintegrasi mendalam dengan perangkat lunak. Demikian pula, Agent membutuhkan sinergi mendalam antara model dan harness, ini membuat OpenAI dan Anthropic menjadi integrator kunci dalam rantai nilai, bukan mata rantai yang dapat diganti.
Perubahan Microsoft adalah sebuah sinyal, awalnya menekankan "model dapat diganti", tetapi setelah meluncurkan produk Agent sejati, terpaksa meninggalkan这一点 (poin ini).
Ini berarti model belum tentu sepenuhnya menjadi komoditas, karena Agent membutuhkan kemampuan terintegrasi.
Paradoks Terakhir
Saya harus kembali ke paradoks di awal.
Saya selalu berpikir, selama大家还在担心泡沫 (semua masih khawatir tentang gelembung),那就还不是泡沫 (maka itu belum gelembung);真正的泡沫 (gelembung sejati),是没人再质疑它的时候 (adalah saat tidak ada yang mempertanyakannya lagi).
Dan sekarang, kesimpulan saya adalah: ini bukan gelembung.
Tapi jika "saya mengatakan ini bukan gelembung"本身 (sendiri),反而证明它是泡沫 (justru membuktikan itu adalah gelembung),那也只能如此了 (maka hanya bisa begitu).






