Tim Peneliti Zhejiang University Usulkan Jalur Baru: Ajarkan Cara Otak Manusia Memahami Dunia kepada AI

marsbitDipublikasikan tanggal 2026-04-05Terakhir diperbarui pada 2026-04-05

Abstrak

Tim peneliti Zhejiang University menerbitkan penelitian di Nature Communications yang menantang pandangan umum bahwa model AI yang lebih besar selalu lebih baik. Mereka menemukan bahwa meskipun model seperti SimCLR, CLIP, dan DINOv2 menjadi lebih baik dalam mengenali objek konkret saat parameternya ditambah (dari 22,06 juta menjadi 304,37 juta), kemampuan mereka untuk memahami konsep abstrak justru menurun (dari 54,37% menjadi 52,82%). Perbedaan utama terletak pada cara otak manusia dan AI mengorganisir konsep. Otak manusia secara alami membentuk hierarki kategori yang luas (seperti "hewan"), memungkinkan generalisasi dan adaptasi cepat ke objek baru. Sebaliknya, AI unggul dalam mengenali objek spesifik yang sering muncul dalam data tetapi kesulitan membentuk kategori abstrak yang stabil. Solusi tim adalah menggunakan sinyal otak manusia (aktivitas otak saat melihat gambar) sebagai pengawasan untuk mentransfer struktur konseptual manusia ke dalam model. Dalam eksperimen, pendekatan ini berhasil mengurangi jarak antara representasi model dan otak, meningkatkan kemampuan belajar model dengan data sedikit (*few-shot learning*) hingga 20,5%, dan mengungguli model yang jauh lebih besar dalam tugas klasifikasi abstrak. Penelitian ini menggeser fokus dari sekadar memperbesar model (*bigger is better*) ke membangun struktur kognitif yang lebih cerdas (*structured is smarter*), membuka jalan bagi AI yang memiliki kemampuan abstraksi, generalisasi, dan evolusi berkelanjutan seperti ...

Model besar terus membesar, dan pandangan umum menyatakan bahwa semakin banyak parameter model, semakin mendekati cara berpikir manusia. Namun, sebuah makalah yang diterbitkan oleh tim Zhejiang University pada 1 April di Nature Communications menawarkan perspektif berbeda (tautan asli: https://www.nature.com/articles/s41467-026-71267-5). Mereka menemukan bahwa ketika skala model (terutama SimCLR, CLIP, DINOv2) bertambah besar, kemampuan untuk mengenali objek spesifik memang terus meningkat, tetapi kemampuan untuk memahami konsep abstrak tidak hanya tidak meningkat, bahkan bisa menurun. Ketika parameter bertambah dari 22.06 juta menjadi 304.37 juta, tugas konsep spesifik naik dari 74.94% menjadi 85.87%, sedangkan tugas konsep abstrak turun dari 54.37% menjadi 52.82%.

Perbedaan Cara Berpikir Manusia dan Model

Saat memproses konsep, otak manusia pertama-tama membentuk seperangkat hubungan klasifikasi. Angsa dan burung hantu terlihat berbeda, tetapi manusia tetap akan mengelompokkannya ke dalam kategori burung. Lebih tinggi lagi, burung dan kuda dapat dikelompokkan ke dalam lapisan hewan. Ketika melihat sesuatu yang baru, manusia sering kali pertama-tama berpikir, benda ini mirip dengan apa yang pernah dilihat sebelumnya, dan kira-kira termasuk dalam kategori mana. Manusia terus-menerus belajar konsep baru, lalu mengorganisir pengalaman tersebut, dan menggunakan hubungan ini untuk mengenali hal baru dan beradaptasi dengan situasi baru.

Model juga mengklasifikasikan, tetapi cara pembentukannya berbeda. Model terutama mengandalkan pola yang muncul berulang kali dalam data skala besar. Semakin sering suatu objek spesifik muncul, semakin mudah bagi model untuk mengenalinya. Ketika sampai pada langkah kategori yang lebih besar, model agak kesulitan. Model perlu menangkap kesamaan antara berbagai objek, lalu mengelompokkan kesamaan-kesamaan ini ke dalam kategori yang sama. Model yang ada masih memiliki kelemahan yang jelas di sini. Ketika parameter terus membesar, tugas konsep spesifik akan meningkat, sedangkan tugas konsep abstrak terkadang justru menurun.

Kesamaan antara otak manusia dan model adalah keduanya membentuk seperangkat hubungan klasifikasi internal. Namun, fokus keduanya berbeda; daerah visual tingkat tinggi otak manusia secara alami memisahkan kategori besar seperti makhluk hidup dan non-hidup. Model dapat memisahkan objek spesifik, tetapi sulit untuk secara stabil membentuk kategori yang lebih besar ini. Perbedaan ini menyebabkan otak manusia lebih mudah menerapkan pengalaman lama ke objek baru, sehingga ketika menghadapi sesuatu yang belum pernah dilihat, kita dapat mengklasifikasikannya dengan cepat. Sementara itu, model lebih bergantung pada pengetahuan yang ada, sehingga ketika menemui objek baru, model更容易 (lebih mudah) berhenti pada fitur permukaan. Metode yang diusulkan dalam makalah ini dikembangkan围绕 (berpusat pada) karakteristik ini, menggunakan sinyal otak untuk membatasi struktur internal model, membuatnya lebih mendekati cara klasifikasi otak manusia.

Solusi dari Tim Zhejiang University

Solusi yang diberikan tim juga sangat unik, bukan dengan terus menumpuk parameter, melainkan menggunakan sedikit sinyal otak sebagai supervisi. Sinyal otak di sini berasal dari rekaman aktivitas otak manusia saat melihat gambar. Makalah aslinya menyatakan, mentransfer struktur konseptual manusia (human conceptual structures) ke DNNs. Artinya, sebisa mungkin mengajarkan kepada model bagaimana otak manusia mengklasifikasikan, menginduksi, dan menempatkan konsep-konsep yang saling berdekatan.

Tim melakukan eksperimen dengan 150 kategori pelatihan yang diketahui dan 50 kategori pengujian yang belum pernah dilihat. Hasilnya menunjukkan bahwa seiring dengan pelatihan ini berlangsung, jarak antara model dan representasi otak terus menyusut. Perubahan ini terjadi secara bersamaan pada kedua kategori, yang menunjukkan bahwa yang dipelajari model bukanlah sampel individual, tetapi benar-benar mulai mempelajari cara organisasi konseptual yang lebih mendekati otak manusia.

Setelah melalui pelatihan ini, kemampuan belajar model dengan sampel yang sangat sedikit menjadi lebih kuat, dan kinerjanya juga lebih baik ketika menghadapi situasi baru. Dalam sebuah tugas yang hanya memberikan sangat sedikit contoh tetapi meminta model untuk membedakan konsep abstrak seperti makhluk hidup dan non-hidup, model mengalami peningkatan rata-rata 20.5%, bahkan melampaui model kontrol yang memiliki parameter jauh lebih besar. Tim juga melakukan 31 set pengujian khusus tambahan, di mana beberapa jenis model menunjukkan peningkatan mendekati satu dekade (sekitar 10%).

Beberapa tahun terakhir, jalur yang familiar di industri model adalah skala model yang lebih besar. Tim Zhejiang University justru memilih arah lain, dari 'bigger is better' menuju 'structured is smarter'. Ekspansi skala memang sangat berguna, tetapi terutama meningkatkan kinerja dalam tugas-tugas yang familiar. Kemampuan pemahaman abstrak dan transferensi ala manusia juga sangat penting bagi AI, yang memerlukan struktur pemikiran AI di masa depan yang lebih mendekati otak manusia. Nilai arah ini terletak pada kemampuannya untuk menarik kembali perhatian industri dari sekadar ekspansi skala, kembali ke struktur kognitif itu sendiri.

Neosoul dan Masa Depan

Ini memunculkan kemungkinan yang lebih besar: evolusi AI tidak harus hanya terjadi pada fase pelatihan model. Pelatihan model dapat menentukan bagaimana AI mengorganisir konsep, bagaimana membentuk struktur penilaian yang lebih berkualitas. Setelah memasuki dunia nyata, lapisan evolusi lain AI baru saja dimulai: bagaimana penilaian AI agent dicatat, diuji, dan terus tumbuh berevolusi dalam kompetisi nyata satu sama lain, belajar dan berevolusi mandiri layaknya manusia. Inilah yang sedang dilakukan Neosoul saat ini. Neosoul tidak hanya membuat AI agent menghasilkan jawaban, tetapi menempatkan AI agent ke dalam sistem yang terus memprediksi, memverifikasi, menyelesaikan, dan menyaring, sehingga terus mengoptimalkan dirinya sendiri dalam prediksi dan hasil, mempertahankan struktur yang lebih baik, dan mengeliminasi struktur yang lebih buruk. Apa yang dituju bersama oleh tim Zhejiang University dan Neosoul sebenarnya adalah tujuan yang sama: membuat AI tidak hanya pandai mengerjakan soal, tetapi juga memiliki kemampuan berpikir yang komprehensif dan terus berevolusi.

Pertanyaan Terkait

QApa yang ditemukan oleh tim peneliti Zhejiang University dalam penelitian mereka yang diterbitkan di Nature Communications?

ATim menemukan bahwa ketika model AI (seperti SimCLR, CLIP, DINOv2) diperbesar, kemampuannya untuk mengenali objek konkret meningkat, tetapi kemampuannya untuk memahami konsep abstrak justru menurun atau stagnan.

QApa perbedaan utama antara cara otak manusia dan model AI dalam mengkategorikan konsep?

AOtak manusia secara alami membentuk hierarki kategori yang luas (seperti 'hewan' atau 'benda hidup'), sedangkan model AI lebih unggul dalam mengidentifikasi objek spesifik tetapi kesulitan membentuk kategori abstrak yang stabil tanpa data yang banyak.

QBagaimana solusi yang diusulkan tim Zhejiang University untuk meningkatkan kemampuan model AI dalam memahami konsep abstrak?

AMereka menggunakan sinyal otak manusia (rekaman aktivitas otak saat melihat gambar) sebagai pengawasan untuk melatih model, mentransfer struktur konseptual manusia ke dalam jaringan saraf dalam (DNNs).

QApa hasil dari eksperimen yang menggunakan 150 kategori latih dan 50 kategori uji yang belum pernah dilihat?

AJarak antara representasi model dan representasi otak manusia menyusut, menunjukkan bahwa model mulai mempelajari cara mengorganisir konsep yang lebih mirip dengan otak, dan kinerjanya pada tugas-tugas baru meningkat signifikan.

QApa hubungan antara penelitian Zhejiang University dan Neosoul yang disebutkan dalam artikel?

AKeduanya berbagi tujuan yang sama: membuat AI tidak hanya menjawab pertanyaan, tetapi memiliki kemampuan berpikir yang komprehensif dan dapat terus berevolusi seperti manusia, dengan struktur yang lebih baik dan kemampuan beradaptasi.

Bacaan Terkait

Demam Saham Penyimpanan AS Meluas Ketiga Kalinya ke Kripto, VVV Memimpin Pergerakan Sektor 'Infrastruktur Data AI'

**Alur Penyebaran Pasar Penyimpanan AS ke Kripto: Dari Tokens Penyimpanan ke Infrastruktur Data AI** Gelombang antusiasme "siklus super" chip penyimpanan di pasar saham AS telah meluap ke pasar kripto. Aksi harga dimulai pada 6 Mei dengan kenaikan kuat Filecoin (FIL), Arweave (AR), dan Storj (STORJ), yang dikaitkan dengan limpahan dana dari perdagangan saham penyimpanan AS. Penyebaran berlanjut pada 7 Mei dengan lonjakan 69% IO, menunjukkan bahwa kenaikan mulai meluas ke sektor DePIN (Decentralized Physical Infrastructure Networks) secara lebih luas. Pada 11 Mei, fokus bergeser dari *tokens penyimpanan murni* menuju ke *infrastruktur AI yang lebih luas*. Venice Token (VVV), token asli platform AI inferensi terdesentralisasi Venice, memimpin kenaikan dengan 17.63%. Ini didorong oleh faktor internal seperti mekanisme pembakaran token dan kemitraan baru, di samping faktor eksternal dari sentimen pasar AS. Menariknya, proyek penyimpanan terdesentralisasi tradisional seperti AIOZ Network dan Chia hanya mencatat kenaikan kurang dari 4% pada hari yang sama. Pola ini menunjukkan bahwa pasar telah memasuki fase di mana dana selektif memilih aset dengan narasi dan katalis spesifik, bukan sekadar mengikuti beta dari sektor penyimpanan. Kesinambungan tren ini akan sangat bergantung pada apakah euforia chip penyimpanan di pasar saham AS dapat bertahan, yang saat ini didukung oleh kondisi fundamental seperti kekurangan pasokan HBM hingga 2026.

marsbit3m yang lalu

Demam Saham Penyimpanan AS Meluas Ketiga Kalinya ke Kripto, VVV Memimpin Pergerakan Sektor 'Infrastruktur Data AI'

marsbit3m yang lalu

Memahami Alasan Kenaikan Gila Industri Penyimpanan Akhir-akhir Ini

Penulis: hoidya|0xU Industri penyimpanan data terdiri dari tiga produk inti: DRAM, NAND, dan HBM. Secara historis, industri ini sangat siklikal karena ketidakselarasan antara permintaan yang terkait siklus elektronik konsumen dan penawaran yang butuh waktu lama untuk menambah kapasitas. Harga didorong oleh siklus persediaan. Era AI mengubah struktur ini secara mendasar. Kebutuhan AI, terutama untuk pelatihan dan inferensi model besar, bersifat terus-menerus dan mendorong permintaan tinggi untuk HBM (High Bandwidth Memory). Profitabilitas HBM yang lebih tinggi menyebabkan produsen seperti Samsung, SK hynix, dan Micron mengalihkan kapasitas produksi dari DRAM/NAND tradisional ke HBM. Hal ini menciptakan kelangkaan pasokan di pasar DRAM dan NAND tradisional. Pasar bergeser dari sistem "spot market" ke "sistem alokasi kontrak" jangka panjang. Waktu pengiriman memanjang secara signifikan, harga melonjak, dan likuiditas spot menurun, membentuk siklus umpan balik positif yang semakin mendorong kenaikan harga. Kekuatan penetapan harga beralih ke struktur kontrak. Pemasok HBM dan hyperscaler cloud (seperti Microsoft, AWS) yang mengunci pasokan mendapatkan keuntungan. Siklus super ini bergantung pada pertumbuhan permintaan AI yang terus melebihi ekspansi kapasitas dan kecepatan inovasi teknologi. Risiko utama termasuk penurunan belanja modal AI, teknologi memori pengganti, atau ekspansi kapasitas yang terlalu agresif.

marsbit25m yang lalu

Memahami Alasan Kenaikan Gila Industri Penyimpanan Akhir-akhir Ini

marsbit25m yang lalu

Trading

Spot
Futures
活动图片