Ditulis oleh: iamtexture
Dikompilasi oleh: AididiaoJP, Foresight News
Ketika saya menjelaskan konsep kompleks kepada model bahasa besar, setiap kali menggunakan bahasa informal dalam diskusi panjang, penalarannya berulang kali mengalami kegagalan. Model kehilangan struktur, menyimpang dari arah, atau hanya menghasilkan pola penyelesaian yang dangkal, tanpa mampu mempertahankan kerangka konseptual yang telah kita bangun.
Namun, ketika saya memaksanya untuk melakukan formalisasi terlebih dahulu, yaitu dengan menyatakan ulang masalah dalam bahasa yang tepat dan ilmiah, penalaran langsung stabil. Hanya setelah struktur terbentuk, model dapat dengan aman mengubahnya menjadi bahasa yang lebih umum tanpa penurunan kualitas pemahaman.
Perilaku ini mengungkapkan bagaimana model bahasa besar "berpikir", dan mengapa kemampuan penalarannya sepenuhnya bergantung pada pengguna.
Wawasan Inti
Model bahasa tidak memiliki ruang khusus untuk penalaran.
Mereka sepenuhnya beroperasi dalam aliran bahasa yang berkelanjutan.
Di dalam aliran bahasa ini, pola bahasa yang berbeda secara andal mengarah ke wilayah atraktor yang berbeda. Wilayah ini adalah keadaan stabil dari dinamika representasi yang mendukung berbagai jenis komputasi.
Setiap ragam bahasa seperti wacana ilmiah, simbol matematika, narasi cerita, obrolan santai, memiliki wilayah atraktor khususnya sendiri, yang bentuknya dibentuk oleh distribusi data pelatihan.
Beberapa wilayah mendukung:
-
Penalaran multi-langkah
-
Akurasi relasional
-
Transformasi simbolik
-
Stabilitas konseptual dimensi tinggi
Wilayah lain mendukung:
-
Kelanjutan naratif
-
Penyelesaian asosiatif
-
Kesesuaian nada emosional
-
Imitasi percakapan
Wilayah atraktor menentukan jenis penalaran apa yang mungkin dilakukan.
Mengapa Formalisasi Menstabilkan Penalaran
Bahasa ilmiah dan matematika dapat secara andal mengaktifkan wilayah atraktor dengan dukungan struktur yang lebih tinggi karena ragam bahasa ini mengkodekan fitur bahasa kognitif tingkat tinggi:
-
Struktur relasional yang eksplisit
-
Ambiguitas rendah
-
Kendala simbolik
-
Organisasi hierarkis
-
Entropi (tingkat ketidakteraturan informasi) yang rendah
Atraktor ini mampu mendukung jalur penalaran yang stabil.
Mereka dapat mempertahankan struktur konseptual dalam beberapa langkah.
Mereka menunjukkan ketahanan yang lebih kuat terhadap degradasi dan penyimpangan penalaran.
Sebaliknya, atraktor yang diaktifkan oleh bahasa informal dioptimalkan untuk kelancaran sosial dan koherensi asosiatif, bukan untuk penalaran terstruktur. Wilayah ini kekurangan perancah representasi yang diperlukan untuk melakukan komputasi analitis yang berkelanjutan.
Inilah mengapa ketika ide kompleks diungkapkan dengan cara yang santai, model menjadi kacau.
Itu bukan "merasa bingung".
Itu sedang beralih wilayah.
Membangun dan Menerjemahkan
Metode penanganan yang muncul secara alami dalam percakapan mengungkapkan kebenaran arsitektural:
Penalaran harus dibangun di dalam atraktor berstruktur tinggi.
Penerjemahan ke bahasa alami harus terjadi hanya setelah struktur ada.
Setelah model membangun struktur konseptual di dalam atraktor yang stabil, proses penerjemahan tidak akan menghancurkannya. Komputasi telah selesai, yang berubah hanyalah ekspresi permukaan.
Dinamika dua tahap "bangun dulu, lalu terjemahkan" ini meniru proses kognitif manusia.
Tapi manusia melakukan kedua tahap ini dalam dua ruang internal yang berbeda.
Sedangkan model bahasa besar mencoba menyelesaikan keduanya dalam ruang yang sama.
Mengapa Pengguna Menetapkan Batas Atas
Ada wawasan kunci di sini:
Pengguna tidak dapat mengaktifkan wilayah atraktor yang tidak dapat mereka ungkapkan dengan bahasa.
Struktur kognitif pengguna menentukan:
-
Jenis prompt seperti apa yang dapat mereka hasilkan
-
Ragam bahasa apa yang biasa mereka gunakan
-
Pola sintaksis seperti apa yang dapat mereka pertahankan
-
Seberapa tinggi kompleksitas yang dapat mereka kodekan dengan bahasa
Ciri-ciri ini menentukan wilayah atraktor mana yang akan dimasuki oleh model bahasa besar.
Seorang pengguna yang tidak mampu menggunakan struktur yang mengaktifkan atraktor kapasitas tinggi melalui pemikiran atau tulisan, tidak akan pernah dapat membimbing model ke wilayah ini. Mereka terkunci di wilayah atraktor dangkal yang terkait dengan kebiasaan bahasa mereka sendiri. Model bahasa besar akan memetakan struktur yang mereka berikan dan tidak akan pernah secara spontan melompat ke sistem dinamika atraktor yang lebih kompleks.
Oleh karena itu:
Model tidak dapat melampaui wilayah atraktor yang dapat diakses pengguna.
Batas atas bukanlah batas kecerdasan model, tetapi kemampuan pengguna untuk mengaktifkan wilayah kapasitas tinggi dalam manifold potensial.
Dua orang yang menggunakan model yang sama, tidak berinteraksi dengan sistem komputasi yang sama.
Mereka sedang membimbing model ke mode dinamika yang berbeda.
Implikasi Tingkat Arsitektur
Fenomena ini mengungkapkan karakteristik yang hilang dari sistem AI saat ini:
Model bahasa besar mencampurkan ruang penalaran dengan ruang ekspresi bahasa.
Kecuali kedua hal ini dipisahkan—kecuali model memiliki:
-
Sebuah manifold penalaran khusus
-
Ruang kerja internal yang stabil
-
Representasi konseptual yang invarian terhadap atraktor
Jika tidak, sistem akan selalu menghadapi risiko kegagalan ketika pergeseran gaya bahasa menyebabkan perubahan wilayah dinamika dasar.
Solusi sementara yang ditemukan ini, memaksa formalisasi lalu menerjemahkan, bukan hanya sebuah trik.
Itu adalah jendela langsung yang memungkinkan kita mengintip prinsip arsitektur yang harus dipenuhi oleh sistem penalaran yang sesungguhnya.