Jelajahi AGI Dunia Fisik dengan "Penalaran Visual", ElorianAI Raised $55 Juta

marsbitDipublikasikan tanggal 2026-04-23Terakhir diperbarui pada 2026-04-23

Abstrak

Perusahaan rintisan AI, ElorianAI, yang didirikan oleh Andrew Dai (mantan Google DeepMind) dan Yinfei Yang (ahli AI Apple), telah mengumpulkan pendanaan $55 juta untuk mengembangkan model AI dengan kemampuan "visual reasoning" (penalaran visual) setara manusia dewasa. Saat ini, model multi-modal terkemuka seperti Gemini hanya memiliki kemampuan penalaran visual setara anak usia 3 tahun karena bergantung pada konversi input visual ke teks sebelum melakukan penalaran. ElorianAI bertujuan menciptakan model yang dapat berpikir secara "native" dalam ruang visual, memahami struktur, hubungan, dan batasan fisik secara langsung. Pendekatan ini diyakini sebagai kunci menuju AGI (Artificial General Intelligence) di dunia fisik, dengan aplikasi potensial di robotika (operasi otonom di lingkungan berbahaya), manajemen bencana, dan teknik. Model yang dirancang sebagai fondasi ini dijadwalkan rilis pada 2026.

Oleh | Alpha Gongshe

Kemampuan model besar AI dalam beberapa aspek telah melampaui manusia biasa, seperti pemrograman dan matematika. Dikatakan bahwa di dalam Anthropic, hampir 100% pemrograman sudah dilakukan oleh AI, dan Gemini Deep Think dari Google berhasil menyelesaikan 5 dari 6 soal di IMO 2025, mencapai level medali emas.

Namun, dalam penalaran visual, bahkan Gemini 3 Pro yang tingkatannya paling unggul, hanya mencapai level anak berusia 3 tahun pada BabyVision, sebuah Benchmark yang menguji kemampuan penalaran visual dasar.

Mengapa model besar sangat kuat dalam pemrograman dan matematika, tetapi lemah dalam penalaran visual? Ini karena "cara berpikirnya" memiliki keterbatasan. Model Bahasa Visual (VLM) perlu mengubah input visual menjadi bahasa terlebih dahulu, baru kemudian melakukan penalaran berbasis teks. Namun, banyak tugas visual yang sama sekali tidak dapat dideskripsikan secara akurat dengan kata-kata, yang mengakibatkan kemampuan penalaran visual model yang buruk.

Andrew Dai, yang bekerja di Google DeepMind selama 14 tahun, bersama ahli AI senior Apple, Yinfei Yang, mendirikan sebuah perusahaan bernama Elorian AI. Tujuan mereka adalah meningkatkan kemampuan penalaran visual model dari level "anak-anak" ke level "dewasa", dan memberikan model kemampuan untuk berpikir secara asli dalam "ruang visual", sehingga dapat mencapai AGI dunia fisik.

Elorian AI memperoleh pendanaan awal senilai $55 juta yang dipimpin bersama oleh Striker Venture Partners, Menlo Ventures, dan Altimeter, dengan partisipasi dari 49 Palms dan ilmuwan AI top termasuk Jeff Dean.

Pelopor Model Multimodal, Ingin Memberikan Model Visual Kemampuan Penalaran

Sebagai orang Tionghoa, Andrew Dai, lulusan sarjana komputer Cambridge dan doktor pembelajaran mesin Edinburgh, magang di Google selama masa doktoralnya, bergabung dengan Google pada tahun 2012, dan bertahan selama 14 tahun, hingga memulai bisnis.


Sumber gambar:Linkedin Andrew Dai

Tidak lama setelah bergabung dengan Google, ia dan Quoc V. Le bersama-sama menulis makalah pertama tentang pra-pelatihan model bahasa dan penyempurnaan terawasi berjudul "Semi-supervised Sequence Learning". Makalah ini meletakkan dasar bagi kelahiran GPT. Makalah perintis lainnya adalah "Glam: Efficient scaling of language models with mixture-of-experts", yang membuka jalan bagi arsitektur MoE yang sekarang menjadi arus utama.

Sumber gambar: Google

Selama di Google, ia juga terlibat secara mendalam dalam hampir semua pelatihan model besar, dari Palm hingga Gemini1.5 dan Gemini2.5. Di bawah pengaturan Jeff Dean, ia mulai memimpin bagian data Gemini (termasuk data sintetis) pada tahun 2023, dan tim ini kemudian berkembang menjadi ratusan orang.

Sumber gambar:Linkedin Yinfei Yang

Berdiri bersama Andrew Dai adalah Yinfei Yang, yang pernah bekerja di Google Research selama empat tahun, fokus pada pembelajaran representasi multimodal, kemudian bergabung dengan Apple, bertanggung jawab atas pengembangan model multimodal.

Sumber gambar:arxiv

Hasil penelitian perwakilannya "Scaling up visual and vision-language representation learning with noisy text supervision" mendorong perkembangan pembelajaran representasi multimodal.

Pendiri bersama Elorian AI juga termasuk Seth Neel, yang pernah menjadi AP (Asisten Profesor) di Universitas Harvard, dan juga ahli dalam bidang data dan AI.

Mengapa membahas makalah perintis apa yang ditulis oleh para pendiri bersama Elorian AI? Karena yang ingin mereka lakukan bukanlah optimasi tingkat teknik, tetapi pembaruan paradigma dari arsitektur dasar, untuk meningkatkan AI dari pemahaman cerdas berbasis teks ke pemahaman cerdas berbasis visual.

Kondisi model AI saat ini adalah, meskipun berkinerja baik dalam tugas berbasis teks, bahkan model besar multimodal paling mutakhir sekalipun, masih akan tersandung pada tugas visual grounding (penjangkaran visual) paling dasar.

Misalnya, bagaimana memasang suatu bagian dengan tepat ke dalam suatu perangkat mekanis, agar beroperasi lebih presisi dan efisien? Tugas fisik spasial seperti ini sangat sederhana bagi siswa sekolah dasar, tetapi sangat sulit bagi model besar multimodal yang ada.

Ini masih harus mencari petunjuk dari biologi. Dalam otak manusia, visual adalah substrat dasar yang mendukung banyak proses pemikiran. Kemampuan manusia menggunakan visual dan penalaran spasial jauh lebih lama daripada menggunakan penalaran logika bahasa.

Misalnya, mengajarkan orang lain melalui labirin, menggunakan deskripsi bahasa, akan membingungkan, tetapi menggambar sketsa dapat membuat orang langsung mengerti.

Contoh lain, bahkan seekor burung, meskipun tidak memiliki bahasa, dapat mengenali dan mereasoning fitur geografis melalui visual, sehingga mencapai migrasi jarak jauh global. Ini adalah sinyal kuat yang menunjukkan bahwa untuk benar-benar memajukan kemampuan reasoning mesin, visual kemungkinan besar adalah arah evolusi yang benar.

Jadi, bayangkan, jika dari awal pembangunan model, mencoba mengukir naluri visual biologis ini ke dalam gen AI, membangun model multimodal asli yang dapat "secara bersamaan memahami dan memproses teks, gambar, video, dan audio", maka model akan memiliki kemampuan pemahaman visual. Andrew Dai dan tim ingin membangun "synesthete" bawaan, mengajarkan mesin tidak hanya "melihat" dunia, tetapi juga "memahami" dunia.

Dalam pandangan Andrew Dai dan tim, memahami secara mendalam "dunia fisik" yang sebenarnya adalah kunci untuk mencapai lompatan kecerdasan mesin generasi berikutnya, dan akhirnya menyentuh "Kecerdasan Buatan Umum Visual (Visual AGI)".

VLM dengan Penalaran Posterior Bukan Jalan yang Benar Menuju Penalaran Visual

Sebelumnya bukan tidak ada tim yang ingin melakukan hal ini, sebenarnya tim Gemini tempat Andrew Dai sebelumnya, sudah merupakan tim yang sangat unggul di bidang multimodal secara global. Tetapi model multimodal tradisional, masih didominasi oleh VLM (Model Bahasa Visual), logikanya dibangun di atas dasar "dua langkah": pertama mengubah input visual menjadi bahasa, kemudian melakukan penalaran berbasis teks (kadang dengan bantuan memanggil alat eksternal).

Namun, penalaran posterior pada dasarnya memiliki keterbatasan, di satu sisi mudah menghasilkan halusinasi model, di sisi lain banyak tugas visual yang sama sekali tidak dapat dideskripsikan secara akurat dengan kata-kata.

Selain itu, model generasi visual seperti NanoBanana, unggul dalam generasi multimodal, tetapi kemampuan generasi dan kemampuan penalaran tidak sama, "pemikiran" mereka sebelum generasi, pada dasarnya masih bergantung pada model bahasa, bukan kemampuan penalaran asli.

Untuk mengembangkan model yang benar-benar dapat mengerti kompleksitas spasial, struktural, dan relasional dalam dunia visual, pasti perlu inovasi disruptif dalam teknologi dasar.

Lalu, bagaimana berinovasi? Beberapa pendiri Elorian AI telah berkecimpung di bidang multimodal selama bertahun-tahun, cara mereka adalah: menggabungkan pelatihan multimodal dengan arsitektur baru yang dirancang khusus untuk penalaran multimodal. Meninggalkan praktik tradisional menganggap gambar sebagai input statis, beralih melatih model untuk berinteraksi langsung dan memanipulasi representasi visual (Visual representations) untuk secara mandiri mengurai struktur, hubungan, dan batasan fisik di dalamnya.  

Tentu saja, elemen inti lainnya adalah data, yang merupakan kunci yang menentukan kinerja dan keberhasilan model-model ini.

Andrew Dai menyatakan, mereka sangat memperhatikan kualitas data, proporsi campuran data, sumber data, serta keragaman data, dan telah melakukan inovasi di lapisan data, merekonstruksi jalur penalaran dalam ruang visual, dan juga menggunakan data sintetis secara besar-besaran dan mendalam.

Upaya-upaya ini secara bersama-sama, akan melahirkan sistem AI baru yang dapat melampaui "persepsi" visual sederhana, menuju "penalaran" visual tingkat tinggi.

Sistem AI ini dapat berupa model dasar penalaran visual: yaitu membangun model yang sangat umum, tetapi berkinerja sangat unggul pada kumpulan kemampuan tertentu, kemampuan tertentu ini adalah penalaran visual.

Karena merupakan model dasar yang umum, bidang aplikasinya harus luas.

Pertama, di bidang robotika ia dapat menjadi pusat saraf bawah sistem yang kuat, memberikannya kemampuan untuk beroperasi secara mandiri di berbagai lingkungan asing.

Misalnya, di bidang robotika, mengirim robot untuk menangani suatu kegagalan keamanan mendadak di lingkungan berbahaya. Ini membutuhkan pengambilan keputusan instan yang cepat dan akurat oleh robot. Jika robot kekurangan model dasar kemampuan penalaran mendalam, orang tidak akan berani membiarkannya menekan tombol atau mengoperasikan tuas dengan sembarangan. Tetapi jika ia memiliki kemampuan penalaran yang sangat kuat, ia mungkin berpikir: "Sebelum mengoperasikan panel ini, mungkin saya harus menarik tuas ini terlebih dahulu, mengaktifkan mekanisme perlindungan keamanan."

Selain itu, dalam manajemen bencana, model dengan penalaran visual dapat memantau dan mencegah kebakaran hutan dengan menganalisis gambar satelit; di bidang teknik, ia dapat secara akurat memahami gambar visual yang kompleks, diagram sistem, pentingnya kemampuan ini terletak pada aturan operasi dunia fisik yang pada dasarnya berbeda dengan dunia kode murni, Anda tidak bisa hanya dengan mengetik beberapa baris kode murni merancang sayap pesawat.

Namun, saat ini model dan kemampuan Elorian AI masih terbatas di atas kertas, mereka berencana merilis model yang mencapai level SOTA di bidang penalaran visual pada tahun 2026, pada saat itu dapat menguji apakah hasil mereka sesuai dengan klaim.

Ketika AI Benar-benar Memiliki Kemampuan "Penalaran Visual", Bagaimana Ia Akan Mengubah Dunia Fisik?

Untuk membuat AI memahami dan mempengaruhi dunia fisik yang sebenarnya, teknologi telah beriterasi beberapa kali.

Dari pengenalan gambar di zaman CV tradisional, ke model generasi gambar/model multimodal AI generatif, hingga model dunia, pemahaman terhadap dunia fisik terus meningkat.

Dan model dasar penalaran visual, sangat mungkin melangkah lebih jauh, karena mampu mewujudkan penalaran visual, AI dapat memahami dunia fisik lebih dalam, sehingga mencapai kecerdasan mesin tingkat yang lebih tinggi.

Bayangkan, ketika model dengan pemahaman mendalam dan operasi halus mengisi daya industri kecerdasan embodied, serta industri perangkat keras AI, akan sangat memperluas cakupan aplikasinya. Misalnya, robot dapat melakukan produksi industri yang lebih andal, atau di bidang perawatan medis; perangkat keras AI, terutama perangkat yang dapat dikenakan, menjadi asisten pribadi yang lebih pintar.

Namun, di dasar teknologi ini, masih adalah data. Seperti yang dikatakan Andrew Dai sebelumnya, kualitas data, proporsi campuran data, sumber data, serta keragaman data, semuanya menentukan kinerja model.

Di bidang AI fisik, perusahaan-perusahaan Tiongkok, baik di tingkat model maupun data, dibandingkan dengan model besar, lebih mendekati tingkat terdepan dunia. Jika dapat memanfaatkan keunggulan data dan skenario aplikasi yang lebih kaya, mempercepat kecepatan iterasi, maka baik kecerdasan embodied maupun perangkat keras AI, baik yang diterapkan di industri, medis, maupun rumah tangga, memiliki peluang lebih besar untuk mencapai tingkat terdepan, dan tentu saja juga memiliki peluang untuk melahirkan perusahaan kelas dunia.

Pertanyaan Terkait

QApa yang menjadi tujuan utama Elorian AI dalam pengembangan AI?

ATujuan utama Elorian AI adalah meningkatkan kemampuan penalaran visual model AI dari tingkat 'anak-anak' ke tingkat 'dewasa', serta memberikan kemampuan berpikir asli dalam 'ruang visual' untuk mencapai AGI di dunia fisik.

QSiapa saja pendiri Elorian AI dan apa latar belakang mereka?

APendiri Elorian AI adalah Andrew Dai (mantan peneliti Google selama 14 tahun), Yinfei Yang (ahli AI dari Apple), dan Seth Neel (mantan profesor asisten di Harvard). Mereka memiliki pengalaman mendalam dalam bidang pembelajaran mesin dan multimodal.

QMengapa model multimodal tradisional (VLM) memiliki keterbatasan dalam penalaran visual?

AModel VLM tradisional mengonversi input visual ke dalam bahasa terlebih dahulu sebelum melakukan penalaran berbasis teks. Banyak tugas visual tidak dapat dideskripsikan secara akurat dengan teks, sehingga menyebabkan kemampuan penalaran visual yang lemah dan halusinasi model.

QBagaimana Elorian AI berencana meningkatkan kemampuan penalaran visual model AI?

AElorian AI berencana menggabungkan pelatihan multimodal dengan arsitektur baru yang dirancang khusus untuk penalaran multimodal, melatih model untuk berinteraksi langsung dengan representasi visual, serta menggunakan data sintetis secara besar-besaran dan inovasi pada lapisan data.

QApa potensi aplikasi model penalaran visual Elorian AI di dunia fisik?

AModel ini dapat diterapkan dalam robotika sebagai sistem saraf pusat, manajemen bencana (seperti memantau kebakaran hutan melalui citra satelit), teknik (memahami gambar visual kompleks), serta perangkat keras AI dan perawatan kesehatan.

Bacaan Terkait

Valuasi 20 Miliar Dolar, Alibaba dan Tencent Berebut Investasi, Uang Siapa yang Akan Diambil Liang Wenfeng?

DeepSeek, perusahaan AI China yang didirikan oleh Liang Wenfeng, sedang dalam proses negosiasi pendanaan dengan raksasa teknologi Alibaba dan Tencent. Perusahaan ini, yang sebelumnya hanya didanai oleh perusahaan induknya, Huanfang Quant, kini membuka diri untuk investasi eksternal pertama kali dengan valuasi yang dilaporkan mencapai $20 miliar. Valuasi ini menempatkan DeepSeek sebagai salah satu startup model bahasa terbesar di China, setara dengan perusahaan seperti Moon Dark Side (valuasi $18 miliar) dan lebih tinggi daripada MiniMax ($6,5 miliar) dan Zhipu ($6,7 miliar). Pendanaan ini dipicu oleh kebutuhan akan sumber daya komputasi yang besar untuk pengembangan model AI generatif dan sistem agent. Alibaba dan Tencent bersaing untuk berinvestasi, bukan hanya karena potensi keuangan, tetapi juga untuk mengamankan posisi strategis dalam ekosistem AI China. Investasi ini dapat memberikan akses ke sumber daya cloud, saluran pelanggan, dan sinergi infrastruktur. Liang Wenfeng, yang dikenal independen dan menolak pendanaan eksternal sebelumnya, kini mempertimbangkan opsi untuk mempertahankan talenta inti dan mendukung pengembangan model V4 yang tertunda. Pilihannya termasuk menerima investasi dengan kontrol minimal untuk mempertahankan independensi, atau bekerja dengan investor negara yang menawarkan sumber daya tanpa intervensi komersial. Dengan competitor seperti Moon Dark Side dan MiniMax yang akan segera IPO, jendela kesempatan untuk investasi dalam DeepSeek mungkin segera menutup, menambah urgensi dalam pengambilan keputusan ini.

marsbit2j yang lalu

Valuasi 20 Miliar Dolar, Alibaba dan Tencent Berebut Investasi, Uang Siapa yang Akan Diambil Liang Wenfeng?

marsbit2j yang lalu

Trading

Spot
Futures

Artikel Populer

Cara Membeli AR

Selamat datang di HTX.com! Kami telah membuat pembelian Arweave (AR) menjadi mudah dan nyaman. Ikuti panduan langkah demi langkah kami untuk memulai perjalanan kripto Anda.Langkah 1: Buat Akun HTX AndaGunakan alamat email atau nomor ponsel Anda untuk mendaftar akun gratis di HTX. Rasakan perjalanan pendaftaran yang mudah dan buka semua fitur.Dapatkan Akun SayaLangkah 2: Buka Beli Kripto, lalu Pilih Metode Pembayaran AndaKartu Kredit/Debit: Gunakan Visa atau Mastercard Anda untuk membeli Arweave (AR) secara instan.Saldo: Gunakan dana dari saldo akun HTX Anda untuk melakukan trading dengan lancar.Pihak Ketiga: Kami telah menambahkan metode pembayaran populer seperti Google Pay dan Apple Pay untuk meningkatkan kenyamanan.P2P: Lakukan trading langsung dengan pengguna lain di HTX.Over-the-Counter (OTC): Kami menawarkan layanan yang dibuat khusus dan kurs yang kompetitif bagi para trader.Langkah 3: Simpan Arweave (AR) AndaSetelah melakukan pembelian, simpan Arweave (AR) di akun HTX Anda. Selain itu, Anda dapat mengirimkannya ke tempat lain melalui transfer blockchain atau menggunakannya untuk memperdagangkan mata uang kripto lainnya.Langkah 4: Lakukan trading Arweave (AR)Lakukan trading Arweave (AR) dengan mudah di pasar spot HTX. Cukup akses akun Anda, pilih pasangan perdagangan, jalankan trading, lalu pantau secara real-time. Kami menawarkan pengalaman yang ramah pengguna baik untuk pemula maupun trader berpengalaman.

774 Total TayanganDipublikasikan pada 2024.12.11Diperbarui pada 2025.03.21

Cara Membeli AR

Diskusi

Selamat datang di Komunitas HTX. Di sini, Anda bisa terus mendapatkan informasi terbaru tentang perkembangan platform terkini dan mendapatkan akses ke wawasan pasar profesional. Pendapat pengguna mengenai harga AR (AR) disajikan di bawah ini.

活动图片