Original | Odaily Planet Daily(@OdailyChina)
Penulis|Golem(@web 3_golem)
Sekarang, kalau orang dunia kripto nggak ngikutin AI, gampang banget diejek (iya, temanku, coba pikir kenapa kamu ngeklik artikel ini).
Apa kamu sama sekali nggak ngerti konsep dasar AI, tiap singkatan di obrolan harus nanya ke Douban artinya apa? Apa kamu juga pernah bingung dengan berbagai istilah teknis di acara offline AI, tapi harus pura-pura masih nyambung?
Walaupun nggak realistis buat langsung terjun ke industri AI dalam waktu singkat, tapi tahu kosakata dasar yang sering dipakai di industri AI tuh selalu berguna. Untungnya, artikel berikut ini dibuat khusus buat kamu↓ Disarankan banget buat dibaca sampai paham dan disimpan.
Kosakata Dasar (12)
LLM(Model Bahasa Besar)
Inti LLM adalah model pembelajaran mendalam yang dilatih dengan data sangat banyak, jago memahami dan menghasilkan bahasa, bisa proses teks, dan sekarang makin bisa juga olah tipe konten lain.
Kebalikannya adalah SLM(Model Bahasa Kecil) – biasanya menekankan model bahasa yang lebih murah, deployment lebih ringan, dan lebih mudah dilokalkan.
AI Agent(Agen Cerdas AI)
AI Agent nggak cuma berarti "model yang bisa ngobrol", tapi sistem yang bisa paham tujuan, panggil alat, eksekusi tugas langkah demi langkah, dan kalau perlu bisa juga bikin perencanaan dan verifikasi. Google mendefinisikan agent sebagai perangkat lunak yang bisa bernalar berdasarkan input multimodal dan menjalankan aksi atas nama pengguna.
Multimodal(Multimodal)
Model AI-nya nggak cuma baca teks, tapi bisa sekaligus olah berbagai bentuk input/output seperti teks, gambar, audio, video, dll. Google jelas-jelas mendefinisikan multimodal sebagai kemampuan memproses dan menghasilkan berbagai jenis konten.
Prompt(Kata Prompt)
Instruksi yang dimasukkan pengguna ke model, adalah cara interaksi manusia-mesin paling dasar.
Generative AI(AI Generatif / AIGC)
Menekankan AI "menghasilkan" bukan cuma mengklasifikasi atau memprediksi, model generatif bisa hasilkan teks, kode, gambar, meme, video, dll berdasarkan prompt.
Token(Token)
Ini salah satu konsep di dunia AI yang paling mirip "unit Gas". Model nggak paham konten berdasarkan "jumlah kata", tapi olah input/output berdasarkan token, biaya, panjang konteks, kecepatan respons, biasanya sangat terkait dengan token.
Context Window(Jendela Konteks / Panjang Konteks)
Mengacu pada total token yang bisa "dilihat" dan dimanfaatkan model sekaligus, bisa juga disebut jumlah token yang bisa dipertimbangkan atau "diingat" model dalam sekali pemrosesan.
Memory(Memori)
Membuat model atau Agent menyimpan preferensi pengguna, konteks tugas, status historis.
Training(Pelatihan)
Proses model mempelajari parameter dari data.
Inference(Inferensi / Eksekusi)
Kebalikan dari pelatihan, mengacu pada proses model menerima input dan menghasilkan output setelah diluncurkan. Di industri sering dibilang "pelatihan mahal, inferensi lebih boros lagi", karena banyak biaya di fase komersialisasi nyata terjadi saat inference. Pembagian pelatihan/inferensi terkait juga adalah kerangka dasar dalam diskusi biaya deployment vendor utama.
Tool Use / Tool Calling(Pemanggilan Alat)
Artinya model nggak cuma output teks, tapi bisa panggil alat seperti pencarian, eksekusi kode, database, API eksternal, dll, ini sudah dianggap sebagai kemampuan kunci Agent.
API(Antarmuka)
Infrastruktur saat produk AI, aplikasi, Agent terhubung ke layanan pihak ketiga.
Kosakata Lanjutan (18)
transformer(Arsitektur Transformer)
Sebuah arsitektur model yang membuat AI lebih jago memahami hubungan kontekstual, juga merupakan landasan teknis sebagian besar model bahasa besar sekarang, keunggulan terbesarnya adalah bisa lihat hubungan setiap kata dengan kata lain dalam satu bagian konten secara bersamaan.
Attention(Mekanisme Perhatian)
Ini adalah mekanisme inti paling kunci dari Transformer, fungsinya adalah membuat model secara otomatis menilai "kata mana yang paling perlu diperhatikan" saat membaca satu kalimat.
Agentic / Agentic Workflow(Alur Kerja Berciri Agen / Alur Kerja Agentik)
Ini istilah yang lagi panas belakangan, artinya sebuah sistem nggak lagi cuma "tanya jawab", tapi punya otonomi tertentu untuk memecah tugas, memutuskan langkah selanjutnya, memanggil kemampuan eksternal. Banyak vendor menganggapnya sebagai tanda "dari Chatbot ke sistem yang bisa dieksekusi".
Subagents(Sub-agen)
Satu Agent dipecah lagi jadi beberapa Agent kecil yang khusus menangani sub-tugas.
Skills(Modul Kemampuan yang Dapat Digunakan Kembali)
Seiring dengan ledakan OpenClaw, kata ini jadi makin umum, ini adalah unit kemampuan/petunjuk operasi yang bisa diinstal, digunakan kembali, dan dikombinasikan untuk AI Agent, tapi juga perlu diingat ada risiko penyalahgunaan alat dan paparan data.
Hallucination(Halusinasi Mesin)
Artinya model ngomong ngawur dengan serius, "merasakan pola yang sebenarnya tidak ada" sehingga menghasilkan output yang salah atau absurd, ini adalah output model yang terlihat masuk akal tapi sebenarnya salah karena terlalu percaya diri.
Latency(Laten)
Waktu yang dibutuhkan model dari menerima permintaan sampai menghasilkan hasil, termasuk jargon teknikal paling umum, bakal sering muncul kalau bahas implementasi dan produktifikasi.
Guardrails(Pembatas)
Digunakan untuk membatasi apa yang bisa dilakukan model/Agent, kapan berhenti, konten apa yang nggak boleh dioutputkan.
Vibe Coding(Pemrograman Suasana)
Kata ini juga adalah jargon AI paling panas sekarang, artinya pengguna langsung ekspresikan kebutuhan lewat obrolan, AI yang nulis kode, dan pengguna nggak perlu ngerti cara nulis kode secara spesifik.
Parameters(Parameter)
Skala angka internal model untuk menyimpan kemampuan dan pengetahuan, sering digunakan untuk mengukur ukuran model secara kasar, "ratusan miliar parameter", "triliunan parameter" adalah istilah paling umum buat nakuti-nakuti di kalangan AI.
Reasoning Model(Model Penalaran Kuat)
Biasanya mengacu pada model yang lebih jago dalam penalaran multi-langkah, perencanaan, verifikasi, eksekusi tugas kompleks.
MCP(Protokol Konteks Model)
Ini adalah jargon baru yang sangat panas dalam setahun terakhir, fungsinya mirip membuat antarmuka universal antara model dan alat/sumber data eksternal.
Fine-tuning / Tuning(Mikro-Penyetelan / Penyetelan)
Adalah melanjutkan pelatihan pada model dasar, membuatnya lebih adaptif dengan tugas, gaya, atau domain tertentu. Glosarium istilah Google langsung memasukkan tuning dan fine-tuning sebagai konsep terkait.
Distillation(Distilasi)
Memampatkan kemampuan model besar ke model kecil sebanyak mungkin, mirip "guru" mengajari "murid".
RAG(Generasi yang Diperkuat Retrieval)
Ini hampir sudah jadi konfigurasi dasar AI perusahaan. Microsoft mendefinisikannya sebagai mode "pencarian + LLM", menggunakan data eksternal untuk memberi landasan pada jawaban, menyelesaikan masalah data pelatihan model yang kedaluwarsa, tidak memahami basis pengetahuan privat. Tujuannya adalah membangun jawaban berdasarkan dokumen nyata dan pengetahuan privat, bukan cuma mengandalkan ingatan model sendiri.
Grounding(Penyelarasan Fakta)
Sering muncul bersama RAG, artinya membuat jawaban model berdasarkan landasan eksternal seperti dokumen, database, halaman web, dll, bukan cuma mengandalkan ingatan parameter "berimprovisasi bebas". Microsoft dalam dokumen RAG jelas-jelas memasukkan grounding sebagai nilai inti.
Embedding(Embedding Vektor / Vektor Semantik)
Adalah mengkodekan konten seperti teks, gambar, audio, dll menjadi vektor angka dimensi tinggi, untuk memudahkan perhitungan kesamaan semantik.
Benchmark(Tolok Ukur)
Cara pengujian yang menggunakan seperangkat standar seragam untuk menguji kemampuan model, juga adalah bahasa peringkat yang paling disukai vendor model untuk "membuktikan diri mereka kuat".







