Catatan Editor: Ketika kebanyakan orang masih menganggap AI sebagai jendela obrolan yang lebih pintar, CEO Y Combinator saat ini, Garry Tan, telah mencoba mengubahnya menjadi sistem operasi pribadi.
Struktur dasar produktivitas individu di era AI sedang berubah: model hanyalah mesin; yang benar-benar menghasilkan bunga majemuk adalah seluruh sistem yang dibangun di sekitar pengetahuan, alur kerja, konteks, dan penilaian pribadi.
Dalam sistem ini, setiap pertemuan, setiap buku, setiap email, setiap hubungan jaringan tidak lagi menjadi informasi yang terisolasi, melainkan akan terus ditulis ke dalam 'otak kedua' yang terstruktur; setiap tugas yang berulang tidak lagi bergantung pada prompt sementara, melainkan diabstraksikan menjadi skill yang dapat digunakan kembali dan terus diiterasi dalam pekerjaan selanjutnya. Dengan kata lain, AI tidak hanya membantu menyelesaikan tugas, tetapi membantu memproduktifikasi, mensistemkan, dan menginfrastrukturkan cara kerja pribadi seseorang.
Yang lebih patut diperhatikan adalah, penulis mengajukan jalur pribadi yang berbeda dari alat AI terpusat: daya saing di masa depan mungkin tidak hanya dimiliki oleh orang yang dapat menggunakan AI, tetapi oleh mereka yang dapat melatih sistem AI berbunga majemuk di sekitar kehidupan dan pekerjaan nyata mereka. Chatbot memberikan jawaban, mesin pencari menyediakan informasi, sedangkan sistem AI pribadi yang sebenarnya akan mengingat latar belakang Anda, memahami konteks Anda, mewarisi penilaian Anda, dan menjadi lebih kuat di setiap penggunaan.
Ini juga bagian paling inspiratif dari artikel ini: nilai AI tidak terletak pada apa yang dihasilkan sekali, tetapi pada kemampuannya menjadi sistem saraf yang terus terakumulasi, terhubung, dan membaik. Bagi individu, ini mungkin titik awal sebenarnya dari 'cara kerja asli AI'.
Berikut adalah teks aslinya:
Orang-orang selalu bertanya kepada saya, mengapa saya menghabiskan malam untuk menulis kode, sampai jam 2 pagi. Saya memiliki pekerjaan, dan itu pekerjaan yang berat—saya adalah CEO Y Combinator. Kami membantu ribuan pengusaha setiap tahun mewujudkan mimpi mereka: mendirikan perusahaan rintisan yang benar-benar menghasilkan pendapatan dan tumbuh dengan sangat cepat.
Dalam 5 bulan terakhir, AI telah mengembalikan saya menjadi seorang pembangun. Akhir tahun lalu, alat sudah cukup baik untuk membuat saya mulai membangun lagi. Bukan proyek mainan, tetapi sistem yang benar-benar dapat berkembang berbunga majemuk. Saya ingin memberi tahu Anda dengan contoh konkret, seperti apa sebenarnya ketika Anda tidak lagi menganggap AI pribadi sebagai jendela obrolan, melainkan sebagai sistem operasi. Saya membuka sumber semua hal ini dan menuliskannya dalam artikel seperti ini karena saya berharap Anda juga bisa ikut berakselerasi bersama saya.
Ini adalah bagian dari sebuah seri: 'Fat Skills, Fat Code, Thin Harness' memperkenalkan arsitektur inti; 'Resolvers' membahas tabel perutean yang cerdas; 'The LOC Controversy' mendiskusikan bagaimana setiap teknisi dapat memperbesar diri 100 hingga 1000 kali; 'Naked models are stupider' mengajukan bahwa model hanyalah mesin, bukan seluruh mobil; dan 'skillify manifesto' menjelaskan mengapa LangChain mengumpulkan $160 juta, tetapi memberi Anda rak squat dan dumbbell tanpa rencana latihan, sedangkan artikel ini memberikan rencana latihan yang benar-benar Anda butuhkan.
Buku yang 'Membaca Saya Secara Terbalik' Itu
Bulan lalu, saya sedang membaca buku Pema Chödrön, 'When Things Fall Apart'. Buku ini setebal 162 halaman, 22 bab, membahas sudut pandang Buddhisme tentang penderitaan, rasa tanpa akar, dan melepaskan. Seorang teman merekomendasikannya kepada saya ketika saya mengalami masa-masa sulit.
Saya meminta AI saya melakukan 'cermin buku' (book mirror).
Secara konkret, ini berarti: sistem mengekstrak semua 22 bab buku tersebut, kemudian untuk setiap bab menjalankan sub-agent, sekaligus menyelesaikan dua hal: merangkum pemikiran penulis, dan memetakan setiap poin ke kehidupan nyata saya.
Bukan ucapan kosong seperti 'ini juga berlaku untuk pemimpin', tetapi pemetaan yang sangat spesifik. Ia tahu latar belakang keluarga saya: orang tua imigran, ayah dari Hong Kong dan Singapura, ibu dari Myanmar. Ia tahu konteks profesional saya: saya mengelola YC, membangun alat open source, membimbing ribuan pendiri. Ia tahu apa yang baru-baru ini saya baca, apa yang saya pikirkan jam 2 pagi, masalah apa yang sedang saya tangani dengan terapis saya.
Output akhirnya adalah 'halaman otak' (brain page) sepanjang 30.000 kata. Setiap bab disajikan dalam dua kolom: satu kolom berisi apa yang dikatakan Pema, kolom lainnya berisi bagaimana konten tersebut terpetakan ke hal-hal yang benar-benar saya alami. Bab tentang 'rasa tanpa akar' terhubung dengan percakapan spesifik saya dengan seorang pendiri pekan sebelumnya; bab tentang 'ketakutan' dipetakan ke beberapa pola perilaku yang pernah ditunjukkan oleh terapis saya; bab tentang 'melepaskan' mengutip sesuatu yang saya tulis suatu malam—tentang kebebasan kreatif yang saya temukan tahun ini.
Seluruh proses memakan waktu sekitar 40 menit. Seorang terapis dengan tarif $300 per jam, bahkan jika membaca buku ini dan menerapkannya pada kehidupan saya, tidak mungkin melakukannya dalam 40 jam. Karena mereka tidak memiliki akses dan referensi silang penuh terhadap konteks profesional, riwayat bacaan, catatan rapat, dan jaringan hubungan pendiri saya.
Sejauh ini, saya telah memproses lebih dari 20 buku dengan cara ini: 'Amplified' (Dion Lim), 'Autobiografi Russell', 'Designing Your Life', 'The Drama of the Gifted Child', 'Finite and Infinite Games', 'Gift from the Sea' (Lindbergh), 'Siddhartha' (Hesse), 'Steppenwolf' (Hesse), 'The Art of Doing Science and Engineering' (Hamming), 'The Dream Machine', 'The Book on the Taboo Against Knowing Who You Are' (Alan Watts), 'What Do You Care What Other People Think?' (Feynman), 'When Things Fall Apart' (Pema Chödrön), 'A Brief History of Everything' (Ken Wilber), dan lainnya.
Setiap buku membuat 'otak' ini semakin kaya. Cermin kedua tahu konten pertama, cermin kedua puluh tahu semua konten sembilan belas sebelumnya.
Bagaimana Book-Mirror Menjadi Lebih Baik Melalui Iterasi
Pertama kali saya melakukan book mirror, hasilnya sangat buruk.
Pada versi pertama, ada tiga kesalahan fakta tentang keluarga saya. Ia mengatakan orang tua saya bercerai, padahal tidak; juga mengatakan saya besar di Hong Kong, padahal saya lahir di Kanada. Ini adalah kesalahan dasar yang dapat merusak kepercayaan jika saya membagikan hasilnya.
Jadi saya menambahkan langkah pemeriksaan fakta wajib. Sekarang, setiap mirror akan dievaluasi secara multimodal terhadap fakta yang diketahui di otak sebelum disampaikan. Opus 4.7 1M akan menangkap kesalahan akurasi; GPT-5.5 akan menemukan konteks yang hilang; DeepSeek V4-Pro akan menilai apakah suatu konten terdengar terlalu umum.
Kemudian, saya memutakhirkan menjadi pencarian mendalam berbasis panggilan alat GBrain. Versi awal pandai menyintesis, tetapi lemah dalam spesifisitas. Versi ketiga mulai melakukan pencarian otak per bagian. Setiap item di kolom kanan akan mengutip halaman otak yang benar-benar ada.
Ketika buku itu membahas cara menangani percakapan sulit, ia tidak hanya merangkum prinsip-prinsip umum. Ia akan mengeluarkan catatan rapat nyata saya dengan pendiri yang mengalami percakapan sulit dengan rekan pendirinya; atau sebuah ide yang muncul saat saya mengobrol santai dengan adik saya James suatu hari Kamis; atau catatan obrolan instan saya dengan teman sekamar kuliah saat berusia 19 tahun. Rasanya sangat aneh.
Inilah arti 'skillifikasi' (skillification, menggunakan /skillify di GBrain) dalam praktik. Saya menyaring upaya manual pertama menjadi pola yang dapat diulang, menulisnya menjadi file skill yang telah diuji, berisi kondisi pemicu dan kasus batas. Setelah itu, setiap perbaikan akan terus berbunga majemuk di semua book mirror di masa depan.
Skill yang Dapat Menciptakan Skill
Di sinilah letak rekursif yang sebenarnya, dan menurut saya ini juga wawasan terbesarnya.
Sistem yang mendukung kehidupan sehari-hari saya tidak muncul sebagai raksasa tunggal. Ia dirakit dari banyak skill. Dan skill-skill itu sendiri diciptakan oleh skill lain.
Skillify adalah 'meta-skill'—sebuah skill untuk menciptakan skill baru. Setiap kali saya menemukan alur kerja yang akan saya ulangi di masa depan, saya akan berkata: 'Skillify-kan ini.' Kemudian ia akan melihat kembali apa yang terjadi, mengekstrak pola yang dapat diulang, menuliskannya menjadi file skill yang telah diuji, berisi kondisi pemicu dan kasus batas, dan mendaftarkannya ke resolver.
Pipeline book-mirror yang disebutkan sebelumnya, di-skillify-kan dari pertama kali saya menyelesaikan proses ini secara manual. Begitu juga alur kerja meeting-prep: ketika saya menyadari saya melakukan langkah yang sama sebelum setiap panggilan, saya skillify-kan.
Skill dapat dikombinasikan. Book-mirror akan memanggil brain-ops untuk penyimpanan, memanggil enrich untuk menambah konteks, memanggil cross-modal-eval untuk evaluasi kualitas, memanggil pdf-generation untuk output hasil. Setiap skill hanya fokus pada satu hal, tetapi mereka dapat dirangkai menjadi alur kerja yang kompleks.
Ketika saya memperbaiki salah satu skill, semua alur kerja yang menggunakan skill itu otomatis menjadi lebih baik. Tidak ada lagi masalah 'saya lupa menyebutkan kasus batas ini di prompt'. Skill akan mengingatnya.
Rapat yang Mempersiapkan Diri Sendiri Itu
Demis Hassabis datang ke YC untuk bincang-bincang santai (fireside chat). Biografi tentang dia oleh Sebastian Mallaby baru saja diterbitkan.
Saya meminta sistem membantu saya mempersiapkan diri.
Kurang dari dua menit, ia menarik: halaman otak lengkap Demis—halaman ini telah terakumulasi terus-menerus selama berbulan-bulan dari artikel, transkrip podcast, dan catatan saya sendiri; pandangan yang dia ungkapkan secara terbuka tentang garis waktu AGI, seperti '50% scaling, 50% inovasi', dan pendapatnya bahwa AGI masih membutuhkan 5 hingga 10 tahun; poin-poin penting dari biografi Mallaby; prioritas penelitian yang secara eksplisit dia sebutkan, termasuk pembelajaran berkelanjutan, model dunia, dan memori jangka panjang; referensi silang antara pandangan AI yang saya dan dia bicarakan secara terbuka; tiga skrip demonstrasi untuk menunjukkan kemampuan penalaran multi-lompat otak ini dalam percakapan; serta serangkaian titik masuk percakapan yang dirancang berdasarkan kesamaan dan perbedaan pandangan dunia kami.
Ini bukan sekadar pencarian Google yang lebih baik. Ini adalah persiapan berbasis konteks: sistem tidak hanya menggunakan informasi tentang Demis yang telah lama saya kumpulkan, tetapi juga menggabungkan posisi saya sendiri, serta tujuan strategis percakapan ini.
Yang dipersiapkan bukan hanya fakta, tetapi sudut pandang.
Seperti Apa Otak 100.000 Halaman Itu
Saya menjaga basis pengetahuan terstruktur sekitar 100.000 halaman.
Setiap orang yang saya temui memiliki halaman, berisi garis waktu, bilah status—yaitu situasi nyata saat ini, benang merah yang belum selesai, serta skor. Setiap rapat akan memiliki transkrip, ringkasan terstruktur, dan proses yang saya sebut 'penyebaran entitas' (entity propagation): setelah setiap rapat, sistem akan menelusuri setiap orang dan perusahaan yang disebutkan, dan memperbarui halaman otak mereka dengan konten diskusi tersebut.
Setiap buku yang saya baca akan mendapatkan cermin buku per bab. Setiap artikel, episode podcast, video yang saya akses akan diambil, diberi tag, dan diberi referensi silang.
Skemanya sederhana. Setiap halaman memiliki tiga bagian: paling atas adalah 'kebenaran yang dikompilasi'—pemahaman terbaik saat ini; di bawah adalah garis waktu yang hanya ditambahkan tidak diubah, mencatat peristiwa secara kronologis; di samping adalah sidecar data mentah, untuk menyimpan bahan sumber.
Anda dapat membayangkannya seperti Wikipedia versi pribadi. Setiap halaman terus diperbarui oleh AI yang menghadiri rapat, membaca email, menonton pidato, dan mencerna PDF.
Berikut contoh bagaimana sistem seperti ini berbunga majemuk.
Saya bertemu seorang pendiri dalam jam kerja. Sistem akan membuat atau memperbarui halaman pribadinya, halaman perusahaannya, referensi silang catatan rapat, memeriksa apakah sebelumnya saya pernah bertemu dengannya—jika ya, munculkan apa yang kita bicarakan terakhir kali; ia akan memeriksa aplikasinya, menarik metrik terbaru, dan mengidentifikasi apakah di portofolio perusahaan atau kontak saya, ada yang dapat membantu masalah yang sedang dia tangani.
Saat saya masuk ke rapat dengannya berikutnya, sistem sudah menyiapkan paket konteks lengkap.
Inilah perbedaan antara 'lemari arsip' dan 'sistem saraf'. Lemari arsip hanya menyimpan; sistem saraf akan menghubungkannya, menandai apa yang berubah, dan memunculkan informasi yang paling relevan pada saat itu.
Arsitektur
Begini cara kerjanya. Menurut saya, ini adalah jalur yang benar untuk membangun AI pribadi, jadi saya membuka sumber seluruhnya, Anda juga dapat membangunnya sendiri.
Harness-nya tipis. OpenClaw adalah runtime. Ia menerima pesan saya, menilai skill mana yang berlaku, kemudian mendistribusikannya. Hanya ribuan baris logika perutean. Ia tidak memahami buku, rapat, atau pendiri, ia hanya bertanggung jawab atas perutean.
Skills-nya tebal. Sekarang sudah ada lebih dari 100 skill, masing-masing adalah file markdown mandiri yang berisi instruksi rinci untuk tugas tertentu. Anda telah melihat book-mirror dan meeting-prep. Berikut beberapa skill lain yang disertakan di GBrain:
meeting-ingestion: Setelah setiap rapat, ia menarik transkrip, menghasilkan ringkasan terstruktur, kemudian menelusuri setiap orang dan perusahaan yang disebutkan dalam rapat, memperbarui halaman otak mereka dengan konten diskusi. Halaman rapat itu sendiri bukan produk akhir, nilai sebenarnya terletak pada menyebarkan informasi ini kembali ke halaman setiap orang dan perusahaan.
enrich: Berikan nama seseorang. Ia akan menarik informasi dari lima sumber berbeda, menggabungkan semua konten menjadi satu halaman otak, termasuk lintasan karir, informasi kontak, riwayat rapat, dan konteks hubungan. Setiap penilaian memiliki kutipan sumber.
media-ingest: Memproses video, audio, PDF, tangkapan layar, dan repo GitHub. Ia akan mentranskrip konten, mengekstrak entitas, dan mengarsipkan bahan ke lokasi otak yang benar. Saya sering menggunakannya untuk video YouTube, podcast, dan memo suara.
perplexity-research: Ini adalah penelitian web dengan kemampuan augmentasi otak. Ia mencari web melalui Perplexity, tetapi sebelum menyintesis, ia akan memeriksa apa yang sudah diketahui di otak, sehingga memberi tahu Anda informasi mana yang benar-benar baru, mana yang sudah Anda tangkap.
Saya juga membangun puluhan skill untuk pekerjaan saya sendiri, yang kemungkinan besar juga akan saya buka sumbernya: email-triage, investor-update-ingest—yang dapat mengidentifikasi pembaruan portofolio di kotak masuk saya dan mengekstrak metrik ke halaman perusahaan; calendar-check—untuk mendeteksi konflik jadwal dan perjalanan yang mustahil; serta seluruh tumpukan penelitian berita yang saya gunakan untuk pekerjaan urusan publik.
Setiap skill mengkodekan pengetahuan operasional yang, jika diberikan kepada asisten manusia baru, mungkin memerlukan beberapa bulan untuk dipelajari. Ada yang bertanya bagaimana saya 'memberi prompt' AI saya. Jawabannya: Saya tidak memberi prompt. Skill itu sendiri adalah prompt.
Datanya tebal. Repo otak memiliki 100.000 halaman pengetahuan terstruktur. Setiap orang, perusahaan, rapat, buku, artikel, ide yang pernah saya akses, semuanya terhubung, dapat dicari, dan tumbuh setiap hari.
Kodenya juga tebal. Kode yang memberinya bahan juga penting: skrip untuk transkripsi, OCR, pengarsipan media sosial, sinkronisasi kalender, integrasi API. Tetapi tempat di mana nilai bunga majemuk benar-benar mengendap, adalah data.
Saya menjalankan lebih dari 100 cron job setiap hari, memeriksa semua yang saya pantau: media sosial, Slack, email, dan informasi lain yang akan saya perhatikan. OpenClaw/Hermes Agents saya juga melihat hal-hal ini untuk saya.
Model dapat diganti. Untuk akurasi, saya menggunakan Opus 4.7 1M; untuk recall dan ekstraksi menyeluruh, saya menggunakan GPT-5.5; untuk pekerjaan kreatif dan perspektif ketiga, saya menggunakan DeepSeek V4-Pro; untuk kecepatan, saya menggunakan Groq dengan Llama. Skill yang menentukan tugas mana memanggil model mana. Harness tidak peduli.
Ketika seseorang bertanya 'model AI mana yang terbaik', jawabannya adalah: Anda menanyakan pertanyaan yang salah. Model hanyalah mesin, semua bagian lainnya adalah mobilnya.
Pembangun Jam 2 Pagi, dan Sistem yang Terus Berbunga Majemuk
Orang-orang bertanya kepada saya tentang produktivitas. Tetapi saya tidak berpikir seperti itu.
Saya berpikir tentang bunga majemuk.
Setiap rapat yang saya hadiri akan menambah konten ke otak ini. Setiap buku yang saya baca akan memperkaya konteks untuk buku berikutnya. Setiap skill yang saya bangun akan membuat alur kerja berikutnya lebih cepat. Setiap halaman orang yang saya perbarui akan membuat persiapan rapat berikutnya lebih tajam.
Sistem hari ini sudah 10 kali lipat dari dua bulan lalu. Dua bulan lagi, ia akan menjadi 10 kali lipat dari sekarang.
Ketika saya masih menulis kode jam 2 pagi—dan saya memang sering melakukannya, karena AI membuat saya menemukan kembali kegembiraan membangun—saya tidak hanya menulis perangkat lunak. Saya menambah kemampuan pada sistem yang menjadi lebih baik setiap jam.
100 cronjob berjalan sepanjang waktu. Pemasukan rapat berjalan otomatis. Pemilahan email berjalan setiap 10 menit. Grafik pengetahuan memperkaya diri dari setiap percakapan. Sistem memproses transkrip harian dan mengekstrak pola yang tidak saya perhatikan secara real-time.
Ini bukan alat menulis, bukan mesin pencari, juga bukan chatbot.
Ini adalah otak kedua yang benar-benar dapat dijalankan. Ini bukan metafora, melainkan sistem yang sedang berjalan: 100.000 halaman konten, lebih dari 100 skill, 15 cron job, dan konteks yang terakumulasi dari setiap hubungan profesional, rapat, buku, dan ide yang pernah saya ikuti dalam setahun terakhir.
Saya membuka sumber seluruh tumpukan teknologi ini. GStack adalah kerangka kerja skill pengkodean, sudah memiliki lebih dari 87.000 star, saya menggunakannya untuk membangun sistem ini. Ketika agent perlu menulis kode, saya masih menggunakannya sebagai skill di OpenClaw/Hermes Agent saya. Ada juga browser yang dapat diprogram dengan baik, mendukung mode headed dan headless.
GBrain adalah infrastruktur pengetahuan. OpenClaw dan Hermes Agent adalah harness, Anda dapat memilih salah satu, tetapi saya biasanya menggunakan keduanya. Repo data juga ada di GitHub.
Penilaian intinya sederhana: masa depan milik individu yang dapat membangun sistem AI berbunga majemuk, bukan mereka yang hanya menggunakan alat AI terpusat yang dimiliki perusahaan.
Perbedaan di antara keduanya seperti menulis buku harian dan memiliki sistem saraf.
Bagaimana Memulai
Jika Anda juga ingin membangun sistem seperti ini:
Pertama, pilih harness. Anda dapat menggunakan OpenClaw, Hermes Agent, atau membangun dari nol berdasarkan Pi. Kuncinya adalah menjaga agar tetap ringan. Harness hanyalah router. Anda dapat men-deploy-nya di komputer rumahan yang tidak terpakai, diakses dengan Tailscale; atau meletakkannya di layanan cloud seperti Render atau Railway.
Kemudian, bangun 'otak' dengan GBrain. Awalnya saya terinspirasi oleh LLM Wiki Karpathy, mengimplementasikannya di OpenClaw, lalu mengembangkannya menjadi GBrain. Ini adalah sistem pengambilan (retrieval) terbaik yang pernah saya uji: mencapai 97,6% recall pada LongMemEval, mengungguli MemPalace tanpa memanggil LLM di tahap retrieval. Ia dilengkapi dengan 39 skill yang dapat diinstal, termasuk semua yang disebutkan di artikel ini. Hanya perlu satu perintah untuk menginstal. Anda akan mendapatkan repo git di mana setiap orang, rapat, artikel, ide memiliki halamannya sendiri.
Selanjutnya, lakukan sesuatu yang benar-benar menarik. Jangan merencanakan arsitektur skill Anda dari awal. Selesaikan satu tugas konkret terlebih dahulu: tulis laporan, teliti seseorang, unduh skor NBA satu musim dan buat model prediksi untuk taruhan olahraga Anda, analisis portofolio Anda, atau lakukan apa pun yang benar-benar Anda pedulikan. Gunakan agent Anda untuk melakukannya, iterasi terus sampai hasilnya cukup baik, kemudian jalankan Skillify—meta-skill yang disebutkan sebelumnya—untuk mengekstrak pola di dalamnya menjadi skill yang dapat digunakan kembali. Kemudian jalankan check_resolvable, konfirmasi bahwa skill baru ini telah terhubung ke resolver. Siklus ini akan mengubah pekerjaan satu kali menjadi infrastruktur yang dapat terus berbunga majemuk.
Terus gunakan dan periksa output-nya dengan cermat. Skill ini pasti akan sangat biasa di awal. Itulah intinya. Gunakan, baca konten yang dihasilkannya, ketika Anda menemukan kesalahan, jalankan cross-modal eval: serahkan output ke beberapa model, minta mereka saling memberi skor berdasarkan dimensi yang Anda pedulikan. Ini cara saya menemukan kesalahan fakta book-mirror dulu. Perbaikan ditulis ke dalam skill, dan sejak itu, setiap mirror menjadi lebih bersih.
Enam bulan kemudian, Anda akan memiliki sesuatu yang tidak dapat direplikasi oleh chatbot mana pun. Karena nilai sebenarnya tidak terletak pada model itu sendiri, tetapi pada Anda yang telah mengajarkan sistem ini memahami kehidupan, pekerjaan, dan cara penilaian spesifik Anda.
Hal pertama yang saya buat dengan sistem ini sangat buruk. Pada yang keseratus, ia sudah menjadi sistem yang saya percayakan dengan kalender, kotak masuk, persiapan rapat, dan daftar bacaan saya. Sistem sedang belajar, saya juga sedang belajar. Kurva bunga majemuk itu nyata.
Skill tebal, kode tebal, harness tipis. LLM itu sendiri hanyalah sebuah mesin. Anda benar-benar dapat membangun mobil Anda sendiri.
Semua yang saya gambarkan di sini—semua skill, pipeline book mirror, kerangka cross-modal eval, siklus skillify, arsitektur resolver, serta lebih dari 30 skillpack yang dapat diinstal—semuanya telah dibuka sumber dan tersedia gratis di GitHub.
Mulai membangun.







