Era Baru AI Telah Tiba: Setelah Demam Model Raksasa (LLM), Dunia Kini Beralih ke ‘Small Language Models’ (SLM)

Oleh : Risky Dwi Setiyawan

Jakarta Selatan, (27/06/2025). Perkembangan kecerdasan buatan (AI) telah mencapai puncaknya dengan munculnya Large Language Model (LLM), sebuah teknologi revolusioner yang mendasari berbagai aplikasi AI modern, mulai dari chatbot hingga asisten virtual.Model bahasa raksasa ini telah menunjukkan kemampuan luar biasa dalam memahami, menghasilkan, dan memproses bahasa manusia dengan tingkat akurasi yang belum pernah terjadi sebelumnya, mengubah cara manusia berinteraksi dengan teknologi. Namun, seiring dengan dominasi LLM, muncul pula tantangan signifikan terkait biaya operasional, kebutuhan komputasi yang masif, dan dampak lingkungan . Menanggapi tantangan ini, fokus inovasi dalam dunia AI kini mulai bergeser menuju Small Language Models (SLM), yang menawarkan solusi lebih efisien dan dapat diakses, menandai era baru dalam pengembangan AI yang lebih terukur dan berkelanjutan.

Memahami Large Language Model (LLM) sebagai Fondasi AI Modern

Large Language Model (LLM) merupakan jenis model AI yang dirancang khusus untuk memahami dan menghasilkan bahasa manusia, menjadi tulang punggung di balik banyak aplikasi kecerdasan buatan kontemporer. LLM dibangun di atas arsitektur transformer, sebuah inovasi kunci dalam pembelajaran mendalam yang memungkinkan model memproses seluruh urutan data secara paralel, bukan secara berurutan, sehingga meningkatkan efisiensi dan kemampuan dalam menangani dependensi jarak jauh dalam teks. Inti dari LLM adalah kemampuannya untuk mempelajari pola, tata bahasa, sintaksis, dan semantik dari sejumlah besar data teks dan kode yang dikumpulkannya selama pelatihan. Data pelatihan ini bisa mencapai triliunan parameter, meliputi buku, artikel, situs web, dan berbagai sumber teks lainnya dari internet. Proses pelatihan yang intensif ini memungkinkan LLM untuk mengenali konteks, memahami nuansa bahasa, dan menghasilkan respons yang koheren dan relevan.

Model-model ini memiliki kemampuan generatif yang luar biasa, artinya mereka dapat menciptakan teks baru yang mirip dengan data yang mereka pelajari. Kemampuan ini memungkinkan LLM untuk melakukan berbagai tugas pemrosesan bahasa alami (NLP) seperti menerjemahkan bahasa, meringkas dokumen, menjawab pertanyaan, menulis esai, membuat kode program, hingga menghasilkan ide-ide kreatif. Contoh LLM yang populer antara lain GPT-3.5 dan GPT-4 dari OpenAI, Bard (kini Gemini) dari Google, LLaMA dari Meta, dan Claude dari Anthropic. Model-model ini seringkali disebut sebagai “model dasar” karena mereka dapat diadaptasi atau “disempurnakan” (fine-tuned) untuk berbagai tugas spesifik dengan data yang lebih kecil, tanpa perlu melatih model dari awal. Keberadaan LLM telah merevolusi banyak industri, mulai dari layanan pelanggan hingga pengembangan perangkat lunak, dengan menyediakan alat yang kuat untuk otomatisasi dan peningkatan produktivitas berbasis bahasa. Meskipun demikian, skala dan kompleksitas LLM juga membawa tantangan signifikan, terutama terkait dengan biaya komputasi, konsumsi energi, dan kebutuhan infrastruktur yang besar untuk pelatihan dan operasionalnya.

Cara Kerja LLM: Arsitektur, Pelatihan, dan Kemampuan

Cara kerja Large Language Model (LLM) berpusat pada arsitektur transformer dan proses pelatihan yang masif. Arsitektur transformer, yang diperkenalkan pada tahun 2017, menjadi fondasi utama bagi LLM modern karena kemampuannya dalam memproses urutan data secara efisien melalui mekanisme self-attention. Mekanisme ini memungkinkan model untuk memberikan bobot berbeda pada bagian-bagian input yang berbeda saat memproses setiap kata, sehingga dapat memahami konteks dan hubungan antar kata dalam kalimat yang panjang. Secara garis besar, LLM bekerja dengan memprediksi kata atau token berikutnya dalam sebuah urutan berdasarkan probabilitas yang telah dipelajari dari data pelatihan. Ketika pengguna memberikan prompt atau pertanyaan, LLM akan menganalisis input tersebut dan menghasilkan respons kata demi kata, memilih kata yang paling mungkin secara statistik untuk melengkapi atau menjawab input tersebut.

Proses pelatihan LLM melibatkan pemberian sejumlah besar data teks dan kode, yang bisa mencapai terabyte atau bahkan petabyte, kepada model. Data ini mencakup buku, artikel, situs web, percakapan, dan berbagai bentuk teks lainnya yang tersedia secara publik. Selama pelatihan, model belajar untuk mengidentifikasi pola, tata bahasa, sintaksis, dan semantik bahasa manusia. LLM tidak “memahami” bahasa dalam arti manusia, melainkan mengidentifikasi hubungan statistik antara kata-kata dan frasa, serta bagaimana mereka cenderung muncul bersamaan. Ini adalah alasan mengapa LLM dapat menghasilkan teks yang terdengar sangat alami dan koheren, bahkan mampu meniru gaya penulisan tertentu. Kemampuan LLM mencakup berbagai tugas pemrosesan bahasa alami (NLP) seperti menjawab pertanyaan (Q&A), meringkas teks, menerjemahkan bahasa, menghasilkan konten kreatif (puisi, cerita), menulis kode program, dan bahkan berinteraksi dalam percakapan yang kompleks. Model-model ini juga dapat melakukan in-context learning, yaitu kemampuan untuk mempelajari tugas baru hanya dengan beberapa contoh dalam prompt, tanpa perlu pelatihan ulang yang ekstensif. Meskipun demikian, kinerja LLM sangat bergantung pada kualitas dan kuantitas data pelatihan, serta arsitektur model dan parameter yang digunakan, menjadikannya sistem yang sangat kompleks dan mahal untuk dibangun serta dioperasikan.

Tantangan dan Keterbatasan Large Language Model (LLM)

Meskipun Large Language Model (LLM) telah membawa kemajuan signifikan dalam bidang kecerdasan buatan, teknologi ini juga dihadapkan pada sejumlah tantangan dan keterbatasan yang perlu diatasi . Salah satu kendala utama adalah biaya komputasi dan energi yang sangat tinggi . Pelatihan LLM memerlukan daya komputasi yang masif, seringkali membutuhkan ribuan GPU yang beroperasi selama berbulan-bulan, menghasilkan jejak karbon yang signifikan dan biaya operasional yang fantastis . Ini menjadikan pengembangan dan operasional LLM skala besar hanya dapat dilakukan oleh perusahaan atau institusi dengan sumber daya finansial yang sangat besar . Selain itu, LLM membutuhkan infrastruktur yang kuat untuk inferensi atau penggunaan model setelah pelatihan, yang juga berkontribusi pada biaya yang tinggi .

Keterbatasan lain adalah masalah “halusinasi” atau hallucinations, di mana LLM menghasilkan informasi yang salah, tidak akurat, atau sepenuhnya fiktif, namun disajikan dengan sangat meyakinkan. Ini terjadi karena LLM cenderung memprediksi kata berikutnya berdasarkan pola statistik tanpa benar-benar “memahami” kebenaran faktual . Hal ini menjadi masalah serius, terutama dalam aplikasi yang membutuhkan akurasi tinggi seperti informasi medis atau hukum. Selain halusinasi, LLM juga rentan terhadap bias yang terkandung dalam data pelatihan. Jika data pelatihan mengandung bias sosial, stereotip, atau informasi diskriminatif, model akan mempelajari dan mereplikasi bias tersebut dalam responsnya, yang dapat menyebabkan hasil yang tidak adil atau merugikan.

Selanjutnya, kurangnya kemampuan penalaran dunia nyata adalah batasan signifikan. Meskipun LLM dapat menghasilkan teks yang koheren, mereka tidak memiliki pemahaman kognitif atau penalaran kausal layaknya manusia. Mereka tidak dapat melakukan penalaran logis yang kompleks, memahami sebab-akibat secara mendalam, atau memiliki kesadaran umum (common sense) yang kuat. Ini membatasi kemampuan mereka dalam menangani tugas-tugas yang membutuhkan pemahaman mendalam tentang dunia fisik atau interaksi sosial yang kompleks. Masalah keamanan dan privasi data juga menjadi perhatian. Data yang digunakan untuk melatih LLM dapat mengandung informasi sensitif, dan ada risiko kebocoran data atau penggunaan yang tidak sah. Selain itu, LLM dapat dimanipulasi untuk menghasilkan konten berbahaya, seperti berita palsu atau ujaran kebencian, jika tidak diimplementasikan dengan pengamanan yang memadai. Terakhir, ukuran model yang sangat besar membuat LLM sulit untuk disebarkan pada perangkat dengan sumber daya terbatas, seperti ponsel pintar atau perangkat edge, membatasi adopsi luas di luar lingkungan cloud. Tantangan-tantangan ini menjadi pendorong utama di balik pencarian alternatif yang lebih efisien dan terukur, seperti Small Language Models (SLM).

Munculnya Small Language Models (SLM) sebagai Alternatif Efisien

Menghadapi berbagai tantangan dan keterbatasan yang melekat pada Large Language Models (LLM), dunia kecerdasan buatan kini menyaksikan tren yang berkembang pesat menuju Small Language Models (SLM). SLM adalah model bahasa yang memiliki jumlah parameter jauh lebih sedikit dibandingkan LLM, seringkali berkisar antara beberapa juta hingga beberapa miliar parameter, berbanding terbalik dengan triliunan parameter pada LLM raksasa. Pergeseran ini didorong oleh kebutuhan akan solusi AI yang lebih efisien, hemat biaya, dan dapat diakses oleh lebih banyak pihak, termasuk perusahaan kecil dan menengah, serta untuk aplikasi di perangkat dengan sumber daya terbatas.

Salah satu keuntungan paling signifikan dari SLM adalah kebutuhan komputasi yang jauh lebih rendah. Dengan parameter yang lebih sedikit, SLM memerlukan daya pemrosesan yang lebih sedikit untuk pelatihan dan inferensi, yang secara langsung mengurangi biaya operasional dan konsumsi energi. Hal ini tidak hanya membuat SLM lebih ramah lingkungan, tetapi juga memungkinkan pengembang untuk melatih dan menyebarkan model tanpa perlu investasi infrastruktur yang sangat besar. SLM juga lebih mudah untuk disesuaikan (fine-tune) untuk tugas-tugas spesifik. Karena ukurannya yang lebih kecil, proses fine-tuning dapat dilakukan dengan cepat menggunakan dataset yang lebih kecil, menghasilkan model yang sangat spesifik dan berkinerja tinggi untuk domain tertentu. Ini sangat bermanfaat bagi perusahaan yang membutuhkan solusi AI yang sangat terspesialisasi tanpa harus melatih ulang model dasar yang besar dari awal.

Selain itu, SLM menawarkan kemampuan untuk disebarkan pada perangkat edge, seperti ponsel pintar, perangkat IoT, atau komputer tertanam. Ini membuka peluang baru untuk aplikasi AI yang membutuhkan latensi rendah dan tidak bergantung pada koneksi internet yang stabil ke cloud. Misalnya, asisten suara di perangkat lokal, pemrosesan bahasa di mobil otonom, atau aplikasi penerjemahan offline. Meskipun SLM lebih kecil, kemajuan dalam teknik kompresi model, kuantisasi, dan arsitektur yang lebih efisien telah memungkinkan SLM untuk mencapai kinerja yang mengejutkan, mendekati atau bahkan melampaui LLM dalam tugas-tugas spesifik setelah fine-tuning yang tepat. Kehadiran SLM menandai demokratisasi AI, membuat teknologi canggih ini lebih terjangkau dan dapat diimplementasikan secara luas, membuka pintu bagi inovasi di berbagai sektor yang sebelumnya terhambat oleh skala dan biaya LLM. Ini bukan berarti SLM akan sepenuhnya menggantikan LLM, melainkan akan melengkapi ekosistem AI, menawarkan solusi yang lebih bervariasi dan sesuai dengan kebutuhan yang berbeda.

Keunggulan dan Manfaat Penerapan Small Language Models (SLM)

Penerapan Small Language Models (SLM) menawarkan serangkaian keunggulan dan manfaat signifikan yang memposisikannya sebagai solusi AI yang sangat menarik, terutama di tengah kebutuhan akan efisiensi dan aksesibilitas. Salah satu manfaat utamanya adalah efisiensi biaya yang substansial. Dibandingkan dengan LLM yang membutuhkan investasi besar dalam infrastruktur komputasi dan konsumsi energi, SLM secara drastis mengurangi biaya pelatihan dan inferensi. Hal ini memungkinkan perusahaan dengan anggaran terbatas, startup, atau bahkan individu untuk mengembangkan dan menyebarkan aplikasi AI yang canggih tanpa perlu menguras sumber daya finansial mereka.

Selain efisiensi biaya, SLM juga unggul dalam kecepatan dan latensi. Karena ukurannya yang lebih kecil, SLM dapat diproses lebih cepat, baik selama pelatihan maupun saat inferensi. Ini sangat krusial untuk aplikasi yang membutuhkan respons real-time, seperti chatbot layanan pelanggan, asisten suara, atau sistem rekomendasi yang harus memberikan hasil instan. Latensi yang rendah juga memungkinkan SLM untuk beroperasi secara efektif di lingkungan edge computing, di mana data diproses dekat dengan sumbernya, mengurangi ketergantungan pada koneksi cloud dan meningkatkan privasi data.

Fleksibilitas dan kemampuan fine-tuning yang lebih mudah adalah keunggulan lain dari SLM . Karena ukurannya yang lebih kecil, SLM dapat disesuaikan (fine-tuned) dengan dataset yang lebih kecil dan dalam waktu yang lebih singkat untuk tugas atau domain spesifik. Ini berarti bahwa SLM dapat dioptimalkan untuk kinerja yang sangat tinggi dalam ceruk pasar tertentu, seperti model bahasa untuk industri hukum, medis, atau keuangan, tanpa perlu melatih model raksasa dari awal. Proses fine-tuning yang efisien ini memungkinkan iterasi yang cepat dan adaptasi terhadap perubahan kebutuhan bisnis.

Manfaat penting lainnya adalah jejak lingkungan yang lebih rendah. Konsumsi energi yang jauh lebih sedikit untuk pelatihan dan operasional SLM berarti emisi karbon yang lebih rendah dibandingkan LLM. Ini sejalan dengan upaya global untuk keberlanjutan dan praktik AI yang bertanggung jawab. Terakhir, SLM dapat meningkatkan privasi dan keamanan data. Dengan memproses data secara lokal pada perangkat atau server yang lebih kecil, risiko data harus dikirim ke cloud yang lebih besar dan berpotensi terekspos dapat diminimalkan. Hal ini sangat penting untuk aplikasi yang menangani informasi sensitif atau diatur oleh peraturan privasi yang ketat. Dengan semua keunggulan ini, SLM tidak hanya menawarkan alternatif yang lebih efisien tetapi juga membuka jalan bagi demokratisasi AI, membuatnya lebih mudah diakses dan diterapkan di berbagai skala dan kebutuhan.

Aplikasi Potensial Small Language Models (SLM) di Berbagai Industri

Small Language Models (SLM) memiliki potensi aplikasi yang luas di berbagai industri, menawarkan solusi yang efisien dan terukur untuk kebutuhan spesifik . Kemampuan SLM untuk beroperasi dengan sumber daya komputasi yang lebih rendah dan latensi yang minimal menjadikannya ideal untuk banyak skenario yang tidak dapat dijangkau oleh Large Language Models (LLM). Dalam layanan pelanggan, SLM dapat digunakan untuk mengembangkan chatbot atau asisten virtual yang lebih ringan dan responsif .Daripada mengandalkan LLM yang berat untuk setiap interaksi, SLM dapat dilatih secara spesifik untuk menangani pertanyaan umum, memberikan informasi produk, atau mengarahkan pengguna ke sumber daya yang tepat, meningkatkan efisiensi dan mengurangi beban pada agen manusia . Contohnya, sebuah SLM dapat diimplementasikan langsung pada perangkat router pintar untuk membantu pengguna memecahkan masalah koneksi internet secara mandiri.

Di sektor kesehatan, SLM dapat digunakan untuk asisten transkripsi medis yang berjalan di perangkat edge, membantu dokter mendokumentasikan catatan pasien secara real-time tanpa perlu koneksi cloud yang konstan . Mereka juga bisa berfungsi sebagai alat pendukung keputusan yang cepat, menganalisis riwayat pasien dan memberikan rekomendasi berdasarkan basis pengetahuan yang terbatas namun spesifik, semua dengan tetap menjaga privasi data karena pemrosesan lokal.

Untuk industri otomotif dan perangkat IoT, SLM sangat relevan untuk sistem kontrol suara di dalam kendaraan, navigasi offline, atau pemrosesan bahasa di perangkat rumah pintar. Kemampuan untuk menjalankan model AI secara langsung di perangkat memungkinkan respons yang lebih cepat, keamanan yang lebih baik, dan fungsionalitas yang tidak terganggu oleh masalah konektivitas. Misalnya, SLM dapat memproses perintah suara untuk mengontrol fitur mobil atau perangkat rumah tanpa mengirim data ke cloud.

Dalam pendidikan, SLM dapat digunakan untuk membuat alat bantu belajar yang personal, seperti pemeriksa tata bahasa atau penilai esai otomatis yang dapat diinstal di komputer siswa. Ini memungkinkan umpan balik instan dan terpersonalisasi, membantu siswa meningkatkan kemampuan menulis mereka secara mandiri.

Di sektor keuangan, SLM dapat dimanfaatkan untuk mendeteksi penipuan dalam transaksi kecil atau memproses aplikasi pinjaman secara otomatis di lokasi terpencil dengan konektivitas terbatas. Dengan fokus pada data yang spesifik dan terbatas, SLM dapat memberikan akurasi yang tinggi dalam tugas-tugas ini dengan risiko privasi yang lebih rendah.

Terakhir, dalam pengembangan perangkat lunak, SLM dapat digunakan untuk melengkapi kode otomatis (code completion) atau deteksi bug yang berjalan secara lokal di Integrated Development Environment (IDE) pengembang, meningkatkan produktivitas tanpa memerlukan koneksi internet yang stabil ke server LLM yang mahal. Dengan demikian, SLM tidak hanya menawarkan efisiensi, tetapi juga membuka peluang inovasi di berbagai sektor yang sebelumnya mungkin terhambat oleh skala dan biaya LLM.

Masa Depan AI: Kolaborasi LLM dan SLM untuk Ekosistem yang Lebih Optimal

Masa depan kecerdasan buatan (AI) kemungkinan besar tidak akan didominasi sepenuhnya oleh Large Language Models (LLM) atau Small Language Models (SLM) secara eksklusif, melainkan melalui kolaborasi dan integrasi antara keduanya untuk menciptakan ekosistem AI yang lebih optimal dan holistik . LLM akan terus berperan sebagai “otak” utama yang menyediakan pemahaman bahasa yang mendalam, kemampuan generatif yang luas, dan dasar pengetahuan yang masif. Mereka akan tetap menjadi pilihan utama untuk tugas-tugas yang membutuhkan pemahaman konteks yang sangat luas, kreativitas tinggi, atau akses ke informasi yang sangat beragam, seperti penelitian, pengembangan konten kompleks, atau aplikasi yang memerlukan penalaran abstrak. Perusahaan besar dan pusat penelitian akan terus berinvestasi dalam pengembangan LLM yang semakin canggih, seperti yang dilakukan Google dengan Gemini atau OpenAI dengan seri GPT mereka.

Di sisi lain, SLM akan menjadi “otot” yang lincah dan efisien, bertanggung jawab atas implementasi AI di skala yang lebih kecil, di perangkat edge, dan untuk tugas-tugas yang sangat spesifik dan berulang. Mereka akan menjadi solusi pilihan ketika efisiensi biaya, kecepatan, latensi rendah, dan privasi data menjadi prioritas utama. Bayangkan sebuah skenario di mana LLM berfungsi sebagai pusat intelijen yang melatih dan menghasilkan model dasar yang kemudian “diperkecil” atau “disuling” (distilled) menjadi SLM yang lebih efisien. SLM ini kemudian dapat disebarkan ke jutaan perangkat atau aplikasi spesifik, menangani interaksi sehari-hari yang ringan, sementara LLM tetap tersedia di cloud untuk tugas-tugas yang lebih berat atau ketika ada eskalasi masalah yang membutuhkan pemahaman lebih dalam.

Pendekatan ini dikenal sebagai “AI hibrida” atau “federated learning”, di mana sebagian pemrosesan dilakukan secara lokal oleh SLM, dan hanya data atau permintaan yang lebih kompleks yang dikirim ke LLM di cloud. Hal ini tidak hanya mengurangi beban pada LLM dan infrastruktur cloud, tetapi juga meningkatkan privasi pengguna karena lebih sedikit data yang perlu keluar dari perangkat lokal. Selain itu, teknik seperti quantization, pruning, dan knowledge distillation akan semakin berkembang, memungkinkan model-model besar untuk dikompresi menjadi versi yang lebih kecil tanpa kehilangan terlalu banyak kinerja, sehingga mempercepat transisi dari LLM ke SLM yang efisien. Dengan demikian, masa depan AI akan melihat konvergensi kekuatan komputasi masif LLM dengan kelincahan dan efisiensi SLM, menciptakan ekosistem yang lebih terdistribusi, berkelanjutan, dan adaptif untuk memenuhi beragam kebutuhan di berbagai skala dan lingkungan.

Tentang Penulis

[Risky Dwi Setiyawan Mahasiswa Universitas Pamulang Fakultas Ilmu Komputer Prodi Teknik Informatika ]

DAFTAR PUSTAKA

Riskyana (12/03/2025). Mengenal Large Language Model: Teknologi di Balik AI Modern (https://ai.fmipa.unesa.ac.id/post/mengenal-large-language-model-teknologi-di-balik-ai-modern)

Rita Puspita Sari (07/05/2024). Apa itu LLM? Pengertian dan Contoh Penerapannya (https://www.cloudcomputing.id/pengetahuan-dasar/apa-itu-llm-pengertian)

Liputan6 (10/12/2024). Apa Itu LLM: Memahami Large Language Model dan Dampaknya (https://www.liputan6.com/feeds/read/5806130/apa-itu-llm-memahami-large-language-model-dan-dampaknya)

Haryo Brono (30/03/2025). Small Language Models, Potensi Besar AI untuk Skala Kecil yang Hemat Biaya (https://koran-jakarta.com/2025-03-30/small-language-models-potensi-besar-ai-untuk-skala-kecil-yang-hemat-biaya)

Aryan Kargwal (04/06/2025). 10 Model Bahasa BesarLLMs) Terbaik pada tahun 2025 (https://botpress.com/id/blog/best-large-language-models)

Leave a Reply

Your email address will not be published. Required fields are marked *

Open chat
Media Sembilan
Hallo Kakak!