<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="id">
	<id>https://inibudi.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=Large_Language_Model</id>
	<title>Large Language Model - Riwayat revisi</title>
	<link rel="self" type="application/atom+xml" href="https://inibudi.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=Large_Language_Model"/>
	<link rel="alternate" type="text/html" href="https://inibudi.or.id/wiki/index.php?title=Large_Language_Model&amp;action=history"/>
	<updated>2026-04-20T05:34:19Z</updated>
	<subtitle>Riwayat revisi halaman ini di wiki</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>https://inibudi.or.id/wiki/index.php?title=Large_Language_Model&amp;diff=23311&amp;oldid=prev</id>
		<title>Budi: ←Membuat halaman berisi &#039;&#039;&#039;&#039;Large Language Model&#039;&#039;&#039; (LLM) adalah jenis model bahasa yang terdiri dari jaringan saraf tiruan dengan jumlah parameter yang sangat besar, biasanya mencapai miliaran hingga triliunan, yang dilatih pada kumpulan data teks yang masif. Model ini mampu memahami, menghasilkan, dan memanipulasi bahasa alami dengan tingkat kemampuan yang mendekati atau setara dengan manusia dalam berbagai tugas pemrosesan bahasa. LLM menjadi salah satu tonggak pen...&#039;</title>
		<link rel="alternate" type="text/html" href="https://inibudi.or.id/wiki/index.php?title=Large_Language_Model&amp;diff=23311&amp;oldid=prev"/>
		<updated>2026-03-17T03:04:22Z</updated>

		<summary type="html">&lt;p&gt;←Membuat halaman berisi &amp;#039;&amp;#039;&amp;#039;&amp;#039;Large Language Model&amp;#039;&amp;#039;&amp;#039; (LLM) adalah jenis &lt;a href=&quot;/wiki/index.php?title=Model_bahasa&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Model bahasa (halaman belum tersedia)&quot;&gt;model bahasa&lt;/a&gt; yang terdiri dari &lt;a href=&quot;/wiki/index.php/Jaringan_saraf_tiruan&quot; title=&quot;Jaringan saraf tiruan&quot;&gt;jaringan saraf tiruan&lt;/a&gt; dengan jumlah &lt;a href=&quot;/wiki/index.php?title=Parameter&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Parameter (halaman belum tersedia)&quot;&gt;parameter&lt;/a&gt; yang sangat besar, biasanya mencapai miliaran hingga triliunan, yang dilatih pada kumpulan &lt;a href=&quot;/wiki/index.php?title=Data&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Data (halaman belum tersedia)&quot;&gt;data&lt;/a&gt; teks yang masif. Model ini mampu memahami, menghasilkan, dan memanipulasi &lt;a href=&quot;/wiki/index.php?title=Bahasa_alami&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Bahasa alami (halaman belum tersedia)&quot;&gt;bahasa alami&lt;/a&gt; dengan tingkat kemampuan yang mendekati atau setara dengan manusia dalam berbagai tugas pemrosesan bahasa. LLM menjadi salah satu tonggak pen...&amp;#039;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Halaman baru&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;Large Language Model&amp;#039;&amp;#039;&amp;#039; (LLM) adalah jenis [[model bahasa]] yang terdiri dari [[jaringan saraf tiruan]] dengan jumlah [[parameter]] yang sangat besar, biasanya mencapai miliaran hingga triliunan, yang dilatih pada kumpulan [[data]] teks yang masif. Model ini mampu memahami, menghasilkan, dan memanipulasi [[bahasa alami]] dengan tingkat kemampuan yang mendekati atau setara dengan manusia dalam berbagai tugas pemrosesan bahasa. LLM menjadi salah satu tonggak penting dalam bidang [[kecerdasan buatan]] dan [[pemrosesan bahasa alami]] (NLP) pada dekade 2020-an. Kemampuan model ini mencakup penulisan teks, penerjemahan, peringkasan, penulisan kode, penalaran, dan berbagai tugas kognitif lainnya yang sebelumnya dianggap sulit untuk diotomatisasi.&lt;br /&gt;
&lt;br /&gt;
== Sejarah dan Perkembangan ==&lt;br /&gt;
&lt;br /&gt;
Sejarah pengembangan model bahasa berbasis [[pembelajaran mendalam]] dimulai pada pertengahan tahun 2010-an dengan diperkenalkannya [[jaringan saraf berulang]] (RNN) dan varian [[Long Short-Term Memory]] (LSTM). Pada tahun 2017, makalah seminal berjudul &amp;#039;&amp;#039;&amp;quot;Attention Is All You Need&amp;quot;&amp;#039;&amp;#039; oleh Vaswani dkk. memperkenalkan [[Transformer (arsitektur)|arsitektur Transformer]], yang menjadi fondasi bagi hampir seluruh LLM modern. Arsitektur ini mengandalkan mekanisme [[mekanisme perhatian|perhatian]] (&amp;#039;&amp;#039;attention&amp;#039;&amp;#039;) untuk menangkap hubungan kontekstual antar token dalam urutan teks.&lt;br /&gt;
&lt;br /&gt;
Beberapa tonggak penting dalam perkembangan LLM antara lain:&lt;br /&gt;
&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;[[GPT]]&amp;#039;&amp;#039;&amp;#039; (Generative Pre-trained Transformer) oleh OpenAI pada tahun 2018, yang memperkenalkan paradigma pra-pelatihan (&amp;#039;&amp;#039;pre-training&amp;#039;&amp;#039;) diikuti penyempurnaan (&amp;#039;&amp;#039;fine-tuning&amp;#039;&amp;#039;).&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;[[BERT]]&amp;#039;&amp;#039;&amp;#039; (Bidirectional Encoder Representations from Transformers) oleh Google pada tahun 2018, yang memanfaatkan pemahaman konteks dua arah.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;GPT-2&amp;#039;&amp;#039;&amp;#039; pada tahun 2019, yang menunjukkan kemampuan menghasilkan teks koheren dalam skala yang lebih besar.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;GPT-3&amp;#039;&amp;#039;&amp;#039; pada tahun 2020, dengan 175 miliar parameter yang mendemonstrasikan &amp;#039;&amp;#039;in-context learning&amp;#039;&amp;#039; tanpa penyempurnaan eksplisit.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;[[PaLM]]&amp;#039;&amp;#039;&amp;#039; oleh Google pada tahun 2022, dengan 540 miliar parameter dan kemampuan penalaran yang ditingkatkan.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;GPT-4&amp;#039;&amp;#039;&amp;#039; pada tahun 2023, yang memperkenalkan kemampuan multimodal dan penalaran yang lebih kompleks.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;LLaMA&amp;#039;&amp;#039;&amp;#039; oleh Meta pada tahun 2023, yang membuka akses terhadap model berkinerja tinggi untuk penelitian.&lt;br /&gt;
&lt;br /&gt;
== Arsitektur dan Mekanisme ==&lt;br /&gt;
&lt;br /&gt;
Arsitektur dasar LLM modern didasarkan pada model [[Transformer (arsitektur)|Transformer]], yang terdiri dari dua komponen utama: &amp;#039;&amp;#039;&amp;#039;encoder&amp;#039;&amp;#039;&amp;#039; dan &amp;#039;&amp;#039;&amp;#039;decoder&amp;#039;&amp;#039;&amp;#039;. Model &amp;#039;&amp;#039;decoder-only&amp;#039;&amp;#039; seperti GPT menggunakan susunan blok Transformer yang masing-masing berisi lapisan [[mekanisme perhatian]] multi-kepala (&amp;#039;&amp;#039;multi-head self-attention&amp;#039;&amp;#039;) dan jaringan [[maju (saraf tiruan)|maju]] berbasis fungsi aktivasi.&lt;br /&gt;
&lt;br /&gt;
Mekanisme perhatian yang menjadi inti arsitektur ini dapat dirumuskan secara matematis sebagai berikut:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di mana &amp;#039;&amp;#039;Q&amp;#039;&amp;#039; mewakili matriks kueri (&amp;#039;&amp;#039;query&amp;#039;&amp;#039;), &amp;#039;&amp;#039;K&amp;#039;&amp;#039; mewakili matriks kunci (&amp;#039;&amp;#039;key&amp;#039;&amp;#039;), &amp;#039;&amp;#039;V&amp;#039;&amp;#039; mewakili matriks nilai (&amp;#039;&amp;#039;value&amp;#039;&amp;#039;), dan &amp;#039;&amp;#039;d&amp;lt;sub&amp;gt;k&amp;lt;/sub&amp;gt;&amp;#039;&amp;#039; adalah dimensi dari vektor kunci yang berfungsi sebagai faktor penskalaan untuk mencegah nilai softmax menjadi terlalu kecil pada dimensi tinggi.&lt;br /&gt;
&lt;br /&gt;
Komponen-komponen penting dalam arsitektur LLM meliputi:&lt;br /&gt;
&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Lapisan perhatian multi-kepala&amp;#039;&amp;#039;&amp;#039; yang memungkinkan model memperhatikan berbagai aspek konteks secara paralel.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Embedding posisi&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;positional encoding&amp;#039;&amp;#039;) yang memberikan informasi urutan token dalam sekuens.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Normalisasi lapisan&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;layer normalization&amp;#039;&amp;#039;) untuk menstabilkan pelatihan jaringan dalam.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Koneksi residual&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;residual connections&amp;#039;&amp;#039;) yang memfasilitasi aliran gradien pada jaringan yang sangat dalam.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Fungsi aktivasi&amp;#039;&amp;#039;&amp;#039; seperti [[ReLU]] atau GELU yang memperkenalkan non-linearitas.&lt;br /&gt;
&lt;br /&gt;
== Pelatihan dan Data ==&lt;br /&gt;
&lt;br /&gt;
Proses pelatihan LLM umumnya terdiri dari dua tahap utama: &amp;#039;&amp;#039;&amp;#039;pra-pelatihan&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;pre-training&amp;#039;&amp;#039;) dan &amp;#039;&amp;#039;&amp;#039;penyempurnaan&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;fine-tuning&amp;#039;&amp;#039;). Pada tahap pra-pelatihan, model dilatih pada kumpulan data teks yang sangat besar menggunakan fungsi kehilangan [[entropi silang]] (&amp;#039;&amp;#039;cross-entropy loss&amp;#039;&amp;#039;) untuk memprediksi token berikutnya dalam sekuens. Tujuan fungsi kehilangan ini dapat ditulis sebagai:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathcal{L} = -\sum_{t=1}^{T} \log P(x_t | x_1, x_2, \ldots, x_{t-1}; \theta)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di mana &amp;#039;&amp;#039;P&amp;#039;&amp;#039; adalah probabilitas yang dihasilkan model untuk token ke-&amp;#039;&amp;#039;t&amp;#039;&amp;#039; berdasarkan konteks sebelumnya, dan &amp;#039;&amp;#039;θ&amp;#039;&amp;#039; merepresentasikan parameter model.&lt;br /&gt;
&lt;br /&gt;
Sumber data pelatihan LLM biasanya mencakup:&lt;br /&gt;
&lt;br /&gt;
# Kumpulan teks dari [[World Wide Web|internet]] yang telah melalui proses penyaringan dan pembersihan.&lt;br /&gt;
# Karya sastra dan publikasi ilmiah yang tersedia secara terbuka.&lt;br /&gt;
# Kode sumber dari repositori seperti [[GitHub]].&lt;br /&gt;
# Ensiklopedia dan basis pengetahuan seperti [[Wikipedia]].&lt;br /&gt;
# Data percakapan dan dialog yang dikurasi khusus.&lt;br /&gt;
&lt;br /&gt;
== Kemampuan dan Aplikasi ==&lt;br /&gt;
&lt;br /&gt;
LLM menunjukkan berbagai kemampuan yang muncul (&amp;#039;&amp;#039;emergent abilities&amp;#039;&amp;#039;) seiring dengan peningkatan skala model dan data pelatihan. Kemampuan ini mencakup pemahaman semantik, penalaran deduktif, pembuatan kode, serta adaptasi terhadap tugas-tugas baru tanpa pelatihan khusus. Fenomena ini dikenal sebagai &amp;#039;&amp;#039;few-shot learning&amp;#039;&amp;#039; atau &amp;#039;&amp;#039;zero-shot learning&amp;#039;&amp;#039;, di mana model dapat menjalankan tugas yang belum pernah dilihat sebelumnya berdasarkan instruksi atau beberapa contoh.&lt;br /&gt;
&lt;br /&gt;
Aplikasi praktis LLM meliputi:&lt;br /&gt;
&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Asisten virtual&amp;#039;&amp;#039;&amp;#039; dan sistem percakapan (&amp;#039;&amp;#039;chatbot&amp;#039;&amp;#039;) yang mampu merespons pertanyaan pengguna secara kontekstual.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Penerjemahan bahasa&amp;#039;&amp;#039;&amp;#039; dengan pemahaman nuansa kontekstual yang lebih baik dibandingkan sistem statistik tradisional.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Peringkasan teks&amp;#039;&amp;#039;&amp;#039; otomatis untuk dokumen-dokumen panjang.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Penulisan kode&amp;#039;&amp;#039;&amp;#039; dan bantuan pengembangan perangkat lunak.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Analisis sentimen&amp;#039;&amp;#039;&amp;#039; dan klasifikasi teks untuk keperluan riset pasar dan sosial.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Generasi konten&amp;#039;&amp;#039;&amp;#039; kreatif seperti puisi, cerita, dan artikel.&lt;br /&gt;
&lt;br /&gt;
== Skala dan Komputasi ==&lt;br /&gt;
&lt;br /&gt;
Skala LLM diukur melalui beberapa dimensi, termasuk jumlah parameter, volume data pelatihan, dan daya komputasi yang diperlukan. Hubungan antara skala dan kinerja model dijelaskan oleh &amp;#039;&amp;#039;&amp;#039;hukum skalakuasa&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;scaling laws&amp;#039;&amp;#039;) yang menunjukkan bahwa kinerja model meningkat secara prediktif seiring dengan peningkatan jumlah parameter, data pelatihan, dan jumlah operasi komputasi. Hukum ini dapat diekspresikan secara empiris sebagai:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;L(N) \propto N^{-\alpha}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di mana &amp;#039;&amp;#039;L(N)&amp;#039;&amp;#039; adalah nilai kehilangan (&amp;#039;&amp;#039;loss&amp;#039;&amp;#039;) sebagai fungsi dari jumlah parameter &amp;#039;&amp;#039;N&amp;#039;&amp;#039;, dan &amp;#039;&amp;#039;α&amp;#039;&amp;#039; adalah eksponen yang bergantung pada konfigurasi pelatihan.&lt;br /&gt;
&lt;br /&gt;
Kebutuhan komputasi untuk melatih LLM berskala besar sangat signifikan. Pelatihan model dengan ratusan miliar parameter memerlukan ribuan [[unit pemrosesan grafis]] (GPU) atau [[tensor processing unit]] (TPU) yang beroperasi selama berminggu-minggu hingga berbulan-bulan. Biaya komputasi ini menjadi salah satu faktor utama yang membatasi aksesibilitas pengembangan LLM kepada sejumlah kecil organisasi dengan sumber daya komputasi yang memadai.&lt;br /&gt;
&lt;br /&gt;
== Limitasi dan Kritik ==&lt;br /&gt;
&lt;br /&gt;
Meskipun menunjukkan kemampuan yang mengesankan, LLM memiliki sejumlah keterbatasan yang signifikan. Model ini tidak memiliki pemahaman sejati tentang dunia dan hanya memanipulasi pola statistik dalam data pelatihan. Fenomena &amp;#039;&amp;#039;&amp;#039;halusinasi&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;hallucination&amp;#039;&amp;#039;) di mana model menghasilkan informasi yang tampak meyakinkan tetapi faktual tidak benar merupakan tantangan yang belum sepenuhnya teratasi.&lt;br /&gt;
&lt;br /&gt;
Kritik utama terhadap LLM meliputi:&lt;br /&gt;
&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Bias dan keadilan&amp;#039;&amp;#039;&amp;#039; — Model dapat mereproduksi dan memperkuat bias yang terdapat dalam data pelatihan, termasuk bias terkait gender, ras, dan kelompok sosial tertentu.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Jejak karbon&amp;#039;&amp;#039;&amp;#039; — Kebutuhan energi yang besar untuk pelatihan dan inferensi berkontribusi terhadap emisi [[gas rumah kaca]].&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Kurangnya penalaran kausal&amp;#039;&amp;#039;&amp;#039; — LLM cenderung mengidentifikasi korelasi statistik tanpa memahami hubungan sebab-akibat yang mendasarinya.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Ketergantungan pada data pelatihan&amp;#039;&amp;#039;&amp;#039; — Pengetahuan model terbatas pada periode waktu data pelatihan dan tidak dapat mengakses informasi real-time tanpa mekanisme tambahan.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Keamanan dan penyalahgunaan&amp;#039;&amp;#039;&amp;#039; — Potensi penggunaan untuk menghasilkan misinformasi, [[phishing]], atau konten berbahaya lainnya.&lt;br /&gt;
&lt;br /&gt;
== Fine-Tuning dan Adaptasi ==&lt;br /&gt;
&lt;br /&gt;
Setelah pra-pelatihan, LLM umumnya disesuaikan untuk tugas-tugas spesifik melalui berbagai teknik penyempurnaan. &amp;#039;&amp;#039;&amp;#039;Penyempurnaan terawasi&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;supervised fine-tuning&amp;#039;&amp;#039;, SFT) melibatkan pelatihan lanjutan pada dataset berlabel untuk tugas tertentu. Selain itu, teknik &amp;#039;&amp;#039;&amp;#039;Reinforcement Learning from Human Feedback&amp;#039;&amp;#039;&amp;#039; (RLHF) digunakan untuk menyelaraskan perilaku model dengan preferensi manusia.&lt;br /&gt;
&lt;br /&gt;
Teknik adaptasi modern yang efisien meliputi:&lt;br /&gt;
&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;[[Parameter-Efficient Fine-Tuning]]&amp;#039;&amp;#039;&amp;#039; (PEFT) yang hanya memperbarui sebagian kecil parameter model.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;[[LoRA]]&amp;#039;&amp;#039;&amp;#039; (Low-Rank Adaptation) yang memperkenalkan matriks berperingkat rendah untuk mengurangi jumlah parameter yang perlu dilatih ulang.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Prompt engineering&amp;#039;&amp;#039;&amp;#039; yang merancang instruksi sedemikian rupa untuk mengarahkan output model tanpa mengubah parameternya.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Retrieval-Augmented Generation&amp;#039;&amp;#039;&amp;#039; (RAG) yang mengintegrasikan sistem pengambilan informasi eksternal untuk menghasilkan respons yang lebih akurat dan terkini.&lt;br /&gt;
&lt;br /&gt;
== Etika dan Regulasi ==&lt;br /&gt;
&lt;br /&gt;
Perkembangan LLM yang pesat menimbulkan pertanyaan etika dan kebijakan yang kompleks. Isu-isu terkait hak cipta atas karya yang digunakan sebagai data pelatihan, tanggung jawab atas kesalahan yang dihasilkan model, dan dampak terhadap pasar tenaga kerja menjadi perdebatan yang intens di kalangan peneliti, pembuat kebijakan, dan masyarakat. Beberapa yurisdiksi telah mulai mengembangkan kerangka regulasi untuk mengatur pengembangan dan penggunaan sistem kecerdasan buatan, termasuk [[Undang-Undang Kecerdasan Buatan|Undang-Undang Kecerdasan Buatan Uni Eropa]] yang disahkan pada tahun 2024.&lt;br /&gt;
&lt;br /&gt;
Prinsip-prinsip etika yang diusulkan untuk pengembangan LLM mencakup transparansi dalam proses pelatihan, akuntabilitas atas output yang dihasilkan, pengujian menyeluruh sebelum distribusi, dan mekanisme umpan balik yang memungkinkan pengguna melaporkan masalah. Diskusi mengenai &amp;#039;&amp;#039;&amp;#039;kecerdasan buatan umum&amp;#039;&amp;#039;&amp;#039; (AGI) dan implikasi jangka panjang dari sistem yang semakin canggih juga menjadi perhatian komunitas riset dan masyarakat luas.&lt;br /&gt;
&lt;br /&gt;
== Lihat Juga ==&lt;br /&gt;
&lt;br /&gt;
* [[Transformer (arsitektur)]]&lt;br /&gt;
* [[GPT]]&lt;br /&gt;
* [[BERT]]&lt;br /&gt;
* [[Pemrosesan bahasa alami]]&lt;br /&gt;
* [[Pembelajaran mendalam]]&lt;br /&gt;
* [[Kecerdasan buatan]]&lt;br /&gt;
* [[Mekanisme perhatian]]&lt;br /&gt;
* [[Reinforcement Learning from Human Feedback]]&lt;/div&gt;</summary>
		<author><name>Budi</name></author>
	</entry>
</feed>