<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="id">
	<id>https://inibudi.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=Q-Learning_vs_SARSA</id>
	<title>Q-Learning vs SARSA - Riwayat revisi</title>
	<link rel="self" type="application/atom+xml" href="https://inibudi.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=Q-Learning_vs_SARSA"/>
	<link rel="alternate" type="text/html" href="https://inibudi.or.id/wiki/index.php?title=Q-Learning_vs_SARSA&amp;action=history"/>
	<updated>2026-04-22T00:24:26Z</updated>
	<subtitle>Riwayat revisi halaman ini di wiki</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>https://inibudi.or.id/wiki/index.php?title=Q-Learning_vs_SARSA&amp;diff=13089&amp;oldid=prev</id>
		<title>Budi: Batch created by Azure OpenAI</title>
		<link rel="alternate" type="text/html" href="https://inibudi.or.id/wiki/index.php?title=Q-Learning_vs_SARSA&amp;diff=13089&amp;oldid=prev"/>
		<updated>2025-07-30T05:23:59Z</updated>

		<summary type="html">&lt;p&gt;Batch created by Azure OpenAI&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Halaman baru&lt;/b&gt;&lt;/p&gt;&lt;div&gt;Q-Learning dan [[SARSA]] adalah dua algoritma populer dalam pembelajaran penguatan. Keduanya digunakan untuk menemukan kebijakan optimal, namun memiliki perbedaan mendasar dalam cara memperbarui nilai Q dan memilih aksi yang akan diambil oleh agen.&lt;br /&gt;
&lt;br /&gt;
== Perbedaan Utama ==&lt;br /&gt;
Q-Learning dikenal sebagai off-policy, yaitu memperbarui nilai Q berdasarkan aksi terbaik yang bisa diambil pada langkah berikutnya, tanpa memperhatikan aksi yang benar-benar diambil. Sebaliknya, SARSA adalah on-policy, memperbarui nilai Q berdasarkan aksi aktual yang diambil oleh agen.&lt;br /&gt;
&lt;br /&gt;
== Keunggulan Q-Learning ==&lt;br /&gt;
Q-Learning cenderung lebih agresif dalam mencari kebijakan optimal, karena selalu mengasumsikan agen akan memilih aksi terbaik selanjutnya. Hal ini membuat Q-Learning lebih cepat menemukan kebijakan optimal di lingkungan yang deterministik.&lt;br /&gt;
&lt;br /&gt;
== Kapan Menggunakan SARSA ==&lt;br /&gt;
SARSA sering digunakan ketika lingkungan bersifat stochastik atau ketika eksplorasi berisiko tinggi. Dalam kasus ini, pembaruan berbasis aksi aktual membuat pembelajaran lebih stabil dan aman bagi agen.&lt;/div&gt;</summary>
		<author><name>Budi</name></author>
	</entry>
</feed>