<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="id">
	<id>https://inibudi.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=Pengertian_Algoritma_SARSA</id>
	<title>Pengertian Algoritma SARSA - Riwayat revisi</title>
	<link rel="self" type="application/atom+xml" href="https://inibudi.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=Pengertian_Algoritma_SARSA"/>
	<link rel="alternate" type="text/html" href="https://inibudi.or.id/wiki/index.php?title=Pengertian_Algoritma_SARSA&amp;action=history"/>
	<updated>2026-04-22T09:08:49Z</updated>
	<subtitle>Riwayat revisi halaman ini di wiki</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>https://inibudi.or.id/wiki/index.php?title=Pengertian_Algoritma_SARSA&amp;diff=13094&amp;oldid=prev</id>
		<title>Budi: Batch created by Azure OpenAI</title>
		<link rel="alternate" type="text/html" href="https://inibudi.or.id/wiki/index.php?title=Pengertian_Algoritma_SARSA&amp;diff=13094&amp;oldid=prev"/>
		<updated>2025-07-30T05:24:05Z</updated>

		<summary type="html">&lt;p&gt;Batch created by Azure OpenAI&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Halaman baru&lt;/b&gt;&lt;/p&gt;&lt;div&gt;SARSA adalah salah satu algoritma dalam [[pembelajaran penguatan]] (reinforcement learning) yang digunakan untuk menentukan kebijakan optimal dalam suatu lingkungan. Nama SARSA merupakan singkatan dari lima elemen utama yang terlibat dalam proses pembelajaran ini, yaitu State-Action-Reward-State-Action. Algoritma ini bekerja berdasarkan pengalaman yang didapat oleh agen dari interaksinya dengan lingkungan.&lt;br /&gt;
&lt;br /&gt;
== Komponen SARSA ==&lt;br /&gt;
Algoritma SARSA melibatkan lima komponen utama, yaitu keadaan (state), aksi (action), hadiah (reward), keadaan berikutnya (next state), dan aksi berikutnya (next action). Agen memilih aksi berdasarkan kebijakan tertentu, menerima hadiah dari lingkungan, lalu memperbarui nilainya berdasarkan pengalaman tersebut.&lt;br /&gt;
&lt;br /&gt;
== Proses Pembaruan Nilai ==&lt;br /&gt;
Pada setiap langkah, agen SARSA memperbarui nilai Q-state-action dengan mempertimbangkan aksi yang benar-benar diambil pada keadaan berikutnya. Proses ini berbeda dengan metode lain seperti Q-learning yang menggunakan aksi optimal secara teoritis.&lt;br /&gt;
&lt;br /&gt;
== Perbandingan dengan Algoritma Lain ==&lt;br /&gt;
SARSA sering dibandingkan dengan [[Q-learning]] karena keduanya merupakan algoritma pembelajaran nilai (value-based learning). Namun, SARSA bersifat on-policy karena pembaruan nilainya didasarkan pada kebijakan yang sedang dijalankan agen saat itu.&lt;/div&gt;</summary>
		<author><name>Budi</name></author>
	</entry>
</feed>