<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="id">
	<id>https://inibudi.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=Algoritma%3A_Support_Vector_Machine_%28SVM%29</id>
	<title>Algoritma: Support Vector Machine (SVM) - Riwayat revisi</title>
	<link rel="self" type="application/atom+xml" href="https://inibudi.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=Algoritma%3A_Support_Vector_Machine_%28SVM%29"/>
	<link rel="alternate" type="text/html" href="https://inibudi.or.id/wiki/index.php?title=Algoritma:_Support_Vector_Machine_(SVM)&amp;action=history"/>
	<updated>2026-04-21T14:31:09Z</updated>
	<subtitle>Riwayat revisi halaman ini di wiki</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>https://inibudi.or.id/wiki/index.php?title=Algoritma:_Support_Vector_Machine_(SVM)&amp;diff=22306&amp;oldid=prev</id>
		<title>Budi: ←Membuat halaman berisi &#039;&#039;&#039;&#039;Support Vector Machine&#039;&#039;&#039; (&#039;&#039;&#039;SVM&#039;&#039;&#039;) adalah salah satu algoritme pembelajaran mesin terawasi yang digunakan untuk klasifikasi dan regresi. Metode ini bekerja dengan mencari hyperplane terbaik yang memisahkan data dari dua kelas atau lebih dengan margin maksimum. SVM dikembangkan berdasarkan konsep teori pembelajaran statistik oleh Vladimir Vapnik dan koleganya pada tahun 1960-an hingga 1990-an. Algoritme ini banyak...&#039;</title>
		<link rel="alternate" type="text/html" href="https://inibudi.or.id/wiki/index.php?title=Algoritma:_Support_Vector_Machine_(SVM)&amp;diff=22306&amp;oldid=prev"/>
		<updated>2025-11-09T01:35:09Z</updated>

		<summary type="html">&lt;p&gt;←Membuat halaman berisi &amp;#039;&amp;#039;&amp;#039;&amp;#039;Support Vector Machine&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;&amp;#039;SVM&amp;#039;&amp;#039;&amp;#039;) adalah salah satu &lt;a href=&quot;/wiki/index.php?title=Algoritme&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Algoritme (halaman belum tersedia)&quot;&gt;algoritme&lt;/a&gt; pembelajaran mesin &lt;a href=&quot;/wiki/index.php?title=Supervised_learning&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Supervised learning (halaman belum tersedia)&quot;&gt;terawasi&lt;/a&gt; yang digunakan untuk &lt;a href=&quot;/wiki/index.php?title=Klasifikasi&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Klasifikasi (halaman belum tersedia)&quot;&gt;klasifikasi&lt;/a&gt; dan &lt;a href=&quot;/wiki/index.php/Regresi&quot; title=&quot;Regresi&quot;&gt;regresi&lt;/a&gt;. Metode ini bekerja dengan mencari &lt;a href=&quot;/wiki/index.php?title=Hyperplane&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Hyperplane (halaman belum tersedia)&quot;&gt;hyperplane&lt;/a&gt; terbaik yang memisahkan data dari dua kelas atau lebih dengan margin maksimum. SVM dikembangkan berdasarkan konsep teori pembelajaran statistik oleh &lt;a href=&quot;/wiki/index.php?title=Vladimir_Vapnik&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Vladimir Vapnik (halaman belum tersedia)&quot;&gt;Vladimir Vapnik&lt;/a&gt; dan koleganya pada tahun 1960-an hingga 1990-an. Algoritme ini banyak...&amp;#039;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Halaman baru&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;Support Vector Machine&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;&amp;#039;SVM&amp;#039;&amp;#039;&amp;#039;) adalah salah satu [[algoritme]] pembelajaran mesin [[supervised learning|terawasi]] yang digunakan untuk [[klasifikasi]] dan [[regresi]]. Metode ini bekerja dengan mencari [[hyperplane]] terbaik yang memisahkan data dari dua kelas atau lebih dengan margin maksimum. SVM dikembangkan berdasarkan konsep teori pembelajaran statistik oleh [[Vladimir Vapnik]] dan koleganya pada tahun 1960-an hingga 1990-an. Algoritme ini banyak digunakan dalam berbagai bidang seperti [[pengolahan citra digital]], [[pengolahan bahasa alami]], dan [[sistem rekomendasi]] karena kemampuannya menangani data berdimensi tinggi dan bekerja efektif pada dataset yang relatif kecil.  &lt;br /&gt;
&lt;br /&gt;
== Konsep Dasar ==&lt;br /&gt;
SVM memproyeksikan data ke ruang berdimensi lebih tinggi untuk menemukan pemisah linier yang memaksimalkan jarak (margin) antara kelas. Margin yang besar diharapkan dapat meningkatkan kemampuan generalisasi model. Pada kasus dua dimensi, pemisah ini dapat divisualisasikan sebagai sebuah garis, sedangkan pada dimensi lebih tinggi disebut sebagai hyperplane. Hyperplane optimal memenuhi kriteria:&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{w} \cdot \mathbf{x} + b = 0&amp;lt;/math&amp;gt;  &lt;br /&gt;
di mana &amp;lt;math&amp;gt;\mathbf{w}&amp;lt;/math&amp;gt; adalah vektor bobot, &amp;lt;math&amp;gt;\mathbf{x}&amp;lt;/math&amp;gt; adalah vektor fitur, dan &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; adalah bias.&lt;br /&gt;
&lt;br /&gt;
== Margin dan Support Vector ==&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Support vector&amp;#039;&amp;#039;&amp;#039; adalah titik-titik data yang terletak pada batas margin dan menjadi penentu posisi hyperplane. Margin didefinisikan sebagai jarak antara hyperplane dengan support vector terdekat dari masing-masing kelas. Secara matematis, margin dapat dihitung dengan:&lt;br /&gt;
&amp;lt;math&amp;gt;\frac{2}{\|\mathbf{w}\|}&amp;lt;/math&amp;gt;  &lt;br /&gt;
Semakin besar margin, semakin baik kemampuan model dalam memisahkan data pada data yang belum pernah dilihat sebelumnya.&lt;br /&gt;
&lt;br /&gt;
== Kernel Trick ==&lt;br /&gt;
Salah satu kekuatan utama SVM adalah penggunaan metode &amp;#039;&amp;#039;&amp;#039;kernel trick&amp;#039;&amp;#039;&amp;#039;. Dengan kernel, data yang awalnya tidak dapat dipisahkan secara linier dapat dipetakan ke ruang fitur berdimensi lebih tinggi sehingga menjadi linier separable. Beberapa fungsi kernel yang umum digunakan antara lain:&lt;br /&gt;
# Kernel linear: &amp;lt;math&amp;gt;K(\mathbf{x}_i, \mathbf{x}_j) = \mathbf{x}_i \cdot \mathbf{x}_j&amp;lt;/math&amp;gt;&lt;br /&gt;
# Kernel polinomial: &amp;lt;math&amp;gt;K(\mathbf{x}_i, \mathbf{x}_j) = (\gamma \mathbf{x}_i \cdot \mathbf{x}_j + r)^d&amp;lt;/math&amp;gt;&lt;br /&gt;
# Kernel [[Radial basis function|RBF]]: &amp;lt;math&amp;gt;K(\mathbf{x}_i, \mathbf{x}_j) = \exp(-\gamma \|\mathbf{x}_i - \mathbf{x}_j\|^2)&amp;lt;/math&amp;gt;&lt;br /&gt;
# Kernel sigmoid: &amp;lt;math&amp;gt;K(\mathbf{x}_i, \mathbf{x}_j) = \tanh(\gamma \mathbf{x}_i \cdot \mathbf{x}_j + r)&amp;lt;/math&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
== Formulasi Matematis ==&lt;br /&gt;
Permasalahan optimisasi SVM dapat dinyatakan sebagai:&lt;br /&gt;
&amp;lt;math&amp;gt;\min_{\mathbf{w}, b} \frac{1}{2} \|\mathbf{w}\|^2&amp;lt;/math&amp;gt;  &lt;br /&gt;
dengan syarat &amp;lt;math&amp;gt;y_i(\mathbf{w} \cdot \mathbf{x}_i + b) \ge 1&amp;lt;/math&amp;gt; untuk semua pasangan data &amp;lt;math&amp;gt;(\mathbf{x}_i, y_i)&amp;lt;/math&amp;gt;. Dalam kasus data tidak sepenuhnya dapat dipisahkan, parameter pelonggaran (slack variable) &amp;lt;math&amp;gt;\xi_i&amp;lt;/math&amp;gt; digunakan untuk mengizinkan adanya pelanggaran margin.&lt;br /&gt;
&lt;br /&gt;
== SVM Linier dan Non-Linier ==&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;SVM linier&amp;#039;&amp;#039;&amp;#039; digunakan ketika data dapat dipisahkan secara linier. Pada kasus yang lebih kompleks di mana data tidak linier separable, digunakan SVM non-linier dengan kernel trick. Pemilihan jenis kernel sangat mempengaruhi kinerja model, dan sering kali dilakukan melalui proses [[validasi silang]].&lt;br /&gt;
&lt;br /&gt;
== Parameter dan Tuning ==&lt;br /&gt;
Kinerja SVM dipengaruhi oleh beberapa parameter penting, di antaranya:&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;C&amp;#039;&amp;#039;&amp;#039;: parameter regulasi yang mengendalikan trade-off antara margin besar dan kesalahan klasifikasi.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;γ&amp;#039;&amp;#039;&amp;#039; (gamma): parameter kernel RBF yang mengatur jarak pengaruh sebuah titik data.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;d&amp;#039;&amp;#039;&amp;#039;: derajat polinomial untuk kernel polinomial.&lt;br /&gt;
Pemilihan parameter optimal biasanya dilakukan melalui pencarian grid (grid search) atau algoritme optimisasi lainnya.&lt;br /&gt;
&lt;br /&gt;
== Kelebihan ==&lt;br /&gt;
SVM memiliki sejumlah keunggulan, antara lain:&lt;br /&gt;
# Efektif pada ruang fitur berdimensi tinggi.&lt;br /&gt;
# Tetap bekerja baik ketika jumlah fitur lebih besar daripada jumlah sampel.&lt;br /&gt;
# Memori efisien karena hanya menggunakan support vector pada proses prediksi.&lt;br /&gt;
# Mampu menangani kasus non-linier melalui kernel.&lt;br /&gt;
&lt;br /&gt;
== Keterbatasan ==&lt;br /&gt;
Meski memiliki banyak keunggulan, SVM juga memiliki keterbatasan, seperti:&lt;br /&gt;
# Kurang efisien pada dataset yang sangat besar.&lt;br /&gt;
# Pemilihan kernel dan parameter yang tidak tepat dapat menurunkan performa.&lt;br /&gt;
# Tidak secara langsung memberikan probabilitas prediksi, meskipun dapat diestimasi melalui metode kalibrasi.&lt;br /&gt;
&lt;br /&gt;
== Aplikasi ==&lt;br /&gt;
SVM digunakan dalam berbagai bidang, antara lain:&lt;br /&gt;
# [[Pengenalan wajah]]&lt;br /&gt;
# [[Klasifikasi teks]]&lt;br /&gt;
# [[Bioinformatika]] untuk klasifikasi sekuens gen&lt;br /&gt;
# [[Pengolahan citra]] untuk deteksi objek&lt;br /&gt;
# [[Sistem rekomendasi]] berbasis konten&lt;br /&gt;
&lt;br /&gt;
== Varian SVM ==&lt;br /&gt;
Beberapa varian dari SVM telah dikembangkan untuk menangani berbagai jenis masalah, seperti:&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;ν-SVM&amp;#039;&amp;#039;&amp;#039;: menggunakan parameter ν untuk mengontrol jumlah support vector.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;One-class SVM&amp;#039;&amp;#039;&amp;#039;: digunakan untuk deteksi anomali.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Least Squares SVM&amp;#039;&amp;#039;&amp;#039;: memformulasikan masalah sebagai persamaan kuadrat.&lt;br /&gt;
&lt;br /&gt;
== Kompleksitas Komputasi ==&lt;br /&gt;
Kompleksitas pelatihan SVM bergantung pada jumlah sampel (&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;) dan jumlah fitur (&amp;lt;math&amp;gt;d&amp;lt;/math&amp;gt;). Pada implementasi klasik, kompleksitasnya dapat mencapai &amp;lt;math&amp;gt;O(n^3)&amp;lt;/math&amp;gt;, meskipun berbagai optimisasi seperti [[Sequential minimal optimization|SMO]] telah dikembangkan untuk mempercepat proses pelatihan.&lt;br /&gt;
&lt;br /&gt;
== Perkembangan dan Penelitian ==&lt;br /&gt;
Penelitian mengenai SVM terus berkembang, termasuk integrasinya dengan [[deep learning]], pengembangan kernel adaptif, dan optimisasi untuk [[komputasi paralel]] serta [[komputasi awan]]. SVM tetap relevan meskipun model-model pembelajaran mesin lain seperti [[random forest]] dan [[jaringan saraf tiruan]] semakin populer.  &lt;br /&gt;
&lt;br /&gt;
Apabila digunakan dengan pemilihan parameter dan kernel yang tepat, SVM masih menjadi salah satu algoritme yang kompetitif untuk berbagai permasalahan klasifikasi modern.&lt;/div&gt;</summary>
		<author><name>Budi</name></author>
	</entry>
</feed>