Stochastic Gradient Descent: Perbedaan antara revisi
Batch created by Azure OpenAI |
k Text replacement - "pembelajaran mesin" to "Pembelajaran Mesin" Tag: Suntingan perangkat seluler Suntingan peramban seluler |
||
Baris 1: | Baris 1: | ||
Stochastic Gradient Descent (SGD) adalah algoritma optimisasi yang banyak digunakan dalam pelatihan [[jaringan saraf tiruan]] dan [[ | Stochastic Gradient Descent (SGD) adalah algoritma optimisasi yang banyak digunakan dalam pelatihan [[jaringan saraf tiruan]] dan [[Pembelajaran Mesin]]. Berbeda dengan metode Gradient Descent biasa, SGD memperbarui parameter model berdasarkan satu atau beberapa sampel acak pada setiap iterasi, sehingga lebih efisien dalam menangani dataset besar. | ||
== Prinsip Kerja == | == Prinsip Kerja == | ||
Baris 5: | Baris 5: | ||
== Keunggulan dan Aplikasi == | == Keunggulan dan Aplikasi == | ||
Keunggulan utama SGD adalah kemampuannya untuk beroperasi pada dataset berukuran besar dan menghindari jebakan minimum lokal pada permukaan loss. Algoritma ini banyak digunakan dalam pelatihan [[deep learning]], [[regresi logistik]], dan [[klasifikasi]] di [[ | Keunggulan utama SGD adalah kemampuannya untuk beroperasi pada dataset berukuran besar dan menghindari jebakan minimum lokal pada permukaan loss. Algoritma ini banyak digunakan dalam pelatihan [[deep learning]], [[regresi logistik]], dan [[klasifikasi]] di [[Pembelajaran Mesin]]. | ||
== Variasi dan Pengembangan == | == Variasi dan Pengembangan == | ||
Terdapat berbagai variasi dari SGD seperti [[Mini-batch Gradient Descent]], [[Momentum]], dan [[Adam optimizer]] yang memperbaiki performa dan stabilitas algoritma. Penggunaan SGD telah merevolusi cara model pembelajaran mesin dilatih dan diimplementasikan. | Terdapat berbagai variasi dari SGD seperti [[Mini-batch Gradient Descent]], [[Momentum]], dan [[Adam optimizer]] yang memperbaiki performa dan stabilitas algoritma. Penggunaan SGD telah merevolusi cara model pembelajaran mesin dilatih dan diimplementasikan. |