Log publik utama

Gabungan tampilan semua log yang tersedia di Wiki Berbudi. Anda dapat melakukan pembatasan tampilan dengan memilih jenis log, nama pengguna (sensitif terhadap kapitalisasi), atau judul halaman (juga sensitif terhadap kapitalisasi).

Log
  • 2 November 2025 00.45 Budi bicara kontrib membuat halaman Distilasi pengetahuan (←Membuat halaman berisi ''''Distilasi pengetahuan''' adalah sebuah teknik dalam pembelajaran mesin yang bertujuan untuk mentransfer pengetahuan dari sebuah model yang besar dan kompleks (disebut ''teacher model'') ke model yang lebih kecil dan efisien (disebut ''student model''). Konsep ini dikembangkan untuk mengurangi kompleksitas komputasi dan kebutuhan sumber daya tanpa mengorbankan akurasi prediksi secara signifikan. Distilasi pengetahuan memanfaatkan keluaran model besar sebaga...')