←Membuat halaman berisi ''''Distilasi pengetahuan''' adalah sebuah teknik dalam pembelajaran mesin yang bertujuan untuk mentransfer pengetahuan dari sebuah model yang besar dan kompleks (disebut ''teacher model'') ke model yang lebih kecil dan efisien (disebut ''student model''). Konsep ini dikembangkan untuk mengurangi kompleksitas komputasi dan kebutuhan sumber daya tanpa mengorbankan akurasi prediksi secara signifikan. Distilasi pengetahuan memanfaatkan keluaran model besar sebaga...'
 
(Tidak ada perbedaan)