[Machine Learning] KL 散度(Kullback-Leibler Divergence)筆記
Last Updated on 2023-07-19 by Clay
什麼是 KL 散度(Divergence)?
我們經常會在機器學習中聽到 『KL 散度』(Kullback Libler Divergence)這個詞,而 KL 散度其實就是評估兩個機率分佈 P 和 Q 之間『差異性』的一個評估值。
Read More »[Machine Learning] KL 散度(Kullback-Leibler Divergence)筆記