Skip to content

Machine Learning

[NLP] Word Embedding 筆記

Word Embedding (詞嵌入) 是自然語言處理 (NLP) 當中經常會使用到的一種『技術』,其核心概念為『將文字轉成數值型態』。這有什麼好處呢?比如說在類神經網路的模型訓練當中,我們沒有辦法直接將『文字』帶入其中進行運算,畢竟類神經網路的基礎建立在神經元通過權重運算輸出結果。

Read More »[NLP] Word Embedding 筆記

[Machine Learning][Python] 最簡單的物體辨識套件:ImageAI

需要事先聲明,這篇文章的教學是從: https://towardsdatascience.com/object-detection-with-10-lines-of-code-d6cb4d86f606 這個網站所學習的。大家也可以直接去那個網站學習。

另外,這裡是開發員的 Github,我已經非常敬仰地獻上我的 Star XD

Read More »[Machine Learning][Python] 最簡單的物體辨識套件:ImageAI

[Machine Learning] softmax 函式介紹與程式實作

Softmax

Softmax 函式,又被稱為『歸一化指數函數』,基本上是將一組向量(就好比說我們 Machine Learning 最後輸出的預測結果有多個分類,每個分類有著一個分數)映射為每個向量當中的元素都位於 (0, 1) 之間,其實就是代表著每個分類的機率分佈。當然,既然是機率分佈,那麼這個向量的所有元素相加總和應為 1。

Read More »[Machine Learning] softmax 函式介紹與程式實作