[NLP] Word Embedding 筆記
Word Embedding (詞嵌入) 是自然語言處理 (NLP) 當中經常會使用到的一種『技術』,其核心概念為『將文字轉成數值型態』。這有什麼好處呢?比如說在類神經網路的模型訓練當中,我們沒有辦法直接將『文字』帶入其中進行運算,畢竟類神經網路的基礎建立在神經元通過權重運算輸出結果。
Read More »[NLP] Word Embedding 筆記Word Embedding (詞嵌入) 是自然語言處理 (NLP) 當中經常會使用到的一種『技術』,其核心概念為『將文字轉成數值型態』。這有什麼好處呢?比如說在類神經網路的模型訓練當中,我們沒有辦法直接將『文字』帶入其中進行運算,畢竟類神經網路的基礎建立在神經元通過權重運算輸出結果。
Read More »[NLP] Word Embedding 筆記需要事先聲明,這篇文章的教學是從: https://towardsdatascience.com/object-detection-with-10-lines-of-code-d6cb4d86f606 這個網站所學習的。大家也可以直接去那個網站學習。
另外,這裡是開發員的 Github,我已經非常敬仰地獻上我的 Star XD
Read More »[Machine Learning][Python] 最簡單的物體辨識套件:ImageAI如果今天我們的電腦上有好的 GPU,那麼,我們通常都很希望這可以拿來進行深度學習。基本上安裝相關的環境並不複雜,通常第一次嘗試也只需要幾個小時就可以上手。
Read More »[Linux] 在 Ubuntu 18.04 上安裝 CUDA、CuDNN今天我將紀錄如何使用 DCGAN 來實做簡單的『生成圖片』模型。本來我想要用美味的點心圖片來示範(我確實地下載了五十萬張點心圖片),但奈何效果不怎麼好,最後還是用回了官方示範的 CelebA。
Read More »[PyTorch] Image: 利用生成對抗網路 DCGAN 生成圖片正如同大家所熟悉的那樣,torchvision 是 PyTorch 內專門用來處理圖片的模組 —— 那麼我今天要筆記的 torchaudio,便是 PyTorch 中專門用來處理『音訊』的模組。
Read More »[PyTorch] Audio: PyTorch 中的音訊處理模組 torchaudioTanh,又稱為雙曲正切函數,基本的定義如下:
Read More »[Machine Learning] Tanh 函式介紹與程式實作Softmax 函式,又被稱為『歸一化指數函數』,基本上是將一組向量(就好比說我們 Machine Learning 最後輸出的預測結果有多個分類,每個分類有著一個分數)映射為每個向量當中的元素都位於 (0, 1) 之間,其實就是代表著每個分類的機率分佈。當然,既然是機率分佈,那麼這個向量的所有元素相加總和應為 1。
Read More »[Machine Learning] softmax 函式介紹與程式實作今天再次挑戰了不同的資料集(dataset)的分類器。這次的 CIFAR-10 是一個比起 MNIST 手寫辨識來得更難一些的題目。除了圖片的尺寸變成了 32 x 32 之外,CIFAR-10 也不再是單純的灰階值,而是有著 RGB 三原色的圖片了。
Read More »[PyTorch] Getting Start: 訓練 CIFAR-10 資料集的分類模型ReLU (Rectified Linear Unit) 函式,常被翻譯為『修正線性單元』,是一種神經網路當中常用的 Activation function。被認為具有一定程度的生物原理。(雖然我並不清楚是什麼原理。)
Read More »[Machine Learning] ReLU 函式介紹與程式實作Sigmoid() 函數簡單來講就是個映射函數,將任何變量(這些先寫成 x)映射到 [0, 1] 之間。通常被用來當作機器學習領域 (Machine Learning) 神經網路的激活函數 (Activation Function)。
Read More »[Machine Learning] Sigmoid 函數介紹與程式實作