[Machine Learning] BinaryCrossEntropy 介紹與程式實作
假設 target 為我們預測標籤的『正確答案』、output 為我們模型預測的『預測標籤』—— 那麼我們便可以透過 BinaryCrossEntropy 計算 target 以及 output 之間的『二元交叉熵』。
Read More »[Machine Learning] BinaryCrossEntropy 介紹與程式實作假設 target 為我們預測標籤的『正確答案』、output 為我們模型預測的『預測標籤』—— 那麼我們便可以透過 BinaryCrossEntropy 計算 target 以及 output 之間的『二元交叉熵』。
Read More »[Machine Learning] BinaryCrossEntropy 介紹與程式實作在使用 PyTorch 當中的 Sigmoid 當我們的激活函數時,比如說接在模型的最後一層當二元分類的輸出,畢竟 Sigmoid 可以將數值壓在 [0-1] 之間,我們只要設定個閥值 (Threshold) ,比如說 0.5,就可以將數值分成倆類。
Read More »[PyTorch] 將 Sigmoid 的輸出設定閥值(threshold)並轉成二元值在處理進行 Machine Learning 的資料時,我有著『將 Labels 轉成 One-Hot Encoding 型態』這樣的需求。我本來想得很單純,就將 Tensor 轉成 Numpy,再由 Numpy 轉成 One-Hot —— 就像我在這篇《在 Numpy 中將數值轉成 One-Hot 型態》中講述的一樣。
Read More »[PyTorch] 將 Tensor 型態轉換成 One-Hot Encoding 型態NLLLoss 是一個常用於多分類(Multi-classes Classification)任務的 Loss function,其意義為將 『Softmax』 過後的機率值『取 Log』並將正確答案的『機率值』加總取平均。
Read More »[Machine Learning] NLLLoss 函式介紹與程式實作如果我們有『切資料』的需求 —— 比如說將資料切成 Training data (訓練資料) 以及 Test data (測試資料) ,我們便可以透過 Scikit-Learn 的 train_test_split() 這個函式來做到簡單的資料分割。
Read More »[Scikit-Learn] 使用 train_test_split() 切割資料最近遇到了一個要進行『多標籤分類』(Multi-label Classification) 的任務,這才驚覺自己從來沒碰過這方面的模型。
Read More »[Keras] 如何架構多標籤分類 (Multi-label Classification) 模型最近在學習機器學習模型的時候經常會遇到這個報錯:
'Object arrays cannot be loaded when allow_pickle=False'
Read More »[已解決] 'Object arrays cannot be loaded when allow_pickle=False'Word Embedding (詞嵌入) 是自然語言處理 (NLP) 當中經常會使用到的一種『技術』,其核心概念為『將文字轉成數值型態』。這有什麼好處呢?比如說在類神經網路的模型訓練當中,我們沒有辦法直接將『文字』帶入其中進行運算,畢竟類神經網路的基礎建立在神經元通過權重運算輸出結果。
Read More »[NLP] Word Embedding 筆記需要事先聲明,這篇文章的教學是從: https://towardsdatascience.com/object-detection-with-10-lines-of-code-d6cb4d86f606 這個網站所學習的。大家也可以直接去那個網站學習。
另外,這裡是開發員的 Github,我已經非常敬仰地獻上我的 Star XD
Read More »[Machine Learning][Python] 最簡單的物體辨識套件:ImageAI如果今天我們的電腦上有好的 GPU,那麼,我們通常都很希望這可以拿來進行深度學習。基本上安裝相關的環境並不複雜,通常第一次嘗試也只需要幾個小時就可以上手。
Read More »[Linux] 在 Ubuntu 18.04 上安裝 CUDA、CuDNN