[Machine Learning] KL 散度(Kullback-Leibler Divergence)筆記
什麼是 KL 散度(Divergence)?
我們經常會在機器學習中聽到 『KL 散度』(Kullback Libler Divergence)這個詞,而 KL 散度其實就是評估兩個機率分佈 P 和 Q 之間『差異性』的一個評估值。
Read More »[Machine Learning] KL 散度(Kullback-Leibler Divergence)筆記我們經常會在機器學習中聽到 『KL 散度』(Kullback Libler Divergence)這個詞,而 KL 散度其實就是評估兩個機率分佈 P 和 Q 之間『差異性』的一個評估值。
Read More »[Machine Learning] KL 散度(Kullback-Leibler Divergence)筆記在使用 transformers 套件時,如果當我們使用如 AutoModelForSequenceClassification、AutoModelForSeq2SeqLM… 這樣不同 head 的任務模型時,經常我們會得到以下錯誤訊息:
Read More »[已解決] Some weights of the model checkpoint at distilbert-base-multilingual-cased were not used when initializing DistilBertForSequenceClassification: ['vocab_projector.bias', 'vocab_layer_norm.bias', 'vocab_layer_norm.weight', 'vocab_transform.weight', 'vocab_transform.bias']Moderation 模型是一個 OpenAI 所提供的免費工具,用來審查所謂的『不適當內容』。詳細的禁止條例可以參考 https://openai.com/policies/usage-policies。
Read More »使用 OpenAI Moderation Endpoint 偵測不適當內容今天我在我的伺服器訓練模型時,我寫好了一份多片 GPU 平行化訓練的腳本,接著把最新的資料輸入給模型開始訓練;但是在訓練過程中,我得到了沒有 GPU 的錯誤訊息。當我使用 torch.cuda.is_available()
確認時,得到了以下錯誤訊息。
最近的 Meta AI 真的是強到不行,似乎一瞬間站穩了 AI 研發巨擘的地位,而且還是樣樣開源的頂級標竿。從影像領域的能切割物件的 Segment Anything、到公開大型語言模型(Large Language Model)同時也是基石模型(fundational model)的 LLaMA(引起眾羊駝之亂的就是它!)、到最近能轉換 6 種模態(modals)的 ImageBind 跟語音模型計畫 (MMS)...... 只能說像我這種平凡人要努力跟上怎麼去使用都很費勁,更遑論試圖追逐他們的技術了。
Read More »ImageBind:能轉換多模態向量的模型使用心得筆記首先我們先來介紹 BigCode 吧!BigCode 是一個由 Hugging Face 和 ServiceNow 共同領導的開放性科學合作項目,目的是共同開發能夠應用於『程式設計』的大型語言模型(Large Language Model, LLM)。
Read More »BigCode & StarCoder: 專精於程式的大型語言模型計畫每當我們訓練完一個深度學習模型後,就又到了我們評估模型好壞的時間。比方說分類任務所使用的分類模型,我們總是會拿各式各樣的指標來測試,比方說 precision、recall、F1-score、Accuracy… 指標間總是有好有壞,甚至有可能會互相衝突,所以大部分時候還是要依據任務的需求來選擇自己評估模型的指標的。
Read More »[Machine Learning] 可以和 Accuracy、F1 一同用於模型評估的 MCC 指標筆記在現今深度學習的框架中,無論是使用 Tensorflow、PyTorch 還是其他框架,模型的輸入輸出、資料流向...... 等等,我們都需要十分注意其資料的形狀(shape)。因為一不小心,就會讓模型架構回傳錯誤訊息。
Read More »[已解決] HuggingFace Transformers 模型返回 "'ValueError: too many values to unpack (expected 2)', upon training a Bert binary classification model"今天我在離線環境中要使用 transformers 套件建立 ALBERT 模型時來處理 NLP 任務,當我透過 transformers 提供的 AutoTokenizer 讀取 ALBERT 模型的斷詞器:
Read More »[已解決] 使用 AutoTokenizer.from_pretrained() 時發生 TypeError: not a string今天我在測試 simpletransformers 這個知名的 Python NLP 深度學習套件時,我在個人筆電上遇到了模型在開始訓練時整個流程卡住的問題。
Read More »[已解決] simpletransformers 在訓練開始時卡住,不會繼續進行訓練