[PyTorch] 判斷當前資料所使用的 GPU
在我使用 PyTorch 訓練模型的時候,經常會發生我使用 GPU_A 去訓練模型、儲存模型,然而在測試模型效果的時候,卻不小心使用到了 GPU_B 來讀取測試資料 (我有多片 GPU 可以使用,還滿奢侈的 XDD),然後再用已經儲存好的模型 (GPU_A 訓練) 來測試 ——
Read More »[PyTorch] 判斷當前資料所使用的 GPU在我使用 PyTorch 訓練模型的時候,經常會發生我使用 GPU_A 去訓練模型、儲存模型,然而在測試模型效果的時候,卻不小心使用到了 GPU_B 來讀取測試資料 (我有多片 GPU 可以使用,還滿奢侈的 XDD),然後再用已經儲存好的模型 (GPU_A 訓練) 來測試 ——
Read More »[PyTorch] 判斷當前資料所使用的 GPU今天我在使用 PyTorch 搭建模型的時候,遇到了像以下這樣的報錯:
ValueError: expected sequence of length 300 at dim 1 (got 3)
Read More »[已解決][PyTorch] ValueError: expected sequence of length 300 at dim 1 (got 3)之前,我曾經寫過一篇文章敘述我如何印出我使用 PyTorch 搭建的模型架構,具體連結可以參考文末。但是開心了沒多久,過了一段時間後,當我又要使用這項工具來繪製另一個全新的模型架構準備報告的同時,我卻得到了以下這樣的報錯:
AttributeError: 'tuple' object has no attribute 'size'
Read More »[已解決][PyTorch] AttributeError: 'tuple' object has no attribute 'size'LSTM (Long Short-Term Memory),中文翻譯做『長短期記憶』,是一種循環神經網路 (RNN)。其論文發表於 1997 年,是在自然語言處理當中非常重要、並且好用的模型層。
Read More »[PyTorch] LSTM 的原理與輸入輸出格式紀錄今天我在使用 Python 進行自然語言處理 (NLP) 的遇到了這個問題:
Read More »[已解決] OSError: [E050] Can't find model 'en'. It doesn't seem to be a shortcut link, a Python package or a valid path to a data directory.雖然僅僅只是個人體感,不過我認為在使用 PyTorch 的過程中,最容易遇到的報錯有兩個 —— 一個是模型的 ""Mismatch、另外一個就是我今天所紀錄的:
Read More »[已解決][PyTorch] RuntimeError: Expected object of scalar type Float but got scalar type Long for argument最近在進行深度學習的模型訓練時遇到了瓶頸,最主要是『速度』的方面 —— 訓練的速度實在是快不起來。
Read More »[Linux] 將資料儲存在 RAM 當中提昇讀取速度最近由於心血來潮,開始了測試 Linux 檔案執行速度的實驗。為了避免測量速度時受到記憶體載入的影響,故查詢了一些指令來清除記憶體。
Read More »[Linux] 清除記憶體的指令今天,我在使用 PyTorch 搭建 LSTM 模型的時候發生了以下這樣的報錯:
LSTM RuntimeError: input must have 3 dimensions, got 2
Read More »[已解決][PyTorch] LSTM RuntimeError: input must have 3 dimensions, got 2在 Linux 環境中,我們經常都會寫許多自動化執行的腳本幫助我們處理各式各樣的工作。今天,我就需要在一台『本機端』的主機中自動登入遠方『伺服器』並在『伺服器上執行指令』。
Read More »[Linux] 使用 SSH 登入遠端伺服器並執行指令