Blog
使用 CuPy 來利用 GPU 提昇矩陣運算速度
前言
CuPy 是一個開源的 GPU 加速數值計算函式庫,專為深度學習以及科學計算而設計。它和 Python 中著名的 NumPy 套件有許多相同的使用方法與函式,但更進一步能夠在 GPU 上執行運算。簡單來說,例如矩陣運算等能夠利用 GPU 平行化計算的用途,CuPy 能夠實現一定程度的加速。
Read More »使用 CuPy 來利用 GPU 提昇矩陣運算速度使用 HuggingFace Transformer 中的 TextStreamer 和 TextIteratorStreamer 來實現串流式(stream)輸出生成 token
前言
現在的生成式模型越來越厲害的,各個獨立研究人員也都部署起了一個又一個的開源大型語言模型(LLMs)。但是在使用大型語言模型做推理、生成回覆時,要是真要去等待一個比較長的輸出,那是真的挺花時間的。
Read More »使用 HuggingFace Transformer 中的 TextStreamer 和 TextIteratorStreamer 來實現串流式(stream)輸出生成 token[論文閱讀] QLoRA: Efficient Finetuning of Quantized LLMs
前言
大模型的浪潮自從 2022 年 11 月 ChatGPT 的發布後便一發不可收拾,直到現在開源的大型語言模型(Large Language Model)的量級還在不斷增大,比方說 LLaMA-2-70B、以及 Falcon-180B 等等。
大型語言模型的性能自然是相當優秀的,可是往往需要耗費大量且價格昂貴的 GPU 記憶體,這使得一些邊緣運算裝置根本就不可能讓模型進行推理(inference) —— 更遑論訓練、微調自己的模型了。
Read More »[論文閱讀] QLoRA: Efficient Finetuning of Quantized LLMs支援 Python 語法、又有 C 速度的新程式語言 Mojo 環境配置筆記
介紹
Mojo 是一名比較新的語言,是由 LLVM 之父和 Swift 之父 Chris Lattner 所開發。
之所以開發 Mojo,據稱是為了填補『研究』與『生產』的鴻溝,所以 Mojo 擁有 Python 般簡易的語法以及 C 的執行速度。當然,最主要的可能還是對於 AI 的優化 —— 現在 AI 的市場已經值得一門全新的程式語言了。
Read More »支援 Python 語法、又有 C 速度的新程式語言 Mojo 環境配置筆記[PyTorch] 遍歷模型每一層神經網路筆記
介紹
最近在因緣際會下,有了簡單改一些模型架構的機會,於是便趁這個機會好好地摸索了下 PyTorch 中模型神經網路層的遍歷打印方式。
Read More »[PyTorch] 遍歷模型每一層神經網路筆記LeetCode: 1282-Group the People Given the Group Size They Belong To 解題紀錄
There are n
people that are split into some unknown number of groups. Each person is labeled with a unique ID from 0
to n - 1
.
[論文閱讀] The Forward-Forward Algorithm: Some Preliminary Investigation
介紹
論文連結: https://arxiv.org/abs/2212.13345
本篇研究工作的作者是鼎鼎大名的深度學習之父 Geoffrey Hinton,最初撰寫本篇論文時仍是 Google Brain 的研究員(於 2023 年離開)。
Read More »[論文閱讀] The Forward-Forward Algorithm: Some Preliminary InvestigationLeetCode: 168-Excel Sheet Column Title 解題紀錄
題目
Given an integer columnNumber
, return its corresponding column title as it appears in an Excel sheet.
LeetCode: 33-Search in Rotated Sorted Array 解題紀錄
題目
There is an integer array nums
sorted in ascending order (with distinct values).