Skip to content

Papers

[論文閱讀] QLoRA: Efficient Finetuning of Quantized LLMs

前言

大模型的浪潮自從 2022 年 11 月 ChatGPT 的發布後便一發不可收拾,直到現在開源的大型語言模型(Large Language Model)的量級還在不斷增大,比方說 LLaMA-2-70B、以及 Falcon-180B 等等。

大型語言模型的性能自然是相當優秀的,可是往往需要耗費大量且價格昂貴的 GPU 記憶體,這使得一些邊緣運算裝置根本就不可能讓模型進行推理(inference) —— 更遑論訓練、微調自己的模型了。

Read More »[論文閱讀] QLoRA: Efficient Finetuning of Quantized LLMs

ImageBind:能轉換多模態向量的模型使用心得筆記

前言

最近的 Meta AI 真的是強到不行,似乎一瞬間站穩了 AI 研發巨擘的地位,而且還是樣樣開源的頂級標竿。從影像領域的能切割物件的 Segment Anything、到公開大型語言模型(Large Language Model)同時也是基石模型(fundational model)的 LLaMA(引起眾羊駝之亂的就是它!)、到最近能轉換 6 種模態(modals)的 ImageBind 跟語音模型計畫 (MMS)…… 只能說像我這種平凡人要努力跟上怎麼去使用都很費勁,更遑論試圖追逐他們的技術了。

Read More »ImageBind:能轉換多模態向量的模型使用心得筆記