Skip to content

Machine Learning

使用 Outlines 工具結構化模型的輸出

在將大型語言模型(Large Language Model, LLM)應用於實際場景時,經常不僅僅是讓模型自由發揮、任意生成文句 —— 我們也可能會希望模型返回特定的結構,比方說做選擇題、或是給一個評分。在這樣的情況下,transformers 架構的模型可以直接使用 outlines 這個工具。

Read More »使用 Outlines 工具結構化模型的輸出

使用 Microsoft BIPIA 框架評估 LLM 防禦能力

現在 LLM 的服務已經涵蓋了各式各樣的領域,而提示注入Prompt Injection)和越獄Jailbreak)對 LLM 的威脅也是與日俱增,幾個月前甚至有客服 LLM 給了客戶錯誤的資訊導致權益受損呢(雖然那不是 Prompt 攻擊造成的)。

而 Microsoft 所開源的 BIPIABenchmarking and Defending Against Indirect Prompt Injection Attacks on Large Language Models)評估方法,雖然已經是半年前的測試了,到現在也沒什麼大更新,但是應用在我手邊的任務中,仍不失為一個方便簡潔的測試方法。

Read More »使用 Microsoft BIPIA 框架評估 LLM 防禦能力

使用 Transformers 套件中的 AutoModel.from_pretrained() 讀取自定義模型

時至今日有許多的 AI 應用、開源專案是以 HuggingFace 開源的 transformers 套件為基底下去開發的,有許多的模型與套件也都是寫成兼容 transformers 的格式、甚至擁有一樣的函式跟方法,才更容易為人所接受。

在這樣的前提下,我偶然使用了一個開源的訓練框架,它很好地封裝了 Transformer 架構的自動讀取 —— 但一個不得不解決的問題是我希望使用我自定義的模型去做實驗;我嘗試了幾個解決方法,目的是希望使用 AutoModel.from_pretrained() 的時候,只要傳入我本地端的模型路徑,就可以正確使用我自定義的模型架構,於是就把成功的方法紀錄於本篇筆記中。

Read More »使用 Transformers 套件中的 AutoModel.from_pretrained() 讀取自定義模型

[論文閱讀] Lifting the Curse of Multilinguality by Pre-training Modular Transformers

Cross-lingual Modular (X-Mod) 是一個有趣的語言模型架構,透過模組化不同語言的參數作為模組單元Module Unit)組裝在模型中,好讓語言模型在新增全新語言時,可以使用獨立的參數進行微調,而(比較)不會出現災難性遺忘的窘境。

Read More »[論文閱讀] Lifting the Curse of Multilinguality by Pre-training Modular Transformers

使用文字檢索圖像: ColPali 多模態模型簡介

介紹

從去年開始我就對多模態Multi-Modal)的 AI 模型充滿了熱忱與好奇,因為我是堅定不移的 AGI 派,認為 AI 目前的潛力仍然遠遠沒有抵達天花板;而 AI 當前的一大瓶頸與研究方向,自然就是整合了多種不同的模態(文字、圖像、音訊...)的模型應用了。

Read More »使用文字檢索圖像: ColPali 多模態模型簡介