[Machine Learning] SiLU 激活函數筆記
Last Updated on 2024-06-06 by Clay
介紹
SiLU (Sigmoid Linear Unit)激活函數,跟 Swish 函數十分相像,只差在一個可訓練的 beta 係數,現今也有許多大型語言模型(LLM)採用,主要是在一些探索使用非 ReLU 等激活函數的大型語言模型上,比方說經典的 Llama 架構。
Read More »[Machine Learning] SiLU 激活函數筆記Last Updated on 2024-06-06 by Clay
SiLU (Sigmoid Linear Unit)激活函數,跟 Swish 函數十分相像,只差在一個可訓練的 beta 係數,現今也有許多大型語言模型(LLM)採用,主要是在一些探索使用非 ReLU 等激活函數的大型語言模型上,比方說經典的 Llama 架構。
Read More »[Machine Learning] SiLU 激活函數筆記