Структурированный блокнот   
 Машинное обучение (Machine Learning, обучающиеся алгоритмы) →  Обучение с учителем (Supervised learning) →  Нейронные сети (neuron network) →  Функции активации →  

SwiGLU

Развитие идеи Swish и GLU
Формула SwiGLU(x) = x * sigmoid(beta * x) + (1 - sigmoid(beta * x)) * (Wx + b)
Можно получать разные наклоны слева и справа, а параметром beta задавать размер зоны перехода
Поиск по записям: только в текущем разделе.