Структурированный блокнот   
 Машинное обучение (Machine Learning, обучающиеся алгоритмы) →  Обучение с учителем (Supervised learning) →  Нейронные сети (neuron network) →  Функции активации →  

Swish - self-gated activation function

https://arxiv.org/pdf/1710.05941v1.pdf
Похожа ReLU, но имеет непрерывные производные и небольшую немонотонную зону при отрицательных x. Утверждается, что показывает себя лучше ReLU.
Формула y = x * sigmoid(beta * x)
sigmoid - от 0 в минус бесконечности до 1 в плюс бесконечности.
beta - константа, которая может подбираться в процессе обучения
Поиск по записям: только в текущем разделе.