首页/文章/ 详情

激活函数:神经网络的"开关"与"变速器"

3月前浏览114

 

一、激活函数的核心作用

在神经网络中,激活函数就像神经元的"开关"和"变速器",决定信号是否传递以及传递的强度。没有它,神经网络就退化为简单的线性回归。

三大核心功能:

  1. 1. 引入非线性:使网络能够拟合复杂函数
  2. 2. 控制输出范围:如Sigmoid将输出压缩到(0,1)
  3. 3. 影响梯度流动:决定反向传播的效果

二、常用激活函数详解

1. Sigmoid函数

公式
 
特点

  • • 输出范围(0,1),适合概率预测
  • • 存在梯度消失问题(两侧饱和区梯度接近0)
  • • 计算开销较大

适用场景:二分类输出层

  import numpy as np
def sigmoid(x):
    return 1 / (1 + np.exp(-x))

2. ReLU(修正线性单元)

公式
 
特点

  • • 计算简单高效
  • • 缓解梯度消失(正区间梯度为1)
  • • 存在"神经元死亡"问题(负输入梯度永远为0)

适用场景:绝大多数隐藏层

  def relu(x):
    return np.maximum(0, x)

3. Tanh(双曲正切)

公式
 
特点

  • • 输出范围(-1,1),均值中心化
  • • 比Sigmoid梯度更强
  • • 同样存在梯度饱和问题

适用场景:RNN隐藏层

三、工程选型指南

1. 隐藏层选择

场景      
推荐激活函数      
一般深度学习模型      
ReLU/Leaky ReLU      
需要避免神经元死亡      
Leaky ReLU/ELU      
自编码器      
Tanh      

2. 输出层选择

任务类型      
推荐激活函数      
输出范围      
二分类      
Sigmoid      
(0,1)      
多分类      
Softmax      
(0,1)且和为1      
回归(正输出)      
ReLU      
[0,∞)      
回归(任意输出)      
Linear      
(-∞,∞)      

四、物理仿真中的特殊考量

在Altair PhysicsAI等工程场景中:

1. 物理约束激活

  def constrained_relu(x, threshold):
    """带物理约束的ReLU变体"""
    return np.minimum(threshold, np.maximum(0, x))

2. 能量守恒设计

  def energy_aware_activation(x, E_max):
    """确保输出不超过最大能量E_max"""
    scale = E_max / (np.abs(x).sum() + 1e-8)
    return x * np.minimum(1, scale)

五、激活函数可视化对比

![激活函数曲线对比图]
(示意图显示:Sigmoid的S形曲线、ReLU的折线、Tanh的对称S形、Leaky ReLU的负斜率)

六、大白话解释

想象激活函数就像水龙头

  1. 1. Sigmoid:老式旋转龙头
    • • 慢慢从关(0)到开(1)
    • • 拧到两头时很难再调整(梯度饱和)
  2. 2. ReLU:按压式龙头
    • • 按下就全开(>0时输出=输入)
    • • 松手就关闭(<0时输出=0)
    • • 可能卡住弹不起来(神经元死亡)
  3. 3. Leaky ReLU:防卡龙头的改进版
    • • 关闭时也会漏点水(负输入有小输出)
    • • 避免完全卡死
  4. 4. Tanh:双向调节龙头
    • • 可以正流(>0)也可以反流(<0)
    • • 最大流量限制在-1到1之间

为什么需要它们?

  • • 没有激活函数 → 就像水管直接连通 → 无论多少节水管(网络多深),水流(信息)都是简单加减 → 只能处理简单问题
  • • 有了激活函数 → 每节水管都有调节阀 → 组合出复杂水流模式 → 能解决复杂问题

工程中的特殊需求

  • • 有些龙头要加装限流器(物理约束)
  • • 确保总出水量不超过进水(能量守恒)
  • • 不同房间(网络层)需要安装不同类型龙头

 


来源:TodayCAEer
ACT非线性UM控制Altair
著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2025-07-22
最近编辑:3月前
TodayCAEer
本科 签名征集中
获赞 54粉丝 153文章 515课程 2
点赞
收藏
作者推荐
未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习计划 福利任务
下载APP
联系我们
帮助与反馈