当前位置: 首页 > article >正文

神经网络常见激活函数 8-SELU函数

SELU

  • 缩放指数线性单元:SELU(Scaled Exponential Linear Unit)

函数+导函数

  • SELU函数
    S E L U ( x ) = { λ x x > 0 λ α ( e x − 1 ) x ≤ 0 \rm SELU(x) = \left\{ \begin{array}{} \lambda x \quad & x > 0 \\ \lambda \alpha (e^x - 1) \quad & x \le 0 \end{array} \right. SELU(x)={λxλα(ex1)x>0x0

  • SELU函数导数
    d d x S E L U ( x ) = { λ x > 0 λ α e x x ≤ 0 \frac{d}{dx} \rm SELU(x) = \left\{ \begin{array}{} \lambda \quad & x > 0 \\ \lambda \alpha e^x \quad & x \le 0 \end{array} \right. dxdSELU(x)={λλαexx>0x0
    其中, λ \lambda λ α \alpha α 是预先定义的常数,通常取值 为
    λ ≈ 1.0507 α ≈ 1.6732 \lambda \approx 1.0507 \\ \alpha \approx 1.6732 λ1.0507α1.6732


函数和导函数图像

  • 画图

    下面代码中的scale对应 λ \lambda λ, alpha 对应 α \alpha α

    import numpy as np
    from matplotlib import pyplot as plt
    
    # 定义 SELU 函数
    def selu(x, alpha=1.6732, scale=1.0507):
        return scale * np.where(x > 0, x, alpha * (np.exp(x) - 1))
    
    # 定义 SELU 的导数
    def selu_derivative(x, alpha=1.6732, scale=1.0507:
        return scale * np.where(x > 0, 1, alpha * np.exp(x))
    
    # 生成数据
    x = np.linspace(-2, 2, 1000)
    y = selu(x)
    y1 = selu_derivative(x)
    
    # 绘制图形
    plt.figure(figsize=(12, 8))
    ax = plt.gca()
    plt.plot(x, y, label='SELU')
    plt.plot(x, y1, label='Derivative')
    plt.title('SELU and Derivative')
    
    # 设置上边和右边无边框
    ax.spines['right'].set_color('none')
    ax.spines['top'].set_color('none')
    
    # 设置 x 坐标刻度数字或名称的位置
    ax.xaxis.set_ticks_position('bottom')
    
    # 设置边框位置
    ax.spines['bottom'].set_position(('data', 0))
    ax.yaxis.set_ticks_position('left')
    ax.spines['left'].set_position(('data', 0))
    
    plt.legend(loc=2)
    plt.show()
    

    SELU


优缺点

  • SELU函数针对ReLU函数的改进
    1. 当其中参数 $\lambda \approx 1.0507 ,\alpha \approx 1.6732 $ 时候,在网络权重服从正态分布的条件下,各层输出的分布会向标准正太分布靠拢。这种【自我标准化】的特性可以避免梯度消失和爆炸。
    2. SELU激活函数是在自归一化网络中定义的,通过调整均值和方差来实现内部的归一化,这种内部归一化比外部归一化更快,这使得网络收敛的更快。
    3. SELU是给ELU乘上一个系数,该系数大于 1 。在这篇paper Self-Normalizing Neural Networks中,作者提到,SELU可以使得输入在经过一定层数之后变为固定的分布。以前的 ReLU,P-ReLU,ELU等激活函数都是在负半轴坡度平缓,这样在激活的方差过大时可以让梯度减小,防止了梯度爆炸,但是在正半轴其梯度简答的设置为了 1 。而 SELU的正半轴大于 1 ,在方差过小的时候可以让它增大,但是同时防止了梯度消失。这样激活函数就有了一个不动点,网络深了之后每一层的输出都是均值为 0 ,方差为 1 。
  • SELU 的优点

    1. 自归一化:SELU具有自归一化特性,能够自动调整网络中的激活值,使其均值和方差保持稳定。这有助于避免梯度爆炸和梯度消失问题。
    2. 解决“死亡ReLU”问题:与ReLU不同,SELU允许负输入,并通过参数α对其进行缩放,确保所有输入都对模型有贡献。
    3. 加速收敛:SELU通常能够更快地收敛,并在训练的早期阶段实现更好的准确率。
    4. 减少对批量归一化的依赖:由于SELU的自归一化特性,它减少了对批量归一化的需求,从而简化了模型结构。
    5. 适用于多种任务:SELU可以用于多分类和二分类任务,并且在深度神经网络中表现出色。
  • SELU 的缺点

    1. 对权重初始化敏感:SELU需要特定的权重初始化方法(LeCun正态初始化)才能发挥最佳效果。其他初始化方法可能会导致性能下降。
    2. 计算复杂度较高:SELU的指数运算比ReLU及其变体更复杂,计算成本更高。
    3. 资源有限:SELU不如ReLU广泛使用,这可能会使寻找基于SELU的架构的库或资源更具挑战性。
    4. 可能的过拟合风险:在某些情况下,SELU可能会导致模型过拟合,尤其是在数据集较小或模型复杂度较高时。

pytorch中的SELU函数

  • 代码

    import torch
    
    # 定义 SELU 函数
    f = torch.nn.SELU()  # PyTorch 提供的 SELU 激活函数模块
    x = torch.randn(2)   # 生成一个随机张量作为输入
    
    selu_x = f(x)        # 应用 SELU 函数
    
    print(f"x: \n{x}")
    print(f"selu_x:\n{selu_x}")
    
    """输出"""
    x: 
    tensor([ 0.1895, -0.8333])
    selu_x:
    tensor([ 0.1991, -0.9940])
    

tensorflow 中的SELU函数

  • 代码

    python: 3.10.9

    tensorflow: 2.18.0

    import tensorflow as tf
    
    # 创建 SELU 激活函数
    selu = tf.keras.activations.selu
    
    # 生成随机输入
    # x = tf.random.normal([2])
    x = x = [ 0.1895, -0.8333]
    
    # 应用 SELU 激活函数
    selu_x = selu(x)
    
    print(f"x: \n{x}")
    print(f"selu_x:\n{selu_x}")
    
    """输出"""
    x: 
    [0.1895, -0.8333]
    selu_x:
    [ 0.19910784 -0.99400705]
    


http://www.kler.cn/a/541763.html

相关文章:

  • python视频爬虫
  • 分层解耦-IOC DI 入门
  • Spring依赖注入方式
  • java和vue开发的图书馆借阅管理系统小程序
  • Docker容器访问外网:启动时的网络参数配置指南
  • 【信息系统项目管理师-案例真题】2017下半年案例分析答案和详解
  • 《easy3d与vtk数据类型相互转换》
  • vue3+ts+vite+element plus设置日期时间禁止选择小于当前时间精确到时分秒
  • 网络安全网格架构(CSMA) 网络安全框架csf
  • HTML全局属性与Meta元信息详解:优化网页的灵魂
  • DeepSeek-R1的蒸馏
  • 网络安全检查漏洞内容回复 网络安全的漏洞
  • Halcon.Net与Numpy、OpenCV联合编程
  • hi3516cv610用海思arm-v01c02-linux-musleabi-strip工具,对库进行瘦身
  • 从0开始C语言(8)
  • 本地部署DeepSeek-R1(Ollama+Docker+Dify知识库)
  • 强化学习概念入门
  • 车联网安全入门一:了解CAN总线及环境模拟
  • 如何避免SQL注入
  • checklist是个好东西
  • 计算机毕业设计——Springboot点餐平台网站
  • 2025 年 2 月 TIOBE 指数
  • 反向海淘新趋势:独立站跨境代购系统的技术架构与运营策略
  • 【嵌入式Linux应用开发基础】文件I/O基础编程
  • 【StableDiffusion容器化部署】分步指南
  • 1064 - You have an error in your SQL syntax;