云南网站建设快速排名万网域名注册官网中文域名

张小明 2026/1/1 11:48:56
云南网站建设快速排名,万网域名注册官网中文域名,电商系统功能模块,怎么做网站的一个横向列表把输入层的特征进行加权求和#xff0c;通过sigmod映射前面的加权求和结果神经元死亡问题 如何选择激活函数: 隐藏层:ReLU Leaky ReLU PReLU Tanh Sigmoid输出层:二分类: Sigmoid BCELoss 或 Softmax CrossEntropyLoss#xff08;内部自动做 softmax通过sigmod映射前面的加权求和结果神经元死亡问题如何选择激活函数:隐藏层: ReLU Leaky ReLU PReLU Tanh Sigmoid 输出层: 二分类: Sigmoid BCELoss 或 Softmax CrossEntropyLoss内部自动做 softmax 多分类: Softmax CrossEntropyLoss内部自动做 softmax 回归问题: identity(无需激活函数)如果限制区间则考虑ReLU, sigmoid, tanhsigmoid激活函数激活函数公式![](https://i-blog.csdnimg.cn/img_convert/bc813d1b6771b6d462196311ad0b5845.png)激活函数求导公式一般情况下sigmoid激活函数在五层之内就会出现梯度消失sigmoid函数一般只用于二分类的输出层importtorchimportmatplotlib.pyplotasplt plt.rcParams[font.sans-serif][SimHei]# 用来正常显示中文标签plt.rcParams[axes.unicode_minus]False# 用来正常显示负号# 1. 创建画布和坐标轴, 1行2列.fig,axesplt.subplots(1,2)# 2. 生成 -20 ~ 20之间的 1000个数据点.xtorch.linspace(-10,10,1000)# print(fx: {x})# 3. 计算上述1000个点, Sigmoid激活函数处理后的值.ytorch.sigmoid(x)# print(fy: {y})# 4. 在第1个子图中绘制Sigmoid激活函数的图像.axes[0].plot(x,y)axes[0].set_title(Sigmoid激活函数图像)axes[0].grid()# 5. 在第2个图上, 绘制Sigmoid激活函数的导数图像.# 5.1 重新生成 -20 ~ 20之间的 1000个数据点.# 参1: 起始值, 参2: 结束值, 参3: 元素的个数, 参4: 是否需要求导.xtorch.linspace(-20,20,1000,requires_gradTrue)# 5.2 具体的计算上述1000个点, Sigmoid激活函数导数后的值.torch.sigmoid(x).sum().backward()# 5.3 绘制图像.axes[1].plot(x.detach(),x.grad)axes[1].set_title(Sigmoid激活函数导数图像)axes[1].grid(True)plt.show()tanh激活函数x越大整体越接近于1 x越小整体越接近于-1tanh激活函数是将输入映射到[-11]之间tanh是最优解的情况下是1relu则永远是1用于隐藏层浅层网络(不超过5层)存在梯度消失问题.输出范围(-1,1), 导数范围(0,1], 输入的有效区间[-3,3].importtorchimportmatplotlib.pyplotasplt# 设置中文字体plt.rcParams[font.sans-serif][Microsoft YaHei]# 微软雅黑plt.rcParams[axes.unicode_minus]False# 解决负号显示问题# 1. 创建画布和坐标轴, 1行2列.fig,axesplt.subplots(1,2,figsize(12,5))# 2. 生成 -10 ~ 10之间的 1000个数据点.xtorch.linspace(-10,10,1000)# 3. 上述1000个点, 输入tanh(x)ytorch.tanh(x)# 4. 在第1个子图中绘制tanh激活函数的图像.axes[0].plot(x,y)axes[0].set_title(tanh激活函数图像)axes[0].grid()# 5. 在第2个图上, 绘制tanh激活函数的导数图像.# 重新生成 -10 ~ 10之间的 1000个数据点.# 参1: 起始值, 参2: 结束值, 参3: 元素的个数, 参4: 是否需要求导.xtorch.linspace(-10,10,1000,requires_gradTrue)# 上述1000个点, 输入tanh进行求导sum().backward()torch.tanh(x).sum().backward()# 绘制图像axes[1].plot(x.detach(),x.grad)axes[1].set_title(tanh激活函数导数图像)axes[1].grid()plt.tight_layout()plt.show()Relu激活函数常用于 隐藏层目前使用最多. 计算公式是max(0,x),输出范围[0,∞]导数0或1计算简单模型训练收敛快. 负数输入的输出为0会带来稀疏性起到正则化效果利于图像类任务. 负数输入的梯度为0可能导致部分神经元永久失活(dead ReLU)是缺点可以用 Leaky ReLU, PReLU 来考虑 负数输入的梯度.importtorchimportnumpyasnpimportmatplotlib.pyplotaspltimportmatplotlib matplotlib.use(TKAgg)plt.rcParams[font.sans-serif][SimHei]# 用来正常显示中文标签plt.rcParams[axes.unicode_minus]False# 用来正常显示负号#设置设备devicetorch.device(cudaiftorch.cuda.is_available()elsecpu)fig,axesplt.subplots(1,2,figsize(10,5))#生成x轴的数据点 1000点 -10到10之间xtorch.linspace(-10,10,1000)#经过relu激活函数运算ytorch.relu(x)#4.在第一个子图上绘制relu激活函数图像axes[0].plot(x,y)axes[0].set_title(relu激活函数图像)axes[0].set_xlabel(x)axes[0].set_ylabel(y)axes[0].grid()#5.绘制relu激活函数的导数图像#创建一个新的开启梯度计算的xxtorch.linspace(-10,10,1000,requires_gradTrue)#经过relu激活函数运算 再求和ytorch.relu(x).sum()#反向传播,获取梯度值x.grady.backward()axes[1].plot(x.detach(),x.grad)axes[1].set_title(relu激活函数导数图像)axes[1].set_xlabel(x)axes[1].set_ylabel(y)axes[1].grid()plt.show()softMAx激活函数用于多分类任务的输出层二分类任务上可以替代sigmoid.输出各个类别的概率分布范围(0,1), 并且概率总和为1.importtorchimportmatplotlib.pyplotaspltimportmatplotlib matplotlib.use(TKAgg)plt.rcParams[font.sans-serif][SimHei]# 用来正常显示中文标签plt.rcParams[axes.unicode_minus]False# 用来正常显示负号#设置设备devicetorch.device(cudaiftorch.cuda.is_available()elsecpu)fig,axesplt.subplots(1,2,figsize(10,5))#生成x轴的数据点 1000点 -10到10之间xtorch.tensor([0.2,0.02,0.15,0.15,1.3,0.5,0.06,1.1,0.05,3.75])#经过softmax激活函数运算ytorch.softmax(x,dim0)#4.在第一个子图上绘制softmax激活函数图像axes[0].bar(range(len(x)),y)axes[0].set_title(softmax激活函数图像)axes[0].set_xlabel(x)axes[0].set_ylabel(y)axes[0].grid()#5.绘制softmax激活函数的导数图像#创建一个新的开启梯度计算的xztorch.softmax(y,dim0)axes[1].bar(range(len(x)),z)axes[1].set_title(softmax(softmax(x))axes[1].set_xlabel(x)axes[1].set_ylabel(y)axes[1].grid()plt.show()参数的初始化仅了解因为后续的神经网络训练时默认都进行初始化案例 演示 参数初始化 的7种方式 参数初始化的作用1.防止 梯度消失 或 梯度爆炸2.提高收敛速度3.打破对称性 参数初始化的方式1.均匀分布初始化 init.uniform2.正态分布初始化 init.normal3.全0初始化 init.zeros_4.全1初始化 init.ones_5.固定值初始化 init.constant6.kaiming 初始化也叫做 HE 初始化 正态分布的he初始化 init.kaiming_normal_ 均匀分布的he初始化 init.kaiming_uniform_7.xavier 初始化也叫做 Glorot初始化 正态化的Xavier初始化 init.xavier_normal_ 均匀分布的Xavier初始化 init.xavier_uniform_ 总结:1.掌握 kaiming(权重w),xavier(权重w),全0初始化(偏置)2.如何选择参数初始化方式 ReLU及其变体kaiming 非ReLU:xavier 浅层均匀分布初始化/正态分布初始化# 1. 均匀分布初始化defdemo01():print(1. 均匀分布初始化)# 创建一个线性层输入维度3输出维度5linearnn.Linear(3,5)# 对权重w 进行初始化nn.init.uniform_(linear.weight)# 对偏置b 进行初始化nn.init.uniform_(linear.bias)# 打印print(linear.weight.data)print(linear.bias.data)print(-*60)# 2. 正态分布初始化defdemo02():print(2. 正态分布初始化)# 创建一个线性层输入维度3输出维度5linearnn.Linear(3,5)# 对权重w 进行初始化nn.init.normal_(linear.weight)# 对偏置b 进行初始化nn.init.normal_(linear.bias)# 打印print(linear.weight.data)print(linear.bias.data)print(-*60)# 3. 全0初始化defdemo03():print(3. 全0初始化)# 创建一个线性层输入维度3输出维度5linearnn.Linear(3,5)# 对权重w 进行初始化nn.init.zeros_(linear.weight)# 对偏置b 进行初始化nn.init.zeros_(linear.bias)# 打印print(linear.weight.data)print(linear.bias.data)print(-*60)# 4. 全1初始化defdemo04():print(4. 全1初始化)# 创建一个线性层输入维度3输出维度5linearnn.Linear(3,5)# 对权重w 进行初始化nn.init.ones_(linear.weight)# 对偏置b 进行初始化nn.init.ones_(linear.bias)# 打印print(linear.weight.data)print(linear.bias.data)print(-*60)# 5. 固定值初始化defdemo05():print(5. 固定值初始化)# 创建一个线性层输入维度3输出维度5linearnn.Linear(3,5)# 对权重w 进行初始化nn.init.constant_(linear.weight,6)# 对偏置b 进行初始化nn.init.constant_(linear.bias,6)# 打印print(linear.weight.data)print(linear.bias.data)print(-*60)# 6. kaiming 初始化也叫做 HE 初始化defdemo06():print(6. kaiming 初始化)# 创建一个线性层输入维度3输出维度5linearnn.Linear(3,5)# 正态分布的he初始化print(正态分布的he初始化)# 对权重w 进行初始化nn.init.kaiming_normal_(linear.weight)# 打印print(linear.weight.data)# 均匀分布的he初始化print(均匀分布的he初始化)# 对权重w 进行初始化nn.init.kaiming_uniform_(linear.weight)# 打印print(linear.weight.data)print(-*60)defdemo07():print(7.xavier 初始化)# 创建一个线性层输入维度3输出维度5linearnn.Linear(3,5)# 正态分布的xavier初始化print(正态分布的xavier初始化)# 对权重w 进行初始化nn.init.xavier_normal_(linear.weight)# 打印print(linear.weight.data)# 均匀分布的xavier初始化print(均匀分布的xavier初始化)# 对权重w 进行初始化nn.init.xavier_uniform_(linear.weight)# 打印print(linear.weight.data)print(-*60)
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

ccd设计公司很厉害吗苏州网站关键字优化

如何在 Dify 智能体平台部署 gpt-oss-20b 实现私有化 AI 服务 当企业开始认真对待 AI 的落地——不是停留在演示 PPT 上,而是真正嵌入业务流程时,一个绕不开的问题就浮现了:我们能不能自己掌控模型? 公有云大模型 API 确实方便&am…

张小明 2025/12/31 16:33:47 网站建设

网站规划与设计课程设计做类似58类型网站

将普通眼镜升级为AI助手的时代已经到来。OpenGlass开源项目让每个人都能以极低成本拥有个性化智能眼镜,无需专业技术背景即可实现功能定制。无论你是开发者、科技爱好者还是普通用户,都能轻松上手这款创新的可穿戴设备。 【免费下载链接】OpenGlass Turn…

张小明 2025/12/31 20:45:00 网站建设

seo 网站改版灰色网站

VESC Tool:掌控电动滑板车性能的终极配置工具 【免费下载链接】vesc_tool The source code for VESC Tool. See vesc-project.com 项目地址: https://gitcode.com/gh_mirrors/ve/vesc_tool 想要让你的电动滑板车发挥最佳性能,却苦于找不到合适的配…

张小明 2025/12/31 20:44:59 网站建设

中国建设银行深圳招聘信息网站wordpress知识付费

计算机安全技术与iptables日志可视化 1. 计算机安全技术概述 在计算机安全领域,有一些强大的技术可以保护服务器。例如,使用默认丢弃的数据包过滤器,只有那些能够向被动监控设备证明其身份的客户端才能获得访问权限。端口敲门(Port knocking)是实现这一理念的首个技术,…

张小明 2025/12/31 20:44:57 网站建设

网站平台开发要注意什么问题郑州 网站建设 东区

FreeControl终极使用指南:从安装到高级功能 【免费下载链接】FreeControl 在PC上控制Android设备。 项目地址: https://gitcode.com/gh_mirrors/fr/FreeControl FreeControl是一款基于scrcpy的开源项目,专为PC端控制Android设备而设计。通过简洁的…

张小明 2025/12/31 20:44:55 网站建设

站长之家站长工具商城网站设计公司排名

Silverlight动画与模板开发详解 1. 动画与属性优先级 在Silverlight开发中,动画与属性优先级是一个重要的概念。通过一个名为 ButtonSetAndAnimate 的示例程序,可以很好地理解动画在依赖属性优先级中的位置。 1.1 示例程序界面布局 该程序的XAML文件包含一个范围为0到1…

张小明 2025/12/31 20:44:53 网站建设