ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
# 激活函数(activation) > 激活函数是用来加入非线性因素的,提高神经网络对模型的表达能力,解决线性模型所不能解决的问题。 ## 效果对比 其他条件相同,只改变激活函数情况下 > relu准确率为:0.9554 > tanh准确率为:0.9411 > sigmoid准确率为:0.9105