基于双曲正切函数的修正线性单元
基于双曲正切函数的修正线性单元基于双曲正切函数的修正线性单元摘要:修正线性单元(ReLU)是深度学习中常用的激活函数,其具有非线性、易于计算等优势,但在处理负值时会产生固定激活为零的问题。为了解决这个