在Python中,我们可以使用NumPy库实现常用的激活函数。以下是一些常见激活函数的示例:
1. Sigmoid函数
2. ReLU(Rectified Linear Unit)函数
3. Leaky ReLU函数
numpy库统计函数4. 双曲正切(Tanh)函数
5. Softmax函数
函数实现示例:
import numpy as np
# Sigmoid激活函数
def sigmoid(x):
return 1 / (1 + np.exp(-x))
# ReLU激活函数
def relu(x):
return np.maximum(0, x)
# Leaky ReLU激活函数
def leaky_relu(x, alpha=0.01):
return np.maximum(alpha * x, x)
# 双曲正切激活函数
def tanh(x):
return np.tanh(x)
# Softmax激活函数
def softmax(x):
e_x = np.exp(x - np.max(x)) # 溢出处理
return e_x / np.sum(e_x, axis=0)
# 示例输入
x = np.array([-1, 0, 1])
# 输出
print("Sigmoid激活函数输出:", sigmoid(x))
print("ReLU激活函数输出:", relu(x))
print("Leaky ReLU激活函数输出:", leaky_relu(x))
print("双曲正切激活函数输出:", tanh(x))
print("Softmax激活函数输出:", softmax(x))
请注意,这些实现仅适用于单个样本。 若要将其应用于多个样本,请更改确保保持适当的广播规则。 如果要使用激活函数作为神经网络层的一部分,建议使用深度学习库(如TensorFlow或PyTorch),在这些库中已经实现了这些激活函数。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论