python矩阵求导代码_只需100⾏Python代码,⼿把⼿教你轻
松搞定神经⽹络
原标题:只需100⾏Python代码,⼿把⼿教你轻松搞定神经⽹络
导读:今天,就来⼿把⼿教⼤家搭⼀个神经⽹络。原料就是简单的python和numpy代码
⽤tensorflow,pytorch这类深度学习库来写⼀个神经⽹络早就不稀奇了。
可是,你知道怎么⽤python和numpy来优雅地搭⼀个神经⽹络嘛?
现如今,有多种深度学习框架可供选择,他们带有⾃动微分、基于图的优化计算和硬件加速等各种重要特性。对⼈们⽽⾔,似乎享受这些重要特性带来的便利已经是理所当然的事⼉了。但其实,瞧⼀瞧隐藏在这些特性下的东西,能更好的帮助你理解这些⽹络究竟是如何⼯作的。
所以今天,就来⼿把⼿教⼤家搭⼀个神经⽹络。原料就是简单的python和numpy代码!
⽂章中的所有代码可以都在这⼉获取:
符号说明
在计算反向传播时, 我们可以选择使⽤函数符号、变量符号去记录求导过程。它们分别对应了计算图中的边和节点来表⽰它们。
给定R^n→R和x∈R^n, 那么梯度是由偏导∂f/∂j(x)组成的n维⾏向量
如果f:R^n→R^m 和x∈R^n,那么 Jacobian矩阵是下列函数组成的⼀个m×n的矩阵。
对于给定的函数f和向量a和b如果a=f(b)那么我们⽤∂a/∂b 表⽰Jacobian矩阵,当a是实数时则表⽰梯度
链式法则
给定三个分属于不同向量空间的向量a∈A及c∈C和两个可微函数f:A→B及g:B→C使得f(a)=b和g(b)=c,我们能得到复合函数的Jacobian 矩阵是函数f和g的jacobian矩阵的乘积:
这就是⼤名⿍⿍的链式法则。提出于上世纪60、70年代的反向传播算法就是应⽤了链式法则来计算⼀个实函数相对于其不同参数的梯度的。
要知道我们的最终⽬标是通过沿着梯度的相反⽅向来逐步到函数的最⼩值 (当然最好是全局最⼩值), 因为⾄少在局部来说, 这样做将使得函数值逐步下降。当我们有两个参数需要优化时, 整个过程如图所⽰:
反向模式求导
假设函数fi(ai)=ai+1由多于两个函数复合⽽成,我们可以反复应⽤公式求导并得到:
可以有很多种⽅式计算这个乘积,最常见的是从左向右或从右向左。
如果an是⼀个标量,那么在计算整个梯度的时候我们可以通过先计算∂an/∂an-1并逐步右乘所有的Jacobian矩阵∂ai/∂ai-1来得到。这个操作有时被称作VJP或向量-Jacobian乘积(Vector-Jacobian Product)。
⼜因为整个过程中我们是从计算∂an/∂an-1开始逐步计算∂an/∂an-2,∂an/∂an-3等梯度到最后,并保存中间值,所以这个过程被称为反向模式求导。最终,我们可以计算出an相对于所有其他变量的梯度。
相对⽽⾔,前向模式的过程正相反。它从计算Jacobian矩阵如∂a2/∂a1开始,并左乘∂a3/∂a2来计算∂a3/∂a1。如果我们继续乘上∂ai/∂ai-1并保存中间值,最终我们可以得到所有变量相对于∂a2/∂a1的梯度。当∂a2/∂a1是标量时,所有乘积都是列向量,这被称为Jacobian向量乘积(或者JVP,Jacobian-Vector Product )。
你⼤概已经猜到了,对于反向传播来说,我们更偏向应⽤反向模式——因为我们想要逐步得到损失函数对于每层参数的梯度。正向模式虽然也可以计算需要的梯度, 但因为重复计算太多⽽效率很低。
计算梯度的过程看起来像是有很多⾼维矩阵相乘, 但实际上,Jacobian矩阵常常是稀疏、块或者对⾓矩阵,⼜因为我们只关⼼将其右乘⾏向量的结果,所以就不需要耗费太多计算和存储资源。
在本⽂中, 我们的⽅法主要⽤于按顺序逐层搭建的神经⽹络, 但同样的⽅法也适⽤于计算梯度的其他算法或计算图。
关于反向和正向模式的详尽描述可以参考这⾥☟
深度神经⽹络
在典型的监督机器学习算法中, 我们通常⽤到⼀个很复杂函数,它的输⼊是存有标签样本数值特征的张量。此外,还有很多⽤于描述模型的权重张量。
损失函数是关于样本和权重的标量函数, 它是衡量模型输出与预期标签的差距的指标。我们的⽬标是到最合适的权重让损失最⼩。在深度学习中, 损失函数被表⽰为⼀串易于求导的简单函数的复合。所有这些简单函数(除了最后⼀个函数),都是我们指的层, ⽽每⼀层通常有两组参数: 输⼊ (可以是上⼀层的输出) 和权重。
⽽最后⼀个函数代表了损失度量, 它也有两组参数: 模型输出y和真实标签y^。例如, 如果损失度量l为平⽅误差, 则∂l/∂y为 2 avg(y-y^)。损失度量的梯度将是应⽤反向模式求导的起始⾏向量。
Autograd
⾃动求导背后的思想已是相当成熟了。它可以在运⾏时或编译过程中完成,但如何实现会对性能产⽣巨⼤影响。我建议你能认真阅读 HIPS autograd的 Python 实现,来真正了解autograd。
核⼼想法其实始终未变。从我们在学校学习如何求导时, 就应该知道这⼀点了。如果我们能够追踪最终求出标量输出的计算, 并且我们知道如何对简单操作求导 (例如加法、乘法、幂、指数、对数等等), 我们就可以算出输出的梯度。
假设我们有⼀个线性的中间层f,由矩阵乘法表⽰(暂时不考虑偏置):
为了⽤梯度下降法调整w值,我们需要计算梯度∂l/∂w。这⾥我们可以观察到,改变y从⽽影响l是⼀个关键。
每⼀层都必须满⾜下⾯这个条件: 如果给出了损失函数相对于这⼀层输出的梯度, 就可以得到损失函数相对于这⼀层输⼊(即上⼀层的输出)的梯度。
现在应⽤两次链式法则得到损失函数相对于w的梯度:
相对于x的是:
因此, 我们既可以后向传递⼀个梯度, 使上⼀层得到更新并更新层间权重, 以优化损失, 这就⾏啦!
动⼿实践
先来看看代码, 或者直接试试Colab Notebook
谭浩强c语言听谁的视频
我们从封装了⼀个张量及其梯度的类(class)开始。
现在我们可以创建⼀个layer类,关键的想法是,在前向传播时,我们返回这⼀层的输出和可以接受输出梯度和输⼊梯度的函数,并在过程中更新权重梯度。
然后, 训练过程将有三个步骤, 计算前向传递, 然后后向传递, 最后更新权重。这⾥关键的⼀点是把更新权重放在最后, 因为权重可以在多个层中重⽤,我们更希望在需要的时候再更新它。
class Layer:
def __init__(self):
self.parameters = []
def forward(self, X):
"""
Override me! A simple no-op layer, it passes forward the inputs
"""
return X, lambda D: D
python基础代码100例
def build_param(self, tensor):
"""
Creates a parameter from a tensor, and saves a reference for the update step
"""
param = Parameter(tensor)
self.parameters.append(param)
return param
def update(self, optimizer):
for param in self.parameters: optimizer.update(param)
标准的做法是将更新参数的⼯作交给优化器, 优化器在每⼀批(batch)后都会接收参数的实例。最简单和最⼴为⼈知的优化⽅法是mini-batch 随机梯度下降。
class SGDOptimizer():
def __init__(self, lr=0.1):
self.lr = lr
def update(self, param):
harp
在此框架下, 并使⽤前⾯计算的结果后, 线性层如下所⽰:
class Linear(Layer):
def __init__(self, inputs, outputs):
super().__init__()
tensor = np.random.randn(inputs, outputs) * np.sqrt(1 / inputs)
self.weights = self.build_param(tensor)
self.bias = self.build_s(outputs))
def forward(self, X):
def backward(D):
adient += X.T @ D
adient += D.sum(axis=0)
return D @ sor.T
return X @ sor + sor, backward
接下来看看另⼀个常⽤的层,激活层。它们属于点式(pointwise)⾮线性函数。点式函数的 Jacobian矩阵是对⾓矩阵, 这意味着当乘以梯度时, 它是逐点相乘的。
class ReLu(Layer):
def forward(self, X):
mask = X > 0
return X * mask, lambda D: D * mask
计算Sigmoid函数的梯度略微有⼀点难度,⽽它也是逐点计算的:
class Sigmoid(Layer):
linux在线编程
def forward(self, X):
S = 1 / (1 + np.exp(-X))
def backward(D):
return D * S * (1 - S)
小数的二进制转换return S, backward
当我们按序构建很多层后,可以遍历它们并先后得到每⼀层的输出,我们可以把backward函数存在⼀个列表内,并在计算反向传播时使⽤,这样就可以直接得到相对于输⼊层的损失梯度。就是这么神奇:
class Sequential(Layer):
def __init__(self, *layers):
super().__init__()
self.layers = layers
for layer in layers:
d(layer.parameters)
def forward(self, X):
备份表create tablebackprops = []
Y = X
for layer in self.layers:
Y, backprop = layer.forward(Y)
backprops.append(backprop)
def backward(D):
for backprop in reversed(backprops):
D = backprop(D)
return D
return Y, backward
正如我们前⾯提到的,我们将需要定义批样本的损失函数和梯度。⼀个典型的例⼦是MSE,它被常⽤在回归问题⾥,我们可以这样实现它:
def mse_loss(Yp, Yt):
diff = Yp - Yt
return np.square(diff).mean(), 2 * diff / len(diff)
(
就差⼀点了!现在,我们定义了两种层,以及合并它们的⽅法,下⾯如何训练呢?我们可以使⽤类似于scikit-learn或者Keras中的API。class Learner():
def __init__(self, model, loss, optimizer):
self.loss = loss
self.optimizer = optimizer
def fit_batch(self, X, Y):
Y_, backward = del.forward(X)
L, D = self.loss(Y_, Y)
backward(D)
return L
def fit(self, X, Y, epochs, bs):
losses = []
for epoch in range(epochs):
p = np.random.permutation(len(X))
X, Y = X[p], Y[p]
loss = 0.0
for i in range(0, len(X), bs):
loss += self.fit_batch(X[i:i + bs], Y[i:i + bs])
losses.append(loss)
return losses
这就⾏了!如果你跟随着我的思路,你可能就会发现其实有⼏⾏代码是可以被省掉的。
测试
现在可以⽤⼀些数据测试下我们的代码了。
X = np.random.randn(100, 10)
w = np.random.randn(10, 1)
b = np.random.randn(1)
Y = X @ W + B
model = Linear(10, 1)
learner = Learner(model, mse_loss, SGDOptimizer(lr=0.05))
learner.fit(X, Y, epochs=10, bs=10)
我⼀共训练了10轮。
我们还能检查学到的权重和真实的权重是否⼀致。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。