为了更好地理解神经网络的运作,今天只为大家解读神经网络背后的数学原理。而作者写这篇文章的目的一是为了整理自己学到的知识;二是希望这篇文章可以有助于大家的学习与理解。对于代数和微积分相关内容基础薄弱的小伙伴们,虽然文中涉及不少数学知识,但我会尽量让内容易于理解。
解析深度网络背后的数学
如今,已有许多像Keras, TensorFlow, PyTorch 这样高水平的专门的库和框架,我们就不用总担心矩阵的权重太多,或是对使用的激活函数求导时存储计算的规模太大这些问题了。基于这些框架,我们在构建一个神经网络时,甚至是一个有着非常复杂的结构的网络时,也仅需少量的输入和代码就足够了,极大地提高了效率。无论如何,神经网络背后的原理方法对于像架构选择、超参数调整或者优化这样的任务有着很大的帮助。
图一训练集可视化
举个例子,我们将利用上图展示的训练集数据去解决一个二分类问题。从上面的图可以看出,数据点形成了两个圆,这对于许多传统的机器学习算法是不容易的,但是现在用一个小的神经网络就可能很好地解决这个问题了。为了解决这个问题,我们将构建一个神经网络:包括五个全连接层,每层都含有不同数目的单元,结构如下:
图二神经网络架构
其中,隐藏层使用ReLU 作为激活函数,输出层使用Sigmoid。这是一个非常简单的架构,但是对于解决并解释这个问题已经足够了。
用 KERAS 求解
首先,先给大家介绍一个解决方法,使用了一个最受欢迎的机器学习库——KERAS 。
dels import Sequential
from keras.layers import Dense
model = Sequential()
model.add(Dense(4, input_dim=2,activation='relu'))
model.add(Dense(6, activation='relu'))
model.add(Dense(6, activation='relu'))
model.add(Dense(4, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
神经网络中正则化是为了干什么modelpile(loss='binary_crossentropy', optimizer='adam', me trics=['accuracy'])
model.fit(X_train, y_train, epochs=50, verbose=0)
正如我在简介中提到的,少量的输入数据和代码就足以构建和训练出一个模型,并且在测试集上的分类精度几乎达到100%。概括来讲,我们的任务其实就是提供与所选架构一致的超参数(层数、每层的神经元数、激活函数或者迭代次数)。先给大家展示一个超酷的可视化结果,是我在训练过程中得到的:
图三训练中正确分类区域的可视化
现在我们来解析这背后的原理。
什么是神经网络?
让我们从关键问题开始:什么是神经网络?它是一种由生物启发的,用来构建可以学习并且独立解释数据中联系的计算机程序的方法。如上图二所示,网络就是各层神经元的集合,这些神经元排列成列,并且相互之间连接,可以进行交流。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。