资讯专栏INFORMATION COLUMN

技巧 | 如何只用NumPy码一个神经网络

Me_Kun / 1254人阅读

摘要:看过上的代码并对有一定经验的人会发现,矩阵和向量被小的随机数填充。一般来说,损失函数用来表征我们与理想解决方案的距离。损失函数和准确率计算反向传播许多缺乏经验的深度学习爱好者认为反向传播是一种难以理解的算法。

BP(Back Propagation)神经网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种==按误差逆传播算法训练的多层前馈网络==,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的==输入-输出模式映射关系==,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用梯度下降法,通过反向传播来不断调整网络的权值和阈值,使==网络的误差平方和最小==。BP神经网络模型拓扑结构包括输入层(input)、隐层(hidden layer)和输出层(output layer)。

注:本文将包含大量用 Python 编写的代码片段。希望读起来不会太无聊。

Keras、TensorFlow、PyTorch 等高级框架可以帮助我们快速构建复杂模型。深入研究并理解其中的理念很有价值。下面尝试只使用 NumPy 构建一个全运算的神经网络,通过解决简单的分类问题来测试模型,并将其与 Keras 构建的神经网络进行性能比较。

密集神经网络架构

磨刀不误砍柴工

在开始编程之前,需要先整理一个基本的路线图。我们的目标是创建一个程序,该程序能创建一个拥有特定架构(层的数量和大小以及激活函数都是确定的)的密集连接神经网络。图 1 给出了网络的示例。最重要的是,网络必须可训练且能进行预测。

神经网络框图
上图显示了在训练神经网络时需要执行的操作。它还显示了在单次迭代的不同阶段,需要更新和读取多少参数。构建正确的数据结构并熟练地管理其状态是任务中最困难的部分之一。

l 层的权值矩阵 W 和偏置向量 b 的维数。

神经网络层初始化

首先初始化每一层的权值矩阵 W 和偏置向量 b。在图 3 中。先准备一个为系数分配适当维数的清单。上标 [l] 表示当前层的索引 (从 1 数起),值 n 表示给定层中的单位数。假设描述 NN 架构的信息将以类似 Snippet 1 的列表形式传递到程序中,列表的每一项是一个描述单个网络层基本参数的字典:input_dim 是输入层信号向量的大小,output_dim 是输出层激活向量的大小,activation 是在内层使用的激活函数。

nn_architecture = [
    {"input_dim": 2, "output_dim": 4, "activation": "relu"},
    {"input_dim": 4, "output_dim": 6, "activation": "relu"},
    {"input_dim": 6, "output_dim": 6, "activation": "relu"},
    {"input_dim": 6, "output_dim": 4, "activation": "relu"},
    {"input_dim": 4, "output_dim": 1, "activation": "sigmoid"},
]

Snippet 1:包含描述特定神经网络参数的列表。该列表对应图 1 所示的 NN。

如果你对这个话题很熟悉,你可能已经在脑海中听到一个焦虑的声音:「嘿,嘿!这里有问题!有些领域是不必要的……」是的,这次你内心的声音是对的。前一层输出的向量是下一层的输入,所以实际上只知道一个向量的大小就足够了。但我特意使用以下符号来保持所有层之间目标的一致性,使那些刚接触这一课题的人更容易理解代码。

def init_layers(nn_architecture, seed = 99):
    np.random.seed(seed)
    number_of_layers = len(nn_architecture)
    params_values = {}

    for idx, layer in enumerate(nn_architecture):
        layer_idx = idx + 1
        layer_input_size = layer["input_dim"]
        layer_output_size = layer["output_dim"]

        params_values["W" + str(layer_idx)] = np.random.randn(
            layer_output_size, layer_input_size) * 0.1
        params_values["b" + str(layer_idx)] = np.random.randn(
            layer_output_size, 1) * 0.1

    return params_values

Snippet 2:初始化权值矩阵和偏置向量值的函数。

最后是这一部分最主要的任务——层参数初始化。看过 Snippet 2 上的代码并对 NumPy 有一定经验的人会发现,矩阵 W 和向量 b 被小的随机数填充。这种做法并非偶然。权值不能用相同的数字初始化,不然会出现「对称问题」。如果所有权值一样,不管输入 X 是多少,隐藏层中的所有单位都相同。在某种程度上,我们在初始阶段就会陷入死循环,无论训练模型时间多长、网络多深都无法逃脱。线性代数是不会被抵消的。

在第一次迭代中,使用较小的数值可以提高算法效率。通过图 4 所示的 sigmoid 函数图可以看到,对于较大数值,它几乎是平的,这十分影响 NN 的学习速度。总之,使用小随机数进行参数初始化是一种简单的方法,能保证我们的算法有足够好的起点。准备好的参数值存储在带有唯一标定其父层的 python 字典中。字典在函数末尾返回,因此算法的下一步是访问它的内容。

算法中使用的激活函数
我们将使用的函数中,有几个函数非常简单但功能强大。激活函数可以写在一行代码中,但却能使神经网络表现出自身所需的非线性性能和可表达性。「没有它们,我们的神经网络就会变成由多个线性函数组合而成的线性函数。」可选激活函数很多,但在这个项目中,我决定使用这两种——sigmoid 和 ReLU。为了能够得到完整循环并同时进行前向和反向传播,我们还需要求导。

def sigmoid(Z):
    return 1/(1+np.exp(-Z))

def relu(Z):
    return np.maximum(0,Z)

def sigmoid_backward(dA, Z):
    sig = sigmoid(Z)
    return dA * sig * (1 - sig)

def relu_backward(dA, Z):
    dZ = np.array(dA, copy = True)
    dZ[Z <= 0] = 0;
    return dZ;

Snippet 3:ReLU 和 Sigmoid 激活函数及其导数。

前向传播

设计好的神经网络有一个简单的架构。信息以 X 矩阵的形式沿一个方向传递,穿过隐藏的单元,从而得到预测向量 Y_hat。为了便于阅读,我将前向传播分解为两个多带带的函数——对单个层进行前向传播和对整个 NN 进行前向传播。

def single_layer_forward_propagation(A_prev, W_curr, b_curr, activation="relu"):
    Z_curr = np.dot(W_curr, A_prev) + b_curr

    if activation is "relu":
        activation_func = relu
    elif activation is "sigmoid":
        activation_func = sigmoid
    else:
        raise Exception("Non-supported activation function")

    return activation_func(Z_curr), Z_curr

Snippet 4:单层前向传播步骤

这部分代码可能是最容易理解的。给定上一层的输入信号,我们计算仿射变换 Z,然后应用选定的激活函数。通过使用 NumPy,我们可以利用向量化——一次性对整个层和整批示例执行矩阵运算。这减少了迭代次数,大大加快了计算速度。除了计算矩阵 A,我们的函数还返回一个中间值 Z。作用是什么呢?答案如图 2 所示。我们需要在反向传播中用到 Z。

在前向传播中使用的单个矩阵的维数
使用预设好的一层前向函数后,就可以轻松地构建整个前向传播。这个函数稍显复杂,它的作用不仅是预测,还要管理中间值的集合。它返回 Python 字典,其中包含为特定层计算的 A 和 Z 值。

def full_forward_propagation(X, params_values, nn_architecture):
    memory = {}
    A_curr = X

    for idx, layer in enumerate(nn_architecture):
        layer_idx = idx + 1
        A_prev = A_curr

        activ_function_curr = layer["activation"]
        W_curr = params_values["W" + str(layer_idx)]
        b_curr = params_values["b" + str(layer_idx)]
        A_curr, Z_curr = single_layer_forward_propagation(A_prev, W_curr, b_curr, activ_function_curr)

        memory["A" + str(idx)] = A_prev
        memory["Z" + str(layer_idx)] = Z_curr

    return A_curr, memory

Snippnet 5:完整前向传播步骤

损失函数

为了观察进度,保证正确方向,我们通常需要计算损失函数的值。「一般来说,损失函数用来表征我们与『理想』解决方案的距离。」我们根据要解决的问题来选择损失函数,像 Keras 这样的框架会有多种选择。因为我计划测试我们的 NN 在两类点上的分类,所以选择二进制交叉熵,它定义如下。为了获得更多学习过程的信息,我决定引入一个计算准确率的函数。

Snippnet 6:损失函数和准确率计算

反向传播

许多缺乏经验的深度学习爱好者认为反向传播是一种难以理解的算法。微积分和线性代数的结合常常使缺乏数学基础的人望而却步。所以如果你无法马上理解,也不要担心。相信我,我们都经历过这个过程。

def single_layer_backward_propagation(dA_curr, W_curr, b_curr, Z_curr, A_prev, activation="relu"):
    m = A_prev.shape[1]

    if activation is "relu":
        backward_activation_func = relu_backward
    elif activation is "sigmoid":
        backward_activation_func = sigmoid_backward
    else:
        raise Exception("Non-supported activation function")

    dZ_curr = backward_activation_func(dA_curr, Z_curr)
    dW_curr = np.dot(dZ_curr, A_prev.T) / m
    db_curr = np.sum(dZ_curr, axis=1, keepdims=True) / m
    dA_prev = np.dot(W_curr.T, dZ_curr)

    return dA_prev, dW_curr, db_curr

Snippnet 7:单层反向传播步骤

人们常常混淆反向传播与梯度下降,但实际上这是两个独立的问题。前者的目的是有效地计算梯度,而后者是利用计算得到的梯度进行优化。在 NN 中,我们计算关于参数的代价函数梯度(之前讨论过),但是反向传播可以用来计算任何函数的导数。这个算法的本质是在已知各个函数的导数后,利用微分学中的链式法则计算出结合成的函数的导数。对于一层网络,这个过程可用下面的公式描述。本文主要关注的是实际实现,故省略推导过程。通过公式可以看出,预先记住中间层的 A 矩阵和 Z 矩阵的值是十分必要的。

一层中的前向和反向传播
就像前向传播一样,我决定将计算分为两个独立的函数。第一个函数(Snippnet7)侧重一个多带带的层,可以归结为用 NumPy 重写上面的公式。第二个表示完全反向传播,主要在三个字典中读取和更新值。然后计算预测向量(前向传播结果)的代价函数导数。这很简单,它只是重述了下面的公式。然后从末端开始遍历网络层,并根据图 6 所示的图计算所有参数的导数。最后,函数返回 python 字典,其中就有我们想求的梯度。

def full_backward_propagation(Y_hat, Y, memory, params_values, nn_architecture):
    grads_values = {}
    m = Y.shape[1]
    Y = Y.reshape(Y_hat.shape)

    dA_prev = - (np.divide(Y, Y_hat) - np.divide(1 - Y, 1 - Y_hat));

    for layer_idx_prev, layer in reversed(list(enumerate(nn_architecture))):
        layer_idx_curr = layer_idx_prev + 1
        activ_function_curr = layer["activation"]

        dA_curr = dA_prev

        A_prev = memory["A" + str(layer_idx_prev)]
        Z_curr = memory["Z" + str(layer_idx_curr)]
        W_curr = params_values["W" + str(layer_idx_curr)]
        b_curr = params_values["b" + str(layer_idx_curr)]

        dA_prev, dW_curr, db_curr = single_layer_backward_propagation(
            dA_curr, W_curr, b_curr, Z_curr, A_prev, activ_function_curr)

        grads_values["dW" + str(layer_idx_curr)] = dW_curr
        grads_values["db" + str(layer_idx_curr)] = db_curr

    return grads_values

Snippnet 8:全反向传播步骤

更新参数值

该方法的目标是利用梯度优化来更新网络参数,以使目标函数更接近最小值。为了实现这项任务,我们使用两个字典作为函数参数:params_values 存储参数的当前值;grads_values 存储根据参数计算出的代价函数导数。虽然该优化算法非常简单,只需对每一层应用下面的方程即可,但它可以作为更高级优化器的一个良好起点,所以我决定使用它,这也可能是我下一篇文章的主题。

def update(params_values, grads_values, nn_architecture, learning_rate):
    for layer_idx, layer in enumerate(nn_architecture):
        params_values["W" + str(layer_idx)] -= learning_rate * grads_values["dW" + str(layer_idx)]        
        params_values["b" + str(layer_idx)] -= learning_rate * grads_values["db" + str(layer_idx)]

    return params_values;

Snippnet 9:利用梯度下降更新参数值

组合成型

任务中最困难的部分已经过去了,我们已经准备好了所有必要的函数,现在只需把它们按正确的顺序组合即可。为了更好地理解操作顺序,需要对照图 2 的表。该函数经过训练和期间的权值变化返回了最优权重。只需要使用接收到的权重矩阵和一组测试数据即可运行完整的前向传播,从而进行预测。

def train(X, Y, nn_architecture, epochs, learning_rate):
    params_values = init_layers(nn_architecture, 2)
    cost_history = []
    accuracy_history = []

    for i in range(epochs):
        Y_hat, cashe = full_forward_propagation(X, params_values, nn_architecture)
        cost = get_cost_value(Y_hat, Y)
        cost_history.append(cost)
        accuracy = get_accuracy_value(Y_hat, Y)
        accuracy_history.append(accuracy)

        grads_values = full_backward_propagation(Y_hat, Y, cashe, params_values, nn_architecture)
        params_values = update(params_values, grads_values, nn_architecture, learning_rate)

    return params_values, cost_history, accuracy_history

Snippnet 10:训练模型

David vs Goliath

如果对Python编程、网络爬虫、机器学习、数据挖掘、web开发、人工智能、面试经验交流。感兴趣可以519970686,群内会有不定期的发放免费的资料链接,这些资料都是从各个技术网站搜集、整理出来的,如果你有好的学习资料可以私聊发我,我会注明出处之后分享给大家。

现在可以检验我们的模型在简单的分类问题上的表现了。我生成了一个由两类点组成的数据集,如图 7 所示。然后让模型学习对两类点分类。为了便于比较,我还在高级框架中编写了 Keras 模型。两种模型具有相同的架构和学习速率。尽管如此,这样对比还是稍有不公,因为我们准备的测试太过于简单。最终,NumPy 模型和 Keras 模型在测试集上的准确率都达到了 95%,但是我们的模型需要多花几十倍的时间才能达到这样的准确率。在我看来,这种状态主要是由于缺乏适当的优化。

测试数据集

两种模型实现的分类边界可视化

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/44899.html

相关文章

  • Pytorch深度学习——处理多维度特征的输入(B站刘二大人P7学习笔记)

    摘要:注在数据库中的表,每一行表示一个记录,每一列表示一个字段而在深度学习的数据集中,每一行表示一个分类,每一列表示一个特征。 目录 1 模型的改变 1.1 采用Mini-Batch(N samples)的形式 2 代码的改变 2.1 构造一个多层的神经网络 2.2 代码的改变 2.2.1  数据...

    Kaede 评论0 收藏0
  • 15个Python库,让你学习数据科学更轻松

    摘要:在本节中,我们将看到一些最流行和最常用的库,用于机器学习和深度学习是用于数据挖掘,分析和机器学习的最流行的库。愿码提示网址是一个基于的框架,用于使用多个或进行有效的机器学习和深度学习。 showImg(https://segmentfault.com/img/remote/1460000018961827?w=999&h=562); 来源 | 愿码(ChainDesk.CN)内容编辑...

    W4n9Hu1 评论0 收藏0
  • 深度神经网络原理与实践

    摘要:理论基础什么是神经网络我们知道深度学习是机器学习的一个分支,是一种以人工神经网络为架构,对数据进行表征学习的算法。深度神经网络中的深度指的是一系列连续的表示层,数据模型中包含了多少层,这就被称为模型的深度。 理论基础 什么是神经网络 我们知道深度学习是机器学习的一个分支,是一种以人工神经网络为架构,对数据进行表征学习的算法。而深度神经网络又是深度学习的一个分支,它在 wikipedia...

    刘明 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<