继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

RNN及其在NLP中的应用

摇曳的蔷薇
关注TA
已关注
手记 324
粉丝 54
获赞 169

神经网络基本理论

人工神经网络本质是用机器函数拟合的过程(输入拟合函数输出)模拟人脑学习的过程(现象内在规律知识),其基本结构如下图:

https://img4.mukewang.com/5d31d0960001821607300511.jpg

图1 神经网络基本结构

其具有如下特点:

•神经元及其连接
•输入层、输出层和隐藏层
•输入、输出层各一,隐藏层大于1时为深度神经网络
•输入输出节点数固定
•信息在层间的传输由连接强度决定
•连接强度随训练而改变
具体到神经单元之间的连接,同样是模拟神经元:

https://img1.mukewang.com/5d31d09a00018e1907030490.jpg

图2 神经单元信息传递

RNN与LSTM

NLP中常将中文的分词问题转换为序列标注问题。例如用BMES对‘小明’进行标注
小=[1,0]  label=[1,0,0,0]
明=[0,1]  label=[0,0,1,0]

基本的神经网络无法考虑上文信息(最多能考虑固定长度的相邻信息),由于训练语料中出现大量明天、明白、明暗等词,所以导致明.label=[1,0,0,0]×

如果现在通过某种方式告诉神经网络‘明’的上下文信息,那么:
小明、小明、小明、小明明.label=[0,0,1,0]√

上面提到的某种方式就是RNN。

https://img2.mukewang.com/5d31d09d00014eeb05300124.jpg

图3 RNN网络结构

RNN通过连接每次输入的隐藏层节点实现单向传递过去信息的效果,所有输入共享参数矩阵。在有时间特征和序列特征的数据处理中经常使用RNN且能得到更好的效果。

https://img4.mukewang.com/5d31d0a7000131ac06700251.jpg

图4 RNN结构展开示意图

然而基本的RNN本身存在设计缺陷。若只看图3蓝色箭头线的、隐藏状态的传递过程,不考虑非线性部分,那么就会得到一个简化的式子(1):
(1) ht= Whh· ht-1
•如果将起始时刻的隐藏状态信息h0向第t时刻传递,会得到式子(2)
(2) ht= (Whh)t· h0
•Whh会被乘以多次,若允许矩阵Whh进行特征分解
(3) Whh = Q·ᴧ·QT
•式子(2)会变成(4)
(4) ht= Q·ᴧt·QT·h0
当特征值小于1时,不断相乘的结果是特征值的t次方向0衰减;
当特征值大于1时,不断相乘的结果是特征值的t次方向∞扩增。这时想要传递的h0中的信息会被掩盖掉,无法传递到ht

为了解决上述问题,设计了LSTM。LSTM是在标准RNN的基础上装备了若干个控制数级的gates。可以理解成神经网络(RNN整体)中加入其他神经网络(gates),而这些gates只是控制数级,控制信息的流动量。根据gates所用于控制信息流通的地点不同,它们又被分为:
•输入门:控制有多少上一时刻的单元输入信息可以流入当前单元。
•遗忘门:控制有多少上一时刻的单元中的输出信息可以累积到当前时刻的单元中。
•输出门:控制有多少当前时刻的单元中的信息可以流入当前隐藏状态中。

https://img.mukewang.com/5d31d0b40001003707470298.jpg

图5 LSTM神经单元结构

常规的递归网络只对所有过去状态存在依赖关系。所以递归网络的一个扩展就是双向(bidirectional)递归网络:两个不同方向的递归层叠加。

https://img.mukewang.com/5d31d0b800011a0707660451.jpg

图6 BI-LSTM网络结构图

BI-LSTM(双向长短期记忆模型)至少含有两个递归层,正向与反向递归层,其网络结构如图所示。正向(forward)递归层是从最初时刻开始由前向后计算,而反向(backward)递归层是从最末时刻开始由后向前计算。各个递归层的计算结果通过一定方式综合起来得到最终隐藏序列值。

现在在NLP序列标注工作中比较流行的做法是将BI-LSTM的输出端的Softmax与CRF结合,即BI-LSTM-CRF模型,这个放到本人设计的DBLC模型中介绍(如果不悖学术道德...)。

代码与实验对比

这里用TensorFlow对BI-LSTM做一个简单的序列标注示例。
输入数据的格式、label格式,网络参数矩阵定义如下所示(不知道简书怎么插公式,直接截图了)。数据均采用One-Hot方法进行向量化。

https://img1.mukewang.com/5d31d0be0001e0ce06950381.jpg

图7 LSTM序列标注示例

完整代码放在最下方,只用了中国管理案例库的语料中的609个字训练,但效果比7个字好多了...训练数据量对神经网络来说确实很重要。

https://img1.mukewang.com/5d31d0bf00016ce707190450.jpg

图8 训练数据量对训练效果的影响

图中more是用609个字,而less是7个字。蓝线准确率上升平稳,偶然性较小,且最终得到更高的结果。

接下来是LSTM与BI-LSTM对比。

https://img2.mukewang.com/5d31d0c30001156007490456.jpg

图9  LSTM与BI-LSTM训练Loss对比

https://img1.mukewang.com/5d31d0c70001befc07230473.jpg

图10   LSTM与BI-LSTM训练Acc对比

import tensorflow as tffrom numpy import *from gensim.models import word2vec

tf.set_random_seed(1)
lr = 0.001batch_size = 609epoch=1500n_inputs = 6  # 输入层节点数n_steps =1# 时步n_hidden_unis = 7  # 隐藏层节点n_classes = 4  # 输出层节点数def getData():
  f=open(r'C:\Users\Administrator\Desktop\程序\DL for NLP\tf_tagging-master\tf_tagging\data\test\wordlabel.txt',encoding='utf8')
  wordvlist,labellist=[],[]
  f1=open(r'C:\Users\Administrator\Desktop\程序\DL for NLP\tf_tagging-master\tf_tagging\data\test\word.txt',encoding='utf8')
  wordlist=list(set(l.strip() for l in f1.readlines()))
  f1.close()  for l in f.readlines():
    word,label=l.split(' ')[0],l.split(' ')[1].strip()
    wordv=zeros(len(wordlist))
    wordv[wordlist.index(word)]=1
    labelv=[0,0,0,0]    if label=='B':
      labelv=[1,0,0,0]    if label=='I':
      labelv=[0,1,0,0]    if label=='E':
      labelv=[0,0,1,0]     if label=='s':
      labelv=[0,0,0,1]
    labellist.append(labelv)
    wordvlist.append([wordv])
  f.close()  return len(wordlist),wordvlist,labellist

n_inputs,batch_xs,batch_ys=getData()
batch_xs = array(batch_xs)
batch_ys = array(batch_ys)# 定义训练数据的存储变量x = tf.placeholder(tf.float32, [None, n_steps, n_inputs])
y = tf.placeholder(tf.float32, [None, n_classes])# 定义权重和偏移量矩阵weights = {    # (10,7)
    'in': tf.Variable(tf.random_normal([n_inputs, n_hidden_unis])),    # (4,10)
    'out': tf.Variable(tf.random_normal([n_hidden_unis, n_classes]))
}
biases = {    # (10,)
    'in': tf.Variable(tf.constant(0.1, shape=[n_hidden_unis, ])),    # (4,)
    'out': tf.Variable(tf.constant(0.1, shape=[n_classes, ]))
}def RNN(X, weights, biases):
    # 输入层 => 隐藏层
    # X(7 batch, 1 steps, 6 inputs) => (7*1, 6)
    X = tf.reshape(X, [-1, n_inputs])    # W*X+B
    X_in = tf.matmul(X, weights['in'])+biases['in']
    X_in = tf.reshape(X_in,[-1, n_steps, n_hidden_unis])    # lstm_cell
    lstm_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden_unis, forget_bias=1.0, state_is_tuple=True)
    _init_state = lstm_cell.zero_state(batch_size, dtype=tf.float32)
    outputs, states = tf.nn.dynamic_rnn(lstm_cell, X_in, initial_state=_init_state, time_major=False)    # 隐藏层 => 输出层
    results = tf.matmul(states[1], weights['out']) + biases['out']    return results

pred = RNN(x, weights, biases)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred, labels=y))
train_op = tf.train.AdamOptimizer(lr).minimize(cost)
correct_pred = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))
init = tf.global_variables_initializer()with tf.Session() as sess:
    sess.run(init)
    step = 0
    while step < epoch:#这里是香格里拉
        '''batch_xs = [[[1, 0, 0, 0, 0, 0]], [[0, 1, 0, 0, 0, 0]], [[0, 0, 1, 0, 0, 0]], [[0, 0, 0, 1, 0, 0]],
                    [[0, 0, 0, 0, 1, 0]], [[0, 1, 0, 0, 0, 0]], [[0, 0, 0, 0, 0, 1]]]
        batch_ys = [[1, 0, 0, 0], [0, 0, 1, 0], [0, 0, 0, 1], [1, 0, 0, 0], [0, 1, 0, 0], [0, 1, 0, 0],
                    [0, 0, 1, 0]]'''
        sess.run([train_op], feed_dict={
            x: batch_xs,
            y: batch_ys
        })        if step %50==0:
            loss = sess.run(cost, feed_dict={x: batch_xs, y: batch_ys})
            acc = sess.run(accuracy, feed_dict={x: batch_xs, y: batch_ys})
            print( str(step/50)+"test,Minibatch Loss= " + "{:.6f}".format(loss) + ", Test Accuracy= " + "{:.5f}".format(acc))
        step += 1
    print("Finish!")



作者:帅气的学术狗
链接:https://www.jianshu.com/p/a47cdedd4433


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP