自然语言处理中的 机器翻译
最后,在所有参考翻译结果的分数的最大值并除以机器翻译结果的总长度,作为机器翻译的准确率。这段代码的说明了read_data函数的功能:从一个文本文件中读取输入输出序列对,对每一对序列进行预处理以符合模型处理的要求(如限制序列长度、构建词汇表、转换为索引张量等),最后返回处理后的输入输出词汇表以及一个包含输入输出数据对的TensorDataset对象,为后续的机器翻译或其他序列到序列学习任务做准备。
文章目录
机器翻译
机器翻译是指将一段文本从一种语言自动翻译到另一种语言。机器翻译是自然语言处理领域的重要应用之一,它可以帮助人们在跨语言交流、文档翻译和信息检索等方面更加便捷和高效。因为一段文本序列在不同语言中的长度不一定相同,所以我们使用机器翻译为例来介绍编码器—解码器和注意力机制的应用。
1.机器翻译的历史
机器翻译的历史可以追溯到20世纪50年代。当时,机器翻译主要使用基于规则的方法来实现。这种方法需要人工编写大量的语法规则和词典,从而使得机器翻译系统的开发和维护成本非常高。随着计算机技术和自然语言处理技术的不断发展,机器翻译逐渐转向基于统计和机器学习的方法。这种方法不需要人工编写大量的规则,而是通过学习大量的语料库来提高翻译质量。近年来,随着神经网络技术的不断发展,机器翻译的质量和效率得到了极大的提高。
2 .读取和预处理数据
我们先定义一些特殊符号。其中“<pad>”(padding)符号用来添加在较短序列后,直到每个序列等长,而“<bos>”和“<eos>”符号分别表示序列的开始和结束。
!tar -xf d2lzh_pytorch.tar
import collections
import os
import io
import math
import torch
from torch import nn
import torch.nn.functional as F
import torchtext.vocab as Vocab
import torch.utils.data as Data
import sys
# sys.path.append("..")
import d2lzh_pytorch as d2l
PAD, BOS, EOS = '<pad>', '<bos>', '<eos>'
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
print(torch.__version__, device)
1.5.0 cpu
接着定义两个辅助函数对后面读取的数据进行预处理。
# 将一个序列中所有的词记录在all_tokens中以便之后构造词典,然后在该序列后面添加PAD直到序列
# 长度变为max_seq_len,然后将序列保存在all_seqs中
def process_one_seq(seq_tokens, all_tokens, all_seqs, max_seq_len):
# 将当前序列的词语添加到总的词语列表中
all_tokens.extend(seq_tokens)
# 在序列末尾添加结束符EOS和足够数量的PAD以达到最大序列长度max_seq_len
seq_tokens += [EOS] + [PAD] * (max_seq_len - len(seq_tokens) - 1)
# 处理后的序列存入all_seqs列表
all_seqs.append(seq_tokens)
# 根据收集的所有词语构建词汇表(Vocab)。词汇表中包含特殊的标记如PAD(填充)、BOS(开始)、EOS(结束)。
# 然后,将所有序列中的词语转换为其在词汇表中的索引,并将这些索引列表转换为PyTorch的Tensor。
def build_data(all_tokens, all_seqs):
# 使用词频计数创建词汇表实例,包含特殊符号
vocab = Vocab.Vocab(collections.Counter(all_tokens),
specials=[PAD, BOS, EOS])
# 将每个序列的词语转换为其在词汇表中的索引
indices = [[vocab.stoi[w] for w in seq] for seq in all_seqs]
# 将转换后的索引列表转换为Tensor,以便于模型处理
return vocab, torch.tensor(indices)
解释了两个函数process_one_seq和build_data的作用和内部操作流程。前者负责处理单个序列并准备词汇统计,后者则根据收集到的所有词汇构建词汇表,并将序列转换为基于词汇表索引的张量形式,这是自然语言处理任务中常见的数据预处理步骤。
为了演示方便,我们在这里使用一个很小的法语—英语数据集。在这个数据集里,每一行是一对法语句子和它对应的英语句子,中间使用'\t'
隔开。在读取数据时,我们在句末附上“<eos>”符号,并可能通过添加“<pad>”符号使每个序列的长度均为max_seq_len
。我们为法语词和英语词分别创建词典。法语词的索引和英语词的索引相互独立。
def read_data(max_seq_len):
# in和out分别是input和output的缩写
# 分别初始化输入(in)和输出(out)的词语列表及序列列表
in_tokens, out_tokens, in_seqs, out_seqs = [], [], [], []
# 打开并读取文件中的每行数据,这里假设文件名为'fr-en-small.txt'
with io.open('fr-en-small.txt') as f:
lines = f.readlines()
# 遍历文件中的每一行
for line in lines:
# 每一行通过制表符'\t'分割为输入序列和输出序列
in_seq, out_seq = line.rstrip().split('\t')
# 进一步将输入和输出序列按空格分割成词语列表
in_seq_tokens, out_seq_tokens = in_seq.split(' '), out_seq.split(' ')
# 如果输入或输出序列的长度(加1为EOS预留位置)超过max_seq_len,则跳过此样本
if max(len(in_seq_tokens), len(out_seq_tokens)) > max_seq_len - 1:
continue
# 对输入和输出序列分别进行处理,包括扩展词汇表、添加PAD至指定长度,并保存处理后的序列
process_one_seq(in_seq_tokens, in_tokens, in_seqs, max_seq_len)
process_one_seq(out_seq_tokens, out_tokens, out_seqs, max_seq_len)
# 根据处理后的输入和输出词语列表,分别构建词汇表并转换序列数据为索引张量
in_vocab, in_data = build_data(in_tokens, in_seqs)
out_vocab, out_data = build_data(out_tokens, out_seqs)
# 返回输入和输出的词汇表以及一个结合了输入和输出数据的TensorDataset对象,供后续模型训练使用
return in_vocab, out_vocab, Data.TensorDataset(in_data, out_data)
这段代码的说明了read_data函数的功能:从一个文本文件中读取输入输出序列对,对每一对序列进行预处理以符合模型处理的要求(如限制序列长度、构建词汇表、转换为索引张量等),最后返回处理后的输入输出词汇表以及一个包含输入输出数据对的TensorDataset对象,为后续的机器翻译或其他序列到序列学习任务做准备。
将序列的最大长度设成7,然后查看读取到的第一个样本。该样本分别包含法语词索引序列和英语词索引序列。
max_seq_len = 7
in_vocab, out_vocab, dataset = read_data(max_seq_len)
dataset[0]
(tensor([ 5, 4, 45, 3, 2, 0, 0]), tensor([ 8, 4, 27, 3, 2, 0, 0]))
3. 含注意力机制的编码器—解码器
我们将使用含注意力机制的编码器—解码器来将一段简短的法语翻译成英语。下面我们来介绍模型的实现。
3.1 编码器
在编码器中,我们将输入语言的词索引通过词嵌入层得到词的表征,然后输入到一个多层门控循环单元中。正如我们在6.5节(循环神经网络的简洁实现)中提到的,PyTorch的nn.GRU
实例在前向计算后也会分别返回输出和最终时间步的多层隐藏状态。其中的输出指的是最后一层的隐藏层在各个时间步的隐藏状态,并不涉及输出层计算。注意力机制将这些输出作为键项和值项。
class Encoder(nn.Module):
def __init__(self, vocab_size, embed_size, num_hiddens, num_layers,
drop_prob=0, **kwargs):
"""
初始化编码器模块。
参数:
- vocab_size: 词汇表大小,即输入数据的词典大小。
- embed_size: 词嵌入维度,即每个词将被映射到的向量空间的维度。
- num_hiddens: 隐藏层的单元数,决定隐藏状态的维度。
- num_layers: GRU层的数量,即堆叠的GRU层数。
- drop_prob: dropout比例,用于防止过拟合。
"""
super(Encoder, self).__init__(**kwargs)
# 创建词嵌入层,将词索引映射到embed_size维度的向量
self.embedding = nn.Embedding(vocab_size, embed_size)
# 定义一个多层GRU网络,输入维度为词嵌入维度,隐藏层维度为num_hiddens,层数为num_layers
self.rnn = nn.GRU(embed_size, num_hiddens, num_layers, dropout=drop_prob)
def forward(self, inputs, state):
"""
前向传播方法。
参数:
- inputs: 输入数据,形状为(批量大小, 时间步数),表示每个批次中的序列数据。
- state: 初始隐藏状态,对于多层GRU,state是一个包含多个隐藏状态的张量。
返回:
- 输出和新的隐藏状态。输出是每个时间步的隐藏状态,新状态用于后续时间步或传递给解码器。
"""
# 将输入转为长整型以匹配词嵌入层的输入要求,并通过embedding层得到词嵌入向量
# 然后 permute 将形状从(batch_size, seq_len)调整为(seq_len, batch_size, embed_size)
embedding = self.embedding(inputs.long()).permute(1, 0, 2) # (seq_len, batch, input_size)
# 通过GRU层进行前向传播,接收词嵌入向量和初始隐藏状态
return self.rnn(embedding, state)
def begin_state(self):
"""
生成编码器的初始隐藏状态。
参数:
- device: 设备类型,如"cpu"或"cuda"。
- batch_size: 批次大小,默认为1。
返回:
- 初始化的隐藏状态,通常与模型配置相关,这里简化为返回None,实际应用中需根据num_layers和num_hiddens生成适当形状的张量。
"""
return None
下面我们来创建一个批量大小为4、时间步数为7的小批量序列输入。设门控循环单元的隐藏层个数为2,隐藏单元个数为16。编码器对该输入执行前向计算后返回的输出形状为(时间步数, 批量大小, 隐藏单元个数)。门控循环单元在最终时间步的多层隐藏状态的形状为(隐藏层个数, 批量大小, 隐藏单元个数)。对于门控循环单元来说,state
就是一个元素,即隐藏状态;如果使用长短期记忆,state
是一个元组,包含两个元素即隐藏状态和记忆细胞。
encoder = Encoder(vocab_size=10, embed_size=8, num_hiddens=16, num_layers=2)
output, state = encoder(torch.zeros((4, 7)), encoder.begin_state())
output.shape, state.shape # GRU的state是h, 而LSTM的是一个元组(h, c)
(torch.Size([7, 4, 16]), torch.Size([2, 4, 16]))
3.2 注意力机制
我们将实现10.11节(注意力机制)中定义的函数 a a a:将输入连结后通过含单隐藏层的多层感知机变换。其中隐藏层的输入是解码器的隐藏状态与编码器在所有时间步上隐藏状态的一一连结,且使用tanh函数作为激活函数。输出层的输出个数为1。两个Linear
实例均不使用偏差。其中函数 a a a定义里向量 v \boldsymbol{v} v的长度是一个超参数,即attention_size
。
def attention_model(input_size, attention_size):
model = nn.Sequential(nn.Linear(input_size, attention_size, bias=False),
nn.Tanh(),
nn.Linear(attention_size, 1, bias=False))
return model
注意力机制的输入包括查询项、键项和值项。设编码器和解码器的隐藏单元个数相同。这里的查询项为解码器在上一时间步的隐藏状态,形状为(批量大小, 隐藏单元个数);键项和值项均为编码器在所有时间步的隐藏状态,形状为(时间步数, 批量大小, 隐藏单元个数)。注意力机制返回当前时间步的背景变量,形状为(批量大小, 隐藏单元个数)。
def attention_forward(model, enc_states, dec_state):
"""
enc_states: (时间步数, 批量大小, 隐藏单元个数)
dec_state: (批量大小, 隐藏单元个数)
"""
# 将解码器隐藏状态广播到和编码器隐藏状态形状相同后进行连结
dec_states = dec_state.unsqueeze(dim=0).expand_as(enc_states)
enc_and_dec_states = torch.cat((enc_states, dec_states), dim=2)
e = model(enc_and_dec_states) # 形状为(时间步数, 批量大小, 1)
alpha = F.softmax(e, dim=0) # 在时间步维度做softmax运算
return (alpha * enc_states).sum(dim=0) # 返回背景变量
在下面的例子中,编码器的时间步数为10,批量大小为4,编码器和解码器的隐藏单元个数均为8。注意力机制返回一个小批量的背景向量,每个背景向量的长度等于编码器的隐藏单元个数。因此输出的形状为(4, 8)。
seq_len, batch_size, num_hiddens = 10, 4, 8
model = attention_model(2*num_hiddens, 10)
enc_states = torch.zeros((seq_len, batch_size, num_hiddens))
dec_state = torch.zeros((batch_size, num_hiddens))
attention_forward(model, enc_states, dec_state).shape
torch.Size([4, 8])
3.3 含注意力机制的解码器
我们直接将编码器在最终时间步的隐藏状态作为解码器的初始隐藏状态。这要求编码器和解码器的循环神经网络使用相同的隐藏层个数和隐藏单元个数。
在解码器的前向计算中,我们先通过刚刚介绍的注意力机制计算得到当前时间步的背景向量。由于解码器的输入来自输出语言的词索引,我们将输入通过词嵌入层得到表征,然后和背景向量在特征维连结。我们将连结后的结果与上一时间步的隐藏状态通过门控循环单元计算出当前时间步的输出与隐藏状态。最后,我们将输出通过全连接层变换为有关各个输出词的预测,形状为(批量大小, 输出词典大小)。
class Decoder(nn.Module):
def __init__(self, vocab_size, embed_size, num_hiddens, num_layers,
attention_size, drop_prob=0):
"""
初始化解码器模块。
参数:
- vocab_size: 输出词汇表大小。
- embed_size: 词嵌入维度。
- num_hiddens: 解码器GRU的隐藏单元数。
- num_layers: GRU的层数。
- attention_size: 注意力机制的特征维度。
- drop_prob: dropout比例。
"""
super(Decoder, self).__init__()
# 创建词嵌入层
self.embedding = nn.Embedding(vocab_size, embed_size)
# 实例化注意力模型,用于计算上下文向量c
self.attention = attention_model(2*num_hiddens, attention_size)
# 定义一个GRU层,输入维度是嵌入维度加上注意力输出的维度
self.rnn = nn.GRU(num_hiddens + embed_size, num_hiddens,
num_layers, dropout=drop_prob)
# 输出层,用于将GRU的输出映射到词汇表大小
self.out = nn.Linear(num_hiddens, vocab_size)
def forward(self, cur_input, state, enc_states):
"""
前向传播方法。
参数:
- cur_input: 当前时间步的输入,形状为(批量大小,)。
- state: 上一时间步的隐藏状态,形状为(num_layers, 批量大小, num_hiddens)。
- enc_states: 编码器的输出状态,用于注意力机制计算。
返回:
- 输出概率分布和更新后的隐藏状态。
"""
# 使用注意力机制计算背景向量
c = attention_forward(self.attention, enc_states, state[-1])
# 将嵌入后的输入和背景向量在特征维连结, (批量大小, num_hiddens+embed_size)
input_and_c = torch.cat((self.embedding(cur_input), c), dim=1)
# 为输入和背景向量的连结增加时间步维,时间步个数为1
output, state = self.rnn(input_and_c.unsqueeze(0), state)
# 移除时间步维,输出形状为(批量大小, 输出词典大小)
output = self.out(output).squeeze(dim=0)
return output, state
def begin_state(self, enc_state):# 直接将编码器最终时间步的隐藏状态作为解码器的初始隐藏状态
"""
初始化解码器的状态。
参数:
- enc_state: 编码器最后一个时间步的隐藏状态。
返回:
- 直接使用编码器的最终状态作为解码器的初始隐藏状态。
"""
return enc_state
4 .训练模型
我们先实现batch_loss
函数计算一个小批量的损失。解码器在最初时间步的输入是特殊字符BOS
。之后,解码器在某时间步的输入为样本输出序列在上一时间步的词,即强制教学。此外,同10.3节(word2vec的实现)中的实现一样,我们在这里也使用掩码变量避免填充项对损失函数计算的影响。
def batch_loss(encoder, decoder, X, Y, loss):
batch_size = X.shape[0]
enc_state = encoder.begin_state()
enc_outputs, enc_state = encoder(X, enc_state)
# 初始化解码器的隐藏状态
dec_state = decoder.begin_state(enc_state)
# 解码器在最初时间步的输入是BOS
dec_input = torch.tensor([out_vocab.stoi[BOS]] * batch_size)
# 我们将使用掩码变量mask来忽略掉标签为填充项PAD的损失, 初始全1
mask, num_not_pad_tokens = torch.ones(batch_size,), 0
l = torch.tensor([0.0])
for y in Y.permute(1,0): # Y shape: (batch, seq_len)
dec_output, dec_state = decoder(dec_input, dec_state, enc_outputs)
l = l + (mask * loss(dec_output, y)).sum()
dec_input = y # 使用强制教学
num_not_pad_tokens += mask.sum().item()
# EOS后面全是PAD. 下面一行保证一旦遇到EOS接下来的循环中mask就一直是0
mask = mask * (y != out_vocab.stoi[EOS]).float()
return l / num_not_pad_tokens
在训练函数中,我们需要同时迭代编码器和解码器的模型参数。
def train(encoder, decoder, dataset, lr, batch_size, num_epochs):
"""
训练编码器和解码器模型。
参数:
- encoder: 编码器模型实例。
- decoder: 解码器模型实例。
- dataset: 训练数据集。
- lr: 学习率。
- batch_size: 批次大小。
- num_epochs: 训练轮数。
"""
# 分别为编码器和解码器定义Adam优化器
enc_optimizer = torch.optim.Adam(encoder.parameters(), lr=lr)
dec_optimizer = torch.optim.Adam(decoder.parameters(), lr=lr)
# 使用交叉熵损失函数,设置reduction为'none'以便后续计算
loss = nn.CrossEntropyLoss(reduction='none')
# 创建数据加载器,用于迭代训练数据,设置shuffle为True以打乱数据
data_iter = Data.DataLoader(dataset, batch_size, shuffle=True)
for epoch in range(num_epochs): # 遍历每个训练轮次
l_sum = 0.0 # 初始化损失总和
for X, Y in data_iter: # 遍历每个批次数据
# 梯度清零,防止梯度累加
enc_optimizer.zero_grad()
dec_optimizer.zero_grad()
# 计算当前批次的损失
l = batch_loss(encoder, decoder, X, Y, loss)
# 反向传播计算梯度
l.backward()
# 更新模型参数
enc_optimizer.step()
dec_optimizer.step()
# 累加损失
l_sum += l.item()
# 每10个轮次打印一次平均损失
if (epoch + 1) % 10 == 0:
print("epoch %d, loss %.3f" % (epoch + 1, l_sum / len(data_iter)))
接下来,创建模型实例并设置超参数。然后,我们就可以训练模型了。
embed_size, num_hiddens, num_layers = 64, 64, 2
attention_size, drop_prob, lr, batch_size, num_epochs = 10, 0.5, 0.01, 2, 50
encoder = Encoder(len(in_vocab), embed_size, num_hiddens, num_layers,
drop_prob)
decoder = Decoder(len(out_vocab), embed_size, num_hiddens, num_layers,
attention_size, drop_prob)
train(encoder, decoder, dataset, lr, batch_size, num_epochs)
epoch 10, loss 0.447
epoch 20, loss 0.156
epoch 30, loss 0.075
epoch 40, loss 0.028
epoch 50, loss 0.008
5. 预测不定长的序列
在10.10节(束搜索)中我们介绍了3种方法来生成解码器在每个时间步的输出。这里我们实现最简单的贪婪搜索。
def translate(encoder, decoder, input_seq, max_seq_len):
"""
使用已训练的编码器和解码器模型进行翻译。
参数:
- encoder: 编码器模型实例。
- decoder: 解码器模型实例。
- input_seq: 输入的源语言句子,字符串类型。
- max_seq_len: 输出序列允许的最大长度。
返回:
- output_tokens: 翻译后的目标语言句子的单词列表。
"""
# 将输入序列按空格分割成单词列表,并在末尾添加EOS和PAD至指定长度
in_tokens = input_seq.split(' ')
in_tokens += [EOS] + [PAD] * (max_seq_len - len(in_tokens) - 1)
# 将输入序列的单词转换为词索引,并构建为形状为(1, seq_len)的张量
enc_input = torch.tensor([[in_vocab.stoi[tk] for tk in in_tokens]]) # batch=1
# 获取编码器的初始状态
enc_state = encoder.begin_state()
# 使用编码器处理输入序列,获取编码输出和最终状态
enc_output, enc_state = encoder(enc_input, enc_state)
# 准备解码器的输入,起始为BOS标记的索引
dec_input = torch.tensor([out_vocab.stoi[BOS]]) # 假设out_vocab已定义
# 使用编码器的最终状态作为解码器的初始状态)
dec_state = decoder.begin_state(enc_state)
# 初始化输出序列的单词列表
output_tokens = []
# 迭代到达到最大序列长度或遇到EOS为止
for _ in range(max_seq_len):
# 通过解码器进行一步解码
dec_output, dec_state = decoder(dec_input, dec_state, enc_output)
# 获取预测概率最高的词索引,并转换为实际单词
pred = dec_output.argmax(dim=1)
pred_token = out_vocab.itos[int(pred.item())]
# 如果预测到EOS,停止生成;否则,将预测词加入输出序列并作为下一次解码的输入
if pred_token == EOS: # 当任一时间步搜索出EOS时,输出序列即完成
break
else:
output_tokens.append(pred_token)
dec_input = pred
# 返回翻译后的单词列表
return output_tokens
简单测试一下模型。输入法语句子“ils regardent.”,翻译后的英语句子应该是“they are watching.”。
input_seq = 'ils regardent .'
translate(encoder, decoder, input_seq, max_seq_len)
['they', 'are', 'watching', '.']
6. 评价翻译结果
评价机器翻译结果通常使用BLEU(Bilingual Evaluation Understudy)[1]。对于模型预测序列中任意的子序列,BLEU考察这个子序列是否出现在标签序列中。
6.1提出背景
在机器翻译任务中,将同一个句子翻译成另外一种语言时,往往会有多个都是正确的翻译结果。因此,在构建机器翻译的评价指标时需要注意如何在有多个正确答案的情况下评价翻译结果的好坏。一个常用的传统评价指标就是BLEU分数。当机器翻译的结果与任意一个参考结果相似的话,那么就会有一个较高的BLEU分数。
6.2英文全称和提出时间
BLEU分数的英文全称是 Bilingual Evaluation Understudy(双语评估替补),是在2002年的一篇论文中提出的。
6.3基本思想
机器翻译中的准确率指标:顺序取出机器翻译中的每一个单词,逐一判定这个单词是否在每一个参考翻译结果中出现,如果出现,则对应该参考翻译结果的分数增加一分。最后,在所有参考翻译结果的分数的最大值并除以机器翻译结果的总长度,作为机器翻译的准确率。准确率是一个0-1之间的值,越大表示机器翻译的效果越好。但是,准确率往往不能很好地反映机器翻译模型的性能。(例如对于参考翻译The cat is on the mat的翻译结果为the the the the the the the,由于翻译结果中的每一个单词都出现在了参考翻译结果中,因此其机器翻译的准确率为1.0,这显然是荒谬的)
改进后的精确度:每一个单词的分数最多是其在每一个参考翻译结果中的出现次数。但是,改进后的精确度也仅仅取决于独立的单词,而忽略了句子层面的因素,也就是多个相邻单词构成的词组。
n-gram模型:其实查看词组的思想和改进后的准确率思想相同,只是查看的对象从单个词语变为了连续的n个单词构成的词组。往往我们需要考虑n为多种值的情况,例如1 2 3 4;对n为不同值时的结果进行加权平均(大部分时候简单的算术平均即可)。
联合BLEU分数:将多个n-gram模型的计算平均值作为指数,求自然底数e的幂函数,即可获得联合BLEU分数。
6.4举例
具体来说,设词数为 n n n的子序列的精度为 p n p_n pn。它是预测序列与标签序列匹配词数为 n n n的子序列的数量与预测序列中词数为 n n n的子序列的数量之比。举个例子,假设标签序列为 A A A、 B B B、 C C C、 D D D、 E E E、 F F F,预测序列为 A A A、 B B B、 B B B、 C C C、 D D D,那么 p 1 = 4 / 5 , p 2 = 3 / 4 , p 3 = 1 / 3 , p 4 = 0 p_1 = 4/5, p_2 = 3/4, p_3 = 1/3, p_4 = 0 p1=4/5,p2=3/4,p3=1/3,p4=0。设 l e n label len_{\text{label}} lenlabel和 l e n pred len_{\text{pred}} lenpred分别为标签序列和预测序列的词数,那么,BLEU的定义为
exp ( min ( 0 , 1 − l e n label l e n pred ) ) ∏ n = 1 k p n 1 / 2 n , \exp\left(\min\left(0, 1 - \frac{len_{\text{label}}}{len_{\text{pred}}}\right)\right) \prod_{n=1}^k p_n^{1/2^n}, exp(min(0,1−lenpredlenlabel))n=1∏kpn1/2n,
其中 k k k是我们希望匹配的子序列的最大词数。可以看到当预测序列和标签序列完全一致时,BLEU为1。
因为匹配较长子序列比匹配较短子序列更难,BLEU对匹配较长子序列的精度赋予了更大权重。例如,当 p n p_n pn固定在0.5时,随着 n n n的增大, 0. 5 1 / 2 ≈ 0.7 , 0. 5 1 / 4 ≈ 0.84 , 0. 5 1 / 8 ≈ 0.92 , 0. 5 1 / 16 ≈ 0.96 0.5^{1/2} \approx 0.7, 0.5^{1/4} \approx 0.84, 0.5^{1/8} \approx 0.92, 0.5^{1/16} \approx 0.96 0.51/2≈0.7,0.51/4≈0.84,0.51/8≈0.92,0.51/16≈0.96。另外,模型预测较短序列往往会得到较高 p n p_n pn值。因此,上式中连乘项前面的系数是为了惩罚较短的输出而设的。举个例子,当 k = 2 k=2 k=2时,假设标签序列为 A A A、 B B B、 C C C、 D D D、 E E E、 F F F,而预测序列为 A A A、 B B B。虽然 p 1 = p 2 = 1 p_1 = p_2 = 1 p1=p2=1,但惩罚系数 exp ( 1 − 6 / 2 ) ≈ 0.14 \exp(1-6/2) \approx 0.14 exp(1−6/2)≈0.14,因此BLEU也接近0.14。
6.5实现
下面来实现BLEU的计算。
def bleu(pred_tokens, label_tokens, k):
"""
计算BLEU分数,用于评估机器翻译的输出与参考答案的相似度。
参数:
- pred_tokens: 预测的句子,以单词列表形式给出。
- label_tokens: 参考答案的句子,同样以单词列表形式给出。
- k: 考虑n-gram的最高阶数,通常取值为1至4。
返回:
- score: 计算得到的BLEU分数。
"""
# 计算预测序列和标签序列的长度
len_pred, len_label = len(pred_tokens), len(label_tokens)
# 计算长度惩罚因子,避免过短的预测被给予过高评价
# 初始化BLEU分数为长度惩罚因子
score = math.exp(min(0, 1 - len_label / len_pred))
for n in range(1, k + 1):
# 初始化计数器,记录预测序列中n-grams在参考序列中出现的次数
num_matches, label_subs = 0, collections.defaultdict(int)
# 构建参考序列的所有n-grams及其频率字典
for i in range(len_label - n + 1):
label_subs[''.join(label_tokens[i: i + n])] += 1
# 检查预测序列中的每个n-gram是否出现在参考序列中
for i in range(len_pred - n + 1):
if label_subs[''.join(pred_tokens[i: i + n])] > 0:
num_matches += 1
label_subs[''.join(pred_tokens[i: i + n])] -= 1# 防止重复计数
# 计算n-gram精度分母(预测序列的n-gram数量),考虑截断以匹配最短序列
# 更新BLEU分数,乘以当前n-gram的精度的几何平均值的1/2次方
score *= math.pow(num_matches / (len_pred - n + 1), math.pow(0.5, n))
# 返回最终的BLEU分数
return score
接下来,定义一个辅助打印函数。
def score(input_seq, label_seq, k):
pred_tokens = translate(encoder, decoder, input_seq, max_seq_len)
label_tokens = label_seq.split(' ')
print('bleu %.3f, predict: %s' % (bleu(pred_tokens, label_tokens, k),
' '.join(pred_tokens)))
预测正确则分数为1。
score('ils regardent .', 'they are watching .', k=2)
bleu 1.000, predict: they are watching .
score('ils sont canadienne .', 'they are canadian .', k=2)
bleu 0.658, predict: they are russian .
7.机器翻译的应用
机器翻译在跨语言交流、文档翻译和信息检索等方面都有广泛应用。例如,在国际会议上,机器翻译可以帮助参会者进行跨语言交流;在科技企业中,机器翻译可以帮助员工阅读和理解外文文献;在搜索引擎中,机器翻译可以帮助用户搜索和理解跨语言内容。
8.机器翻译的挑战和未来
未来的机器翻译技术趋势和挑战包括:
①多模态翻译:将图像、音频和文本等多种类型的信息结合,实现多模态的翻译。
②跨语言翻译:实现不同语言之间的翻译,例如中文到日文、日文到韩文等。
③零样本翻译:通过无需大量句子对的数据,实现高质量的翻译。
④语义翻译:将源语言句子的语义直接翻译成目标语言句子,而不仅仅是词汇翻译。
⑤实时翻译:实现实时的翻译,例如在会议中实时翻译讲话。
⑥个性化翻译:根据用户的需求和偏好,提供更符合用户需求的翻译。
总之,机器翻译是一种重要的自然语言处理技术,在跨语言交流、文档翻译和信息检索等方面都有广泛应用。随着人工智能技术的不断发展,机器翻译的质量和效率将会得到进一步提高。
9.小结
- 可以将编码器—解码器和注意力机制应用于机器翻译中。
- BLEU可以用来评价翻译结果。
10.练习
- 如果编码器和解码器的隐藏单元个数不同或层数不同,我们该如何改进解码器的隐藏状态初始化方法?
初始化解码器的隐藏状态需要进行适当的调整,以确保信息从编码器到解码器的平滑传递。改进解码器隐藏状态初始化方法的策略:
线性变换(Linear Transformation):
如果编码器和解码器的隐藏单元数量不同,最直接的方法是使用一个线性变换层(全连接层),将编码器的最终隐藏状态映射到与解码器相同维度的空间。这样可以保持编码器捕获到的信息,并适应解码器所需的表示形式。
双线性映射(Bilinear Transformation):
对于更复杂的转换需求,可以使用双线性映射,这通常用于捕获两个不同空间之间的交互信息,但计算成本较高。
多层感知机(MLP, Multilayer Perceptron):
使用多层感知机进行非线性变换,可以进一步增强从编码器到解码器信息传递的能力,尤其是在两者结构差异较大的情况下。
加权求和(Weighted Sum):
对于编码器是多层RNN的情况,可以对各层的隐藏状态进行加权求和,然后通过线性变换调整到解码器的维度。权重可以通过训练得到,以优化初始化效果。
学习初始化参数:
引入可学习的参数来直接初始化解码器的隐藏状态,这些参数在训练过程中与其他参数一起学习,以优化整个模型的性能。
关键在于设计一种方式,既能有效地将编码器的高层语义信息传递给解码器,又能适应两者在结构上的差异,从而促进解码过程的高效和准确。
- 在训练中,将强制教学替换为使用解码器在上一时间步的输出作为解码器在当前时间步的输入。结果有什么变化吗?
收敛速度:使用解码器自身的输出作为输入(也称作“自回归(Autoregressive)”训练)通常会导致训练收敛速度变慢。这是因为模型必须依赖于它自己可能不准确的预测来逐步生成序列,这增加了训练过程中的误差累积。
序列生成质量:虽然自回归训练初期可能因为误差累积导致生成序列质量下降,但长期来看,这种方法有助于模型学会处理自身预测误差,从而在测试阶段生成更加流畅、连贯的序列。这是因为模型学会了在面对自己产生的小错误时如何自我修正,提高了泛化能力。
暴露偏差:强制教学策略下的训练和测试之间存在“曝光偏差”,即训练时模型总是看到正确的下一个单词,而在测试或实际应用中却需要依赖自己的预测。采用自回归训练可以在一定程度上缓解这一问题,因为模型在训练时就适应了基于自身预测进行下一步生成的情境。
稳定性:自回归训练可能降低训练过程的稳定性,尤其是在早期训练阶段,因为模型的预测错误会被反馈回输入,可能导致训练过程中的振荡现象。因此,可能需要更细致的调参和正则化手段来维持训练稳定。
- 试着使用更大的翻译数据集来训练模型,例如 WMT [2] 和 Tatoeba Project [3]。
参考文献
[1] Papineni, K., Roukos, S., Ward, T., & Zhu, W. J. (2002, July). BLEU: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting on association for computational linguistics (pp. 311-318). Association for Computational Linguistics.
[2] WMT. http://www.statmt.org/wmt14/translation-task.html
[3] Tatoeba Project. http://www.manythings.org/anki/
更多推荐
所有评论(0)