机器翻译

机器翻译解决的是输入是一串在某种语言中的一句话,输出是目标语言相对应的话的问题,如将德语中的一段话翻译成合适的英语。

神经机器翻译

Neural Machine Translation(一下简称NMT)模型中,通常的配置是encoder-decoder结构,即encoder读取输入的句子将其转换为定长的一个向量,然后decoder再将这个向量翻译成对应的目标语言的文字。

通常encoder及decoder均采用RNN结构如LSTM或GRU等。

attention

详见:Attention和self Attention的联系和区别

详见:Transformer

多头注意力机制

就是多个attention的叠加。在Transformer中也有提到。

Transformer

详见:Transformer


0 条评论

发表回复

Avatar placeholder

您的电子邮箱地址不会被公开。 必填项已用 * 标注