transformers的TFBertForNextSentencePrediction

TFBertForNextSentencePrediction

下一个句子预测。

首先查看源码

源码

init中就是bert+nsp,这也印证了之前提到过的,一定有一个bert+nsp的任务:

call:

这里没什么讲的,看一下代码:

代码

首先是token,在这里,我们更改了token的获取方式(encoder_plus一样有效,只不过是传参变了)

采用了<开始标记>+句子1+<结束标记>+句子2+<结束标记>的格式,这也是Bert在预训练阶段next sentence prediction任务的格式。

然后nsp会返回两个参数,这两个数分别代表不是下一句,是下一句(0,1)的概率,只不过还要进行一个softmax才是概率,一般来说,只要前一个数比后一个数小,就证明是下一句。

完整源码


0 条评论

发表回复

Avatar placeholder

您的电子邮箱地址不会被公开。 必填项已用 * 标注