小象AI技术分享系列课程
来源: 哔哩哔哩      时间:2023-04-18 10:54:29


(资料图)

bert模型

BERT的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了Masked LM和Next Sentence Prediction两种方法分别捕捉词语和句子级别的representation。

标签:

上一篇:

下一篇:

广告

X 关闭

广告

X 关闭