写点什么

BERT

0 人感兴趣 · 7 次引用

  • 最新
  • 推荐
https://static001.geekbang.org/infoq/b3/b3f0c0069f3b7e3b06c7cb5a69e3f779.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

【NLP 系列】Bert 词向量的空间分布

我们知道Bert 预训练模型针对分词、ner、文本分类等下游任务取得了很好的效果,但在语义相似度任务上,表现相较于 Word2Vec、Glove 等并没有明显的提升。

https://static001.geekbang.org/infoq/cf/cfa8a99e91ce6244e4ff9ded0f6762c5.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

ChatGPT 最好的替代品

前两天我们邀请了微软工程师为我们揭秘 ChatGPT,直播期间有个读者问到:有了 ChatGPT,BERT 未来还有发展前途吗?我想起来最近读过的一篇博客“最好的 ChatGPT 替代品”。

https://static001.geekbang.org/infoq/cf/cfa8a99e91ce6244e4ff9ded0f6762c5.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

ChatGPT 最好的替代品

前两天我们邀请了微软工程师为我们揭秘 ChatGPT,直播期间有个读者问到:有了 ChatGPT,BERT 未来还有发展前途吗?我想起来最近读过的一篇博客“最好的 ChatGPT 替代品”。

https://static001.geekbang.org/infoq/5d/5d9fb0f1c02ba89d0711abb6246ca176.webp?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

为 Bert 注入知识的力量 Baidu-ERNIE & THU-ERNIE & KBert

我们来聊聊如何在预训练模型中融入知识。Tutorial分别针对NLU和NLG方向对一些经典方案进行了分类汇总,感兴趣的可以去细看下。这一章我们只针对NLU领域3个基于实体链接的知识增强方案Baidu-ERNIE,THU-ERNIE和K-Bert来聊下具体实现~

保姆级带你深入阅读 NAS-BERT

​​摘要:本文用权重共享的one-shot的NAS方式对BERT做NAS搜索。

跟我读论文丨 ACL2021 NER BERT 化隐马尔可夫模型用于多源弱监督命名实体识别

摘要:本文是对ACL2021 NER BERT化隐马尔可夫模型用于多源弱监督命名实体识别这一论文工作进行初步解读。

https://static001.geekbang.org/infoq/e9/e961996659fdd03b63c4b12a59bf1e6d.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

爱奇艺多语言台词机器翻译技术实践

本文的第一部分是爱奇艺多语言台词机器翻译实践开展的相关背景,第二部分是爱奇艺针对多语言台词机器翻译模型的一些探索和优化,最后是该模型在爱奇艺的落地与应用情况。

BERT_BERT技术文章_InfoQ写作社区