写点什么

自然语言处理

0 人感兴趣 · 122 次引用

  • 最新
  • 推荐
https://static001.geekbang.org/infoq/46/46e92fd17443d5462073b240a93e2333.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

全国大数据与计算智能挑战赛:面向低资源的命名实体识别基线方案,排名 13/64

全国大数据与计算智能挑战赛:面向低资源的命名实体识别baseline,排名13/64。第一名:0.68962791,基线:0.67902593 ,感兴趣小伙伴可以刷刷榜。 国防科技大学系统工程学院(大数据与决策实验室)

https://static001.geekbang.org/infoq/ef/ef22d6fa64cd85f515d3620961ba0c34.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

人工智能领域:面试常见问题超全(深度学习基础、卷积模型、对抗神经网络、预训练模型、计算机视觉、自然语言处理、推荐系统、模型压缩、强化学习、元学习)

人工智能领域:面试常见问题超全(深度学习基础、卷积模型、对抗神经网络、预训练模型、计算机视觉、自然语言处理、推荐系统、模型压缩、强化学习、元学习)

https://static001.geekbang.org/infoq/ef/ef22d6fa64cd85f515d3620961ba0c34.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

深度学习应用篇 - 自然语言处理 [10]:N-Gram、SimCSE 介绍,更多技术:数据增强、智能标注、多分类算法、文本信息抽取、多模态信息抽取、模型压缩算法等

N-Gram是一种基于统计语言模型的算法。它的基本思想是将文本里面的内容按照字节进行大小为N的滑动窗口操作,形成了长度是N的字节片段序列。每一个字节片段称为gram,对所有gram的出现频度进行统计,并且按照事先设定好的阈值进行过滤,形成关键gram列表,也就

https://static001.geekbang.org/infoq/ef/ef22d6fa64cd85f515d3620961ba0c34.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

深度学习应用篇 - 自然语言处理 - 命名实体识别 [9]:BiLSTM+CRF 实现命名实体识别、实体、关系、属性抽取实战项目合集(含智能标注)

命名实体识别(Named Entity Recoginition, NER)旨在将一串文本中的实体识别出来,并标注出它所指代的类型,比如人名、地名等等。具体地,根据MUC会议规定,命名实体识别任务包括三个子任务:

https://static001.geekbang.org/infoq/03/039011db0f02a3ce16d76871de03e7ca.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

大语言模型的创意能力到底几何?探索从 GPT-2 到 GPT-4 的演进

编者按:大语言模型可以提供许多创意性内容,如写诗、写小说等。那么到底应该如何评估大语言模型生成的创意性内容的水平呢? 本文探讨了GPT-2到GPT-4的创造性,并分析了这些模型在不同创造性测试中的表现。作者使用了三种测试来衡量模型的创造性:Remote A

https://static001.geekbang.org/infoq/4b/4bb2593ee6012281286e41feadf12900.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

军事领域关系抽取:UIE Slim 最新升级版含数据标注、serving 部署、模型蒸馏等教学,助力工业应用场景快速落地

本项目为UIE框架升级版本实体关系抽取,详细讲解了数据标注,以及医疗领域NER微调,同时完成基于SimpleServing的快速服务化部署,并考虑了在一些工业应用场景中对性能的要求较高,若不能有效压缩则无法实际应用。因此,将UIE模型的知识迁移到封闭域信息抽取小

https://static001.geekbang.org/infoq/ef/ef22d6fa64cd85f515d3620961ba0c34.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

深度学习进阶篇 [7]:Transformer 模型长输入序列、广义注意力、FAVOR+ 快速注意力、蛋白质序列建模实操。

基于Transformer模型在众多领域已取得卓越成果,包括自然语言、图像甚至是音乐。然而,Transformer架构一直以来为人所诟病的是其注意力模块的低效,即长度二次依赖限制问题。随着输入序列长度的增加,注意力模块的问题也越来越突出,算力和内存消耗是输入序列

https://static001.geekbang.org/infoq/0d/0df3f890d870e657f0dddee3905109cb.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

医疗领域实体抽取:UIE Slim 最新升级版含数据标注、serving 部署、模型蒸馏等教学,助力工业应用场景快速落地

本项目为UIE框架升级版本实体关系抽取,详细讲解了数据标注,以及医疗领域NER微调,同时完成基于SimpleServing的快速服务化部署,并考虑了在一些工业应用场景中对性能的要求较高,若不能有效压缩则无法实际应用。因此,将UIE模型的知识迁移到封闭域信息抽取小

Generative AI 新世界 | 走进文生图(Text-to-Image)领域

在之前的四篇 “Generative AI 新世界” 中,我们带领大家一起探索了生成式 AI(Generative AI),以及大型语言模型(LLMs)的全新世界概览。并在文本生成(Text Generation)领域做了一些概述、相关论文解读、以及在亚马逊云科技的落地实践和动手实验。

https://static001.geekbang.org/infoq/ef/ef22d6fa64cd85f515d3620961ba0c34.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

深度学习进阶篇 - 国内预训练模型 [6]:ERNIE-Doc、THU-ERNIE、K-Encoder 融合文本信息和 KG 知识;原理和模型结构详解。

经典的Transformer在处理数据时,会将文本数据按照固定长度进行截断,这个看起来比较”武断”的操作会造成上下文碎片化以及无法建模更长的序列依赖关系。基于此项考虑,ERNIE-Doc提出了一种文档层级的预训练语言模型方法:ERNIE-Doc在训练某一个Segment时,允

https://static001.geekbang.org/infoq/ef/ef22d6fa64cd85f515d3620961ba0c34.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

深度学习进阶篇 - 国内预训练模型 [5]:ERINE、ERNIE 3.0、ERNIE- 的设计思路、模型结构、应用场景等详解

ERINE是百度发布一个预训练模型,它通过引入三种级别的Knowledge Masking帮助模型学习语言知识,在多项任务上超越了BERT。在模型结构方面,它采用了Transformer的Encoder部分作为模型主干进行训练,如 图1 (图片来自网络)所示。

https://static001.geekbang.org/infoq/ef/ef22d6fa64cd85f515d3620961ba0c34.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

深度学习进阶篇 - 预训练模型 [3]:XLNet、BERT、GPT,ELMO 的区别优缺点,模型框架、一些 Trick、Transformer Encoder 等原理详细讲解

自回归模型(Autoregressive Model, AR),通过估计一串文本序列的生成概率分布进行建模。一般而言,AR模型通过要么从前到后计算文本序列概率,要么从后向前计算文本序列概率,但不论哪种方式的建模,都是单向的。即在预测一个单词的时候无法同时看到该单词位

https://static001.geekbang.org/infoq/2f/2fdab88d5294a367761cac0e7335263f.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

关于大型语言模型的争论和局限

用户头像
OneFlow
05-22

以色列巴伊兰大学教授Yoav Goldberg分享了他对大型语言模型的能力和局限性的看法,以及在语言理解方面的立场。

https://static001.geekbang.org/infoq/dd/dd071247ef5ac6a0cdff34766f62eb5d.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

AIGC 背后的技术分析 | 知识图谱

用户头像
TiAmo
05-16

简介: 知识图谱是知识工程的一个分支,以知识工程中语义网络作为理论基础,并且结合了机器学习、自然语言处理以及知识表示和推理的最新成果,在大数据的推动下受到了业界和学术界的广泛关注。知识图谱对于解决大数据中文本分析和图像理解问题发挥了重要作用

https://static001.geekbang.org/infoq/b1/b1b7224cec4d83db108234881a9cf9a9.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

Prompt 工程师指南 [高阶篇]:对抗性 Prompting、主动 prompt、ReAct、GraphPrompts、Multimodal CoT Prompting 等

对抗性Prompting是Prompting工程中的一个重要主题,因为它有助于理解与 LLMs 相关的风险和安全问题。这也是一门重要的学科,用于识别这些风险并设计解决问题的技术。

https://static001.geekbang.org/infoq/b1/b1b7224cec4d83db108234881a9cf9a9.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

Prompt 工程师指南 [从基础到进阶篇]:用于开发和优化提示,以有效地使用语言模型(LMs)进行各种应用和研究主题

Prompt工程是一种相对较新的学科,用于开发和优化提示,以有效地使用语言模型(LMs)进行各种应用和研究主题。Prompt工程技能有助于更好地理解大型语言模型(LLMs)的能力和局限性。研究人员使用Prompt工程来改善LLMs在各种常见和复杂任务上的能力,

https://static001.geekbang.org/infoq/b1/b1b7224cec4d83db108234881a9cf9a9.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

Prompt learning 教学 [技巧篇]:通过增加示例、引导词、特殊符号指令等方式让 chatgpt 输出更好的答案

在问答场景里,为了让 AI 回答更加准确,一般会在问题里加条件。比如让 AI 推荐一部电影给你 Recommend a movie to me 。但这个 prompt 太空泛了,AI 无法直接回答,接着它会问你想要什么类型的电影,但这样你就需要跟 AI 聊很多轮,效率比较低。

https://static001.geekbang.org/infoq/0d/0df3f890d870e657f0dddee3905109cb.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

零样本文本分类应用:基于 UTC 的医疗意图多分类,打通数据标注 - 模型训练 - 模型调优 - 预测部署全流程。

本项目提供基于通用文本分类 UTC(Universal Text Classification) 模型微调的文本分类端到端应用方案,打通数据标注-模型训练-模型调优-预测部署全流程,可快速实现文本分类产品落地。

https://static001.geekbang.org/infoq/b1/b1b7224cec4d83db108234881a9cf9a9.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

DeepSpeed Chat: 一键式 RLHF 训练,让你的类 ChatGPT 千亿大模型提速省钱 15 倍

近日来,ChatGPT及类似模型引发了人工智能(AI)领域的一场风潮。 这场风潮对数字世界产生了革命性影响。ChatGPT类模型具有惊人的泛用性,能够执行归纳、编程、翻译等任务,其结果与人类专家相当甚至更优。为了使ChatGPT等模型的训练和部署更轻松,AI 开源社

NLP 专栏简介:数据增强、智能标注、意图识别算法|多分类算法、文本信息抽取、多模态信息抽取、可解释性分析、性能调优、模型压缩算法等

NLP专栏简介:数据增强、智能标注、意图识别算法|多分类算法、文本信息抽取、多模态信息抽取、可解释性分析、性能调优、模型压缩算法等

https://static001.geekbang.org/infoq/24/248112386739272f65c92e2b6e402137.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

AI 自然语言处理的过去和未来

本文简单地介绍了AI在语言上的研究和应用,即自然语言处理这一分支,希望能有浅显的科普作用。

https://static001.geekbang.org/infoq/df/df2bec3d1e506993516ba58bea993d7b.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

大语言模型 (LLMs) 和新兴机器学习技术栈

编者按:过去,NLP开发人员依赖于文本分类、命名实体识别和命名实体消歧等技术栈来优化NLP任务。然而,随着大语言模型(LLM)的快速发展,新的技术栈开始出现,以支持和加速这些大型语言模型的实现和应用。

3 分钟快速了解 GPT-4

编者按:3分钟快速了解GPT-4,高效获取目前关于GPT-4的重点信息。话不多说,Enjoy!

https://static001.geekbang.org/infoq/6e/6ee41f4a8a9db740fe64603d3b635e3b.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

LLaMA 快速上手指南

近期,Meta发布了人工智能大语言模型LLaMA,包含70亿、130亿、330亿和650亿这4种参数规模的模型。其中,最小的LLaMA 7B也经过了超1万亿个tokens的训练。

自然语言处理_自然语言处理技术文章_InfoQ写作社区