nlp
0 人感兴趣 · 99 次引用
- 最新
- 推荐
复旦邱锡鹏教授:语言模型即服务的五类应用手段,你了解多少
2022年10 月15 日“小红书 REDtech 青年技术沙龙”活动中,我们非常荣幸地邀请到了上海复旦大学计算机学院邱锡鹏教授,邱教授分享了《语言模型即服务与黑箱优化》报告,详细讲解了语言模型越来越大的背景下对于新应用模式的探索。
【NLP 系列】Bert 词向量的空间分布
我们知道Bert 预训练模型针对分词、ner、文本分类等下游任务取得了很好的效果,但在语义相似度任务上,表现相较于 Word2Vec、Glove 等并没有明显的提升。
NLP 双数组字典树 (double array trie) 基于 darts-java 改进,增加词性存储。
在NLP世界中,双数组字典树是应用于分词场景中的一种解决方案,本文基于darts-java进行了改进,在返回结果中增加类似词性的返回值,扩充了字典的属性。
通用信息抽取技术 UIE 产业案例解析,Prompt 范式落地经验分享!
UIE系列模型已发布UIE、UIE-X、UIE-senta三大模型,凭借其强大的零样本与小样本能力、多任务统一建模能力,成为业界在信息抽取、情感分析等任务上的首选方案。
推荐系统 [一]:超详细知识介绍,一份完整的入门指南,解答推荐系统相关算法流程、衡量指标和应用,以及如何使用 jieba 分词库进行相似推荐
如果说互联网的目标就是连接一切,那么推荐系统的作用就是建立更加有效率的连接,推荐系统可以更有效率的连接用户与内容和服务,节约了大量的时间和成本。
Prompt Learning: ChatGPT 也在用的 NLP 新范式
编者按:自GPT-3以来,大语言模型进入了新的训练范式,即“预训练模型+Promp learning”。在这一新的范式下,大语言模型呈现出惊人的zero-shot和few-shot能力,使用较少的训练数据来适应新的任务形式。最近火爆出圈的ChatGPT是利用这一方式。
10w+ 训练标签?成本太高!PaddleNLP 情感分析赋能消费“回暖”
为了帮助被投企业提升评价数据的处理效率,黑蚁投后数字化团队基于PaddleNLP情感分析技术,开发了用户评论洞察系统,帮助品牌高效深入了解用户反馈,自动抽取出高价值信息,实现量化统计分析,从而降低经营成本,优化产品和服务,提升市场竞争力。
【如何提高 IT 运维效率】深度解读京东云基于 NLP 的运维日志异常检测 AIOps 落地实践
日志在 IT 行业中被广泛使用,日志的异常检测对于识别系统的运行状态至关重要。解决这一问题的传统方法需要复杂的基于规则的有监督方法和大量的人工时间成本。我们提出了一种基于自然语言处理技术运维日志异常检测模型
AI-001- 火爆全网的聊天机器人 ChatGPT 能做什么
11月30日,OpenAI推出了一个名为ChatGPT的AI聊天机器人,可以供公众免费测试,短短几天就火爆全网。
4.NLP 领域任务如何选择合适预训练模型以及选择合适的方案【规范建议】【ERNIE 模型首选】
信息抽取:从给定文本中抽取重要的信息,比如时间、地点、人物、事件、原因、结果、数字、日期、货币、专有名词等等。通俗说来,就是要了解谁在什么时候、什么原因、对谁、做了什么事、有什么结果。
澜舟科技 AIGC 再进一步,推出澜舟论文助写 LPA,用 AI 帮助写好英文论文
澜舟基于其自研的强大的孟子轻量化模型技术推出帮助中国学生、老师、研究者撰写专业英文论文的神器:澜舟论文助写
主动学习(Active Learning)简介综述汇总以及主流技术方案
在机器学习(Machine learning)领域,监督学习(Supervised learning)、非监督学习(Unsupervised learning)以及半监督学习(Semi-supervised learning)是三类研究比较多,应用比较广的学习技术,wiki上对这三种学习的简单描述如下:
知识蒸馏相关技术【模型蒸馏、数据蒸馏】以 ERNIE-Tiny 为例
基于ERNIE预训练模型效果上达到业界领先,但是由于模型比较大,预测性能可能无法满足上线需求。直接使用ERNIE-Tiny系列轻量模型fine-tune,效果可能不够理想。如果采用数据蒸馏策略,又需要提供海量未标注数据,可能并不具备客观条件。因此,本专题采用主流的
小样本学习在文心 ERNIE3.0 多分类任务应用 -- 提示学习
项目链接:https://aistudio.baidu.com/aistudio/projectdetail/4438610?contributionType=1
快递单信息抽取【二】基于 ERNIE1.0 至 ErnieGram + CRF 预训练模型
快递单信息抽取【二】基于ERNIE1.0至ErnieGram + CRF预训练模型