白海科技
0 人感兴趣 · 37 次引用
- 最新
- 推荐

生成式 AI 的下一阶段将走向何方?
编者按: 最近,随着 ChatGPT 的出现,很多人认为人工智能领域进入了大探索时代。然而这仅仅只是生成式 AI 发展的第一幕。

如何优化 RAG 系统的性能表现?10 条实用策略
编者按: 检索增强生成(RAG)系统最近备受关注,ChatGPT的火爆更让这类系统成为广泛讨论的热点。我们今天为大家带来的这篇文章,作者Matt Ambrogi的核心观点是:构建一个基本可用的RAG系统非常简单,但要使其达到实际生产可用的程度则异常困难,需要我们投入大

AI 分布式训练:DDP (数据并行)技术详解与实战
编者按: 如今传统的单机单卡模式已经无法满足超大模型进行训练的要求,如何更好地、更轻松地利用多个 GPU 资源进行模型训练成为了人工智能领域的热门话题。

从信息量角度看人类智能与机器智能
编者按: 近日,美国科技巨头 Google 宣布推出其认为规模最大、功能最强大的人工智能模型 Gemini,这种技术能够处理视频、音频和文本等不同内容形式的信息。那么机器学习模型与人类智能相比,谁的学习效率高? 许多人认为,人类大脑在学习效率上要远远优于我

Q-learning 入门:以 Frozen Lake 游戏环境为例
编者按:近年来,强化学习在游戏和机器人控制等领域取得了较大的进步。如何设计一种强化学习算法,使机器人或 Agent 能够在复杂环境中学习最优策略(Optimal Policy )并作出最优的决策,这成为一个重要课题。

语言模型文本处理基石:Tokenizer 简明概述
编者按:近年来,人工智能技术飞速发展,尤其是大型语言模型的问世,让 AI 写作、聊天等能力有了质的飞跃。如何更好地理解和利用这些生成式 AI,成为许多开发者和用户关心的问题。

企业级应用场景中,LLM 的数据特性剖析及处理对策
编者按:今年以来,大语言模型(LLM)在消费者(2C)市场崭露头角,同时也吸引了大量企业的关注。但是直接将这些面向消费者的模型引入企业环境,可能会面临一些风险。今天我们为大家带来的这篇文章,作者认为企业环境与消费者环境在数据方面存在着重要的差异,

用好语言模型:temperature、top-p 等核心参数解析
我们如何才能更好地控制大模型的输出? 本文将介绍几个关键参数,帮助读者更好地理解和运用 temperature、top-p、top-k、frequency penalty 和 presence penalty 等常见参数,以优化语言模型的生成效果。

Embedding 技术与应用 (4): Embedding 应用工程探析
编者按:随着互联网内容数量的急剧增长,个性化推荐已成为各大科技公司的核心竞争力之一。那么,如何构建一个可靠、高效的基于嵌入技术的推荐系统,使其能够在实际生产环境中正常运行呢?这是所有从业者都关心的问题。

轻松理解 Transformers (4) :Decoder 和 Output 部分
编者按:Transformers凭借其卓越的性能,已经成为自然语言处理领域的代表性模型架构。但是Transformers的内在机制却比较复杂,对许多读者来说可能还存在一定的难度。本系列对 Transformer各组件进行逐一剖析,我们可以更直观地理解这个模型架构的整体运行逻辑

Embedding 技术与应用 (3):Embeddings 技术的实践应用
编者按: IDP开启Embedding系列专栏,力图详细介绍Embedding的发展史、主要技术和应用。

轻松理解 Transformers (3): Feed-Forward Layer 部分
编者按:随着人工智能技术的不断发展Transformer架构已经成为了当今最为热门的话题之一。前馈层作为Transformer架构中的重要组成部分,其作用和特点备受关注。本文通过浅显易懂的语言和生活中的例子,帮助读者逐步理解Transformers中的前馈层。

轻松理解 Transformers(2):Attention 部分
编者按:随着人工智能技术的不断发展,Transformers 模型架构已成为自然语言处理领域的重要基石。然而,许多人对其内部工作机制仍然感到困惑。本文通过浅显易懂的语言和生活中的例子,帮助读者逐步理解 Transformers 中最核心的 Attention 机制。

轻松理解 Transformers(1):Input 部分
编者按:Transformers 是人工智能领域近年来最引人瞩目的技术之一,它为语言生成模型的发展做出了巨大的贡献。随着大语言模型(LLM)的兴起,公众对其背后的技术原理也越来越感兴趣。但是由于Transformers本身具有一定的复杂性,想要真正理解其中的原理并不容

大模型的幻觉 (Hallucination) 因何而来?如何解决幻觉问题?
编者按:目前大模型仍然存在一个非常致命的缺陷——大模型的“幻觉”(Hallucination)问题。为什么 LLM 会出现幻觉?如何缓解这种情况?使用的数据集对此现象的影响几何?今天为大家带来的这篇文章将一一解答。

RAG (检索增强生成) 技术详解:揭秘基于垂直领域专有数据的 Chatbots 是如何实现的
编者按:相信很多人都对Chatbots背后的技术原理很感兴趣,其实Chatbots并非通过“魔法”与我们交流,而是依靠一种被称为检索增强生成(RAG)的技术。

Embedding 技术与应用 (2) :神经网络的发展及现代 Embedding 方法简介
正如OpenAI去年年底推出的ChatGPT在对话领域的重要地位,嵌入技术正在成为人工智能进步的重要基石。本文作者认为,嵌入技术与生成式方法以及基于人类反馈的强化学习相结合,将支持人工智能在自然语言理解和内容生成方面取得更大突破。

Embeddig 技术与应用 (1) :Embedding 技术发展概述及 Word2Vec
编者按:嵌入(Embedding)是机器学习中一种将高维稀疏向量转换为低维稠密向量的技术。其通常用于处理自然语言、图像等高维离散数据。 嵌入能够有效地解决维度灾难问题,减少存储和计算成本,同时提高模型的表达能力。我们还可以通过得到的嵌入向量进行语义相

基于 Falcon-7B 模型的 QLoRA 微调实操:构建面向心理健康领域的 Chatbot
编者按:在之前的系列文章中,我们介绍了大模型的原理和微调落地的理论方法。本期文章,我们将以实际场景为例,详细介绍微调的实践流程和相关代码。

微调语言模型前,需要考虑这三个关键方面
编者按:随着大语言模型(LLM)的迅速发展,越来越多团队希望针对特定领域进行模型微调。但是实践运用中总是存在一些困难,直接应用并不总是能达到理想效果。

当红语言模型利器:深度解析向量数据库技术及其应用
编者按:随着大语言模型的广泛应用,如何存储和高效检索这些模型产生的大量向量表示成为一个较为关键的问题。本文深入探讨了向量数据库在提升语言模型应用性能方面的作用,并介绍了不同类型向量数据库的特点。

为什么企业需要私有化专属大模型
编者按:8月29日凌晨,OpenAI在官网宣布,推出企业版ChatGPT(ChatGPT Enterprise)。前不久,OpenAI又刚刚发布了针对企业的GPT-3.5 Turbo微调功能。因而引发了一场热烈的讨论——是否仍需要私有化的大模型?

中型敏捷 GenAI 模型:面向企业垂直领域应用的实用型 AI
编者按:人工智能领域近年来模型规模不断增大,参数规模爆炸式增长。从 GPT-3 的 1,750 亿,再到传闻中的 GPT-4 可能高达惊人的 18,000 亿参数。然而,随着模型规模的不断膨胀,也出现了训练成本高昂、环境影响大、应用部署困难等问题。因此,业内开始反思超

落地大模型应知必会 (3): 如何构建多任务的 LLM 应用
编者按:今年以来,大语言模型(LLM)已被广泛应用于各种自然语言处理任务,也越来越多地被用于构建复杂的语言应用。但是构建多任务的 LLM 应用仍面临一定的挑战,需要解决任务组合和调控等问题。

大语言模型推理性能优化之七策
编者按:随着大语言模型在自然语言处理中的广泛应用,如何提高其在实际部署中的推理速度成为一个非常关键的问题。 本文详细介绍了当前提高大语言模型推理速度的七大策略,包括使用低精度计算、模型量化、使用适配器微调、采用模型剪枝、批量推理、多 GPU

RLHF 技术:如何能更有效?又有何局限性?
编者按:自ChatGPT推出后,基于人类反馈的强化学习(RLHF)技术便成为大模型构建和应用人员关注的热点。但该方法一些情况下效果却差强人意,有些基础模型经RLHF调优后反而表现更差。RLHF技术的适用性和具体操作细节似乎成谜。

LLM Data Pipelines: 解析大语言模型训练数据集处理的复杂流程
编者按:在训练大语言模型的过程中,构建高质量的训练数据集是非常关键的一步,但关于构建大模型训练所需数据集的通用数据处理流程(Data pipelines)的相关资料极为稀少。

大语言模型评估全解:评估流程、评估方法及常见问题
随着对大语言模型(LLM)评估领域的深入研究,我们更加清楚地认识到全面理解评估过程中的问题对于有效评估LLM至关重要。 本文探讨了机器学习模型评估中出现的常见问题,并深入研究了LLM对模型评估领域带来的重大挑战。在评估方法方面,我们将其划分为直接评

落地领域大模型应知必会 (1) :主要微调方法总览
编者按:随着大规模预训练模型的发展和应用,大模型微调技术已经在很多领域都有了突破性的进展,并推动了人工智能技术的发展与应用。 本文会简要介绍上下文学习(in-context learning)的含义,并介绍对LLMs进行微调的各种可行方式。还能够帮助我们了解如何

AI 近十年盘点:纵览 AI 发展历程,探寻 AI 未来走向
编者按:当我们回顾过去十年的人工智能发展历程时,可以看到一场现在还正在进行的变革,对我们的工作方式、商业运营模式和人际交往行为都产生了深远的影响。从2013年的AlexNet到变分自编码器,再到最近的生成式大模型,人工智能技术不断出现的突破性进展推动