写点什么

终于有人从零到精通开始教大模型开发了!基于 PyTorch 与 ChatGLM

  • 2024-12-24
    湖南
  • 本文字数:943 字

    阅读完需:约 3 分钟

该如何学习大模型?大模型是什么?

大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前 AI 和 NLP 研究与产业中最重要的方向之一。

本文使用 PyTorch2.0 作为学习大模型的基本框架,以 ChatGLM 为例详细讲解大横型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。

目录


本文包含的内容

本文共包含 18 部分内容,内容包括人工智能与大横型、PyTorch 2.0 深度学习环境搭建、从零开始学习 PyTorch 2.0、深度学习基础算法详解、基于 PyTorch 卷积层的 MNIST 分类实战 、PyTorch 数据处理与模型展示、ResNet 实战、有趣的词嵌入、基于 PyTorch 循环神经网络的中文情感分类实战、自然语言处理的编码器、预训练模型 BERT、自然语言处理的解码器、强化学习实战、只具有解码器的 GPT-2 模型、实战训练自己的 ChatGPT、开源大模型 ChatGLM 使用详解、ChatGLM 高级定制化应用实战、对 ChatGLM 进行高级微调。

1.1 人工智能:思维与实践的融合


1.2 大模型开启人工智能的新时代


2.1 环境搭建 1:安装 Python


2.2 环境搭建 2:安装 PyTorch 2.0


2.3 生成式模型实战:古诗词的生成


3.1 实战 MNIST 手写体识别


3.2 自定义神经网络框架的基本设计


4.1 反向传播神经网络的前身历史


4.2 反向传播神经网络两个基础算法详解


4.3 反馈神经网络反向传播算法介绍


5.2 实战:基于卷积的 MNIST 手写体分类


5.3 PyTorch 的深度可分离膨胀卷积详解


6.2 实战:基于 tensorboardX 的训练可视化展示


7.1 ResNet 基础原理与程序设计基础


7.2 ResNet 实战: CIFAR-10 数据集分类


8.2 更多的词嵌入方法——FastText 和预训练词向量


8.4 针对文本的卷积神经网络模型简介——词卷积


8.5 使用卷积对文本分类的补充内容


9.1 实战:循环神经网络与情感分类


10.1 编码器的核心——注意力模型


12.1 解码器的核心——注意力模型


15.1 什么是 ChatGPT


16.1 为什么要使用大模型


18.1 ChatGLM 模型的本地化处理


本文包含的内容实在是太多了,一共有 381 页,这里小编就不做过多的介绍了,已经整理成册,需要的小伙伴,可以转发此文关注小编,查看下方名片来免费获取!


并有 54 道 AI 大模型面试题领取~



本文适合的读者

本文适合 PyTorch 深度学习初学者、大模型开发初学者、大模型开发人员学习,也适合高等院校人工智能、智能科学与技术、数据科学与大数据技术、计算机科学与技术等专业的师生作为参考。

用户头像

公众号:程序员高级码农 2022-07-03 加入

公众号:程序员高级码农

评论

发布
暂无评论
终于有人从零到精通开始教大模型开发了!基于PyTorch与ChatGLM_Python_程序员高级码农_InfoQ写作社区