终于有人从零到精通开始教大模型开发了!基于 PyTorch 与 ChatGLM
该如何学习大模型?大模型是什么?
大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前 AI 和 NLP 研究与产业中最重要的方向之一。
本文使用 PyTorch2.0 作为学习大模型的基本框架,以 ChatGLM 为例详细讲解大横型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。
目录
本文包含的内容
本文共包含 18 部分内容,内容包括人工智能与大横型、PyTorch 2.0 深度学习环境搭建、从零开始学习 PyTorch 2.0、深度学习基础算法详解、基于 PyTorch 卷积层的 MNIST 分类实战 、PyTorch 数据处理与模型展示、ResNet 实战、有趣的词嵌入、基于 PyTorch 循环神经网络的中文情感分类实战、自然语言处理的编码器、预训练模型 BERT、自然语言处理的解码器、强化学习实战、只具有解码器的 GPT-2 模型、实战训练自己的 ChatGPT、开源大模型 ChatGLM 使用详解、ChatGLM 高级定制化应用实战、对 ChatGLM 进行高级微调。
1.1 人工智能:思维与实践的融合
1.2 大模型开启人工智能的新时代
2.1 环境搭建 1:安装 Python
2.2 环境搭建 2:安装 PyTorch 2.0
2.3 生成式模型实战:古诗词的生成
3.1 实战 MNIST 手写体识别
3.2 自定义神经网络框架的基本设计
4.1 反向传播神经网络的前身历史
4.2 反向传播神经网络两个基础算法详解
4.3 反馈神经网络反向传播算法介绍
5.2 实战:基于卷积的 MNIST 手写体分类
5.3 PyTorch 的深度可分离膨胀卷积详解
6.2 实战:基于 tensorboardX 的训练可视化展示
7.1 ResNet 基础原理与程序设计基础
7.2 ResNet 实战: CIFAR-10 数据集分类
8.2 更多的词嵌入方法——FastText 和预训练词向量
8.4 针对文本的卷积神经网络模型简介——词卷积
8.5 使用卷积对文本分类的补充内容
9.1 实战:循环神经网络与情感分类
10.1 编码器的核心——注意力模型
12.1 解码器的核心——注意力模型
15.1 什么是 ChatGPT
16.1 为什么要使用大模型
18.1 ChatGLM 模型的本地化处理
本文包含的内容实在是太多了,一共有 381 页,这里小编就不做过多的介绍了,已经整理成册,需要的小伙伴,可以转发此文关注小编,查看下方名片来免费获取!
并有 54 道 AI 大模型面试题领取~
本文适合的读者
本文适合 PyTorch 深度学习初学者、大模型开发初学者、大模型开发人员学习,也适合高等院校人工智能、智能科学与技术、数据科学与大数据技术、计算机科学与技术等专业的师生作为参考。
评论