写点什么

人工智能 LLM 革命前夜:一文读懂 ChatGPT 缘起的自然语言处理模型 Transformer

作者:阿里技术
  • 2023-02-16
    浙江
  • 本文字数:851 字

    阅读完需:约 3 分钟

人工智能 LLM 革命前夜:一文读懂ChatGPT缘起的自然语言处理模型Transformer

 作者:钟超  阿里集团大淘宝团队












[01] https://web.stanford.edu/~jurafsky/slp3/3.pdf


[02] https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html


[03] 《自然语言处理:基于预训练模型的方法》车万翔 等著


[04] https://cs.stanford.edu/people/karpathy/convnetjs/


[05] https://arxiv.org/abs/1706.03762


[06] https://arxiv.org/abs/1512.03385


[07] https://github.com/Kyubyong/transformer/


[08] http://jalammar.github.io/illustrated-transformer/


[09] https://towardsdatascience.com/this-is-how-to-train-better-transformer-models-d54191299978


[10] 《自然语言处理实战:预训练模型应用及其产品化》安库·A·帕特尔 等著


[11] https://lilianweng.github.io/posts/2018-06-24-attention/


[12] https://github.com/lilianweng/transformer-tensorflow/


[13] 《基于深度学习的道路短期交通状态时空序列预测》崔建勋 著


[14] https://www.zhihu.com/question/325839123


[15] https://luweikxy.gitbook.io/machine-learning-notes/self-attention-and-transformer


[16] 《Python 深度学习(第 2 版)》弗朗索瓦·肖莱 著


[17] https://en.wikipedia.org/wiki/Attention_(machine_learning)


[18] https://zhuanlan.zhihu.com/p/410776234


[19] https://www.tensorflow.org/tensorboard/get_started


[20] https://paperswithcode.com/method/multi-head-attention


[21] https://zhuanlan.zhihu.com/p/48508221


[22] https://www.joshbelanich.com/self-attention-layer/


[23] https://learning.rasa.com/transformers/kvq/


[24] http://deeplearning.stanford.edu/tutorial/supervised/ConvolutionalNeuralNetwork/


[25] https://zhuanlan.zhihu.com/p/352898810


[26] https://towardsdatascience.com/beautifully-illustrated-nlp-models-from-rnn-to-transformer-80d69faf2109


[27] https://medium.com/analytics-vidhya/understanding-q-k-v-in-transformer-self-attention-9a5eddaa5960



发布于: 刚刚阅读数: 3
用户头像

阿里技术

关注

专注分享阿里技术的丰富实践和前沿创新。 2022-05-24 加入

阿里技术的官方号,专注分享阿里技术的丰富实践、前沿洞察、技术创新、技术人成长经验。阿里技术,与技术人一起创造成长与成就。

评论

发布
暂无评论
人工智能 LLM 革命前夜:一文读懂ChatGPT缘起的自然语言处理模型Transformer_人工智能_阿里技术_InfoQ写作社区