注册 登录
电子工程世界-论坛 返回首页 EEWORLD首页 频道 EE大学堂 下载中心 Datasheet 专题
皓月光兮非自明的个人空间 https://home.eeworld.com.cn/space-uid-1391602.html [收藏] [复制] [分享] [RSS]
日志

《大语言模型——原理与工程实践》第一章 什么是大语言模型(一)

已有 252 次阅读2024-9-9 09:31 |个人分类:《大语言模型——原理与工程实践》

第一章 什么是大语言模型

一、什么是大语言模型

    大语言模型(Large Language Model,LLM)

    大语言模型是人工智能领域的一项重要技术。

    大语言模型在自然语言处理(Natural Language Processing,NLP)领域中被广泛应用。

 

    大语言模型作为一种强大的语言处理技术,正在推动人工智能和自然语言处理领域的发展。通过深度学习和大规模数据集的训练,大语言模型能够理解和生成自然语言文本,在问答系统、机器翻译、文本生成等领域有着巨大的应用潜力。随着技术的不断进步,大语言模型将在未来进一步为人机交互和语言处理带来更多的创新和突破。

 

二、语言模型的发展

    语言模型(Language Model,LM)

语言模型师自然语言处理的核心组件,它能够学习和理解人类语言的统计规律。即可以预测一个词序列的概率。

技术

优点

缺点

n-gram模型

最早的一种语言模型
用于小规模数据

处置复杂任务和大数据环境时效果不佳

循环神经网络
(Recurrent Neural Network,RNN)

处理短序列数据时效果为佳

处理长序列数据时效果不佳

长短时记忆网络
(Long Short-Term Memory,LSTM)

能够捕获长距离的依赖关系,可以处理文本中长距离的依赖和复杂结构

 

Transformer架构

能够有效处理长序列,显著提升训练效率

 

 

三、GPT系列模型的发展

    大语言模型的关键技术

    ChatGPT是OpenAI基于GPT-3.5架构开发的大语言模型,它的训练过程分为三个部分:

​​​​​​​    (1)预训练阶段

        模型通过自监督学习的方式进行训练,即在没有人工标注的情况下学习语言的统计属性。

        预训练的目的是使模型能够理解和生成各种不同类型的文本。

​​​​​​​    (2)有监督微调阶段

        微调是一种有监督学习的过程,需要使用人工标注的数据集来对模型进行训练,可以使模型在生成的回复更加准确和具有针对性。​​​​​​​

    (3)强化学习阶段

        通过与自己对话进行训练,不需要人工标注的数据集。

        使用近端策略优化(Proximal Policy Optimization,PPO)算法优化模型的生成策略。通过反复与模型进行对话,并根据生成回复的质量给予奖励或者惩罚,以调整模型的参数,使其生成更好的回复。

本文来自论坛,点击查看完整帖子内容。

评论 (0 个评论)

facelist doodle 涂鸦板

您需要登录后才可以评论 登录 | 注册

热门文章