导图社区 大模型应用学习
这是一篇关于大模型应用学习的思维导图,主要内容包括:基本概念,发展历程,技术架构,常见大模型,模型训练,提示词工程,私有化部署,RAG,智能体,MCP。
这是一篇关于大语言模型(LLM)全面解析的思维导图,主要内容包括:LLM基础概念,LLM核心技术与算法,LLM应用场景,LLM开发与部署,LLM挑战与未来,LLM学习路径与资源。
这是一篇关于Java学习路径的思维导图,主要内容包括:Java基础核心,开发工具,发展脚技术,前端技术,框架开发,容器化,云计算,高级进阶。
社区模板帮助中心,点此进入>>
互联网9大思维
组织架构-单商户商城webAPP 思维导图。
域控上线
python思维导图
css
CSS
计算机操作系统思维导图
计算机组成原理
IMX6UL(A7)
考试学情分析系统
大模型应用学习
基本概念
定义
大模型(Large Language Models, LLMs)通常指具有巨大参数量和复杂结构的人工智能模型,尤其是在自然语言处理领域。这些模型通过在海量文本数据上进行训练,学习到了人类语言的深层规律和世界的丰富知识,从而能够理解和生成接近人类水平的文本。其核心能力在于根据上下文进行推理、创作、问答等,代表性的模型如GPT系列、BERT、LLaMA等
参数与规模
“参数”是模型内部可调节的变量,其数量直接决定了模型的容量和复杂性。大模型的“规模”通常以其参数数量来衡量,从早期的数亿参数发展到如今的数千亿甚至万亿级别。参数规模越大,模型理论上能够存储和学习的知识就越多,表现出的能力也越强(如更强的推理能力和知识广度),但同时也带来了巨大的计算资源消耗和训练成本
预训练与微调
“预训练”是模型学习的基石,通过在互联网级别海量无标注数据上进行自监督学习,让模型掌握通用的语言规律和世界知识
“微调”则是在预训练的基础上,使用特定领域或任务的、规模较小的标注数据对模型进行针对性优化,使其能更好地适应具体应用场景,如客服对话、法律文书分析等
模型分类
按架构主要分为仅包含解码器的模型(如GPT系列,擅长文本生成)、仅包含编码器的模型(如BERT,擅长文本理解)和编码器-解码器模型(如T5,擅长转换类任务)
按技术路线可分为生成式模型(如GPT)和判别式模型(如BERT)
按模态分为纯文本模型、多模态模型(如图文模型CLIP)
发展历程
自然语言理解NLP
概述
文本分类、情感分析、意图识别、实体抽取、相似度分析、文本分词
核心体系
常用算法
Bert
gpt3.0
时间
效果
参数量
gpt4.0
技术架构
架构类型
核心组件
常见大模型
语义大模型
ChatGPT
文心一言
通义千问
LLaMA
Deepseek
多模态大模型
GPT-4V
Gemini
Sora
Qwen-VL
模型训练
模型蒸馏
“教师模型”-》“学生模型”
模型微调
使用特定领域或任务的小规模数据集,对模型的参数进行进一步的训练,使其适应新任务
学习率 (LR)
LoRA Rank (r)
LoRA Alpha
训练轮数
学习率调度
训练平台
Hugging Face Transformers
PaddlePaddle (飞桨)
硅基流动
https://cloud.siliconflow.cn/me/models
llamafactory
https://www.llamafactory.online/login
提示词工程
常用部分
角色设定(Role Prompting):限定模型回答的视角和专业领域,如"你是一位资深软件工程师"
任务描述:明确需要完成的具体任务目标,遵循STAR原则(场景、任务、行动、结果)
上下文信息:提供必要的背景信息,限定讨论范围
示例引导:通过提供输入输出示例,让模型学习任务模式和规律
输入数据:指定需要模型处理的具体内容
输出格式:明确期望的输出结构和格式要求
ICIO框架
指令(Instruction)、背景(Context)、输入数据(Input Data)、输出引导(Output Indicator)
BROKE框架
背景(Background)、角色(Role)、目标(Objectives)、关键结果(Key Results)、演变(Evolve)
CRISPE框架
角色(Capacity and Role)、见解(Insight)、声明(Statement)、个性(Personality)、实验(Experiment)
提示词测试平台
https://loop.coze.cn/console/enterprise/personal/space/7561317302401024010/pe/prompts
私有化部署
模型仓库
Hugging Face Hub
ModelScope(魔搭)
硬件要求
70亿参数 (7B)
消费级顶配显卡
130亿参数 (13B)
多卡或使用量化
340亿参数 (34B)
多张专业级数据中心显卡
700亿参数 (70B)
高端服务器集群
部署工具
Ollama
https://blog.csdn.net/2401_84495872/article/details/145264453
vLLM
FastChat
RAG
基础概念
检索增强生成。将信息检索与大语言模型生成相结合
rag
索引
将文档切分成片段,转换成数值向量(嵌入),存入向量数据库
检索
当用户提问时,将问题也转换成向量,并在向量数据库中搜索最相关的文档片段
增强
将检索到的相关片段和原始问题组合成一个丰富的提示词
生成
将增强后的提示词发送给大模型,生成最终答案
graphrag
文档集进行深度分析,构建一个包含实体(如人物、地点、组织)和它们之间关系(如“工作在”、“位于”)的知识图谱
核心流程
常见rag开源框架
LangChain
Milvus
支持rag的三方平台
coze
https://www.coze.cn/space/7561317302401024010/develop
Dify
ima
智能体
智能体平台
MCP
服务端
实际提供工具或数据的后端程序。它负责实现MCP协议规定的接口,对外暴露可用的工具列表
客户端
调用这些工具的AI应用或平台(如Claude桌面应用)。客户端通过MCP协议与服务器通信
扣子空间(可以使用自定义mcp,如文件处理等)
https://space.coze.cn/?from=landingpage&category=10000
mcp开发
mcp网关
mcp应用