导图社区 AI行研
这是一篇关于AI行研的思维导图,主要内容包括:商业模式,市场规模,产业链分析,基本概念。介绍详细,描述全面,希望对感兴趣的小伙伴有所帮助!
编辑于2024-11-26 10:20:41AI行研
基本概念
人工智能的技术逻辑关系
DL:深度学习(Deep Learning, DL)就是表示学习RL的最好体现——深度学习就是用来解决人工构建特征麻烦而且不准确的问题,优点是机器自己会构建特征,缺点是看不出来是哪种因素对结果影响较大。对基础的算法进行封装,是模型训练的底座。 ①计算机视觉(Computer Vision, CV) ②自动语音识别(Automatic Speech Recognition, ASR) ③自然语言处理( Natural Language Processing, NLP) ④专家系统(Expert System, ES)
训练方式
监督学习(50年代提出)
原理:根据输入和对应的标签进行模型训练,以预测标签未知的新数据。
半监督学习(80年代提出)
原理:利用有标签数据的信息和未标签的分布式特征进行模型训练。
无监督学习(80年代提出)
原理:从无标签的数据中发现隐藏的模式和结构。
自监督学习(预训练,2017年后提出)
原理:自监督学习是一种特殊的无监督学习方法,它利用数据本身的结构和属性,来自动地生成标签或者特征,从而进行模型的训练。
强化学习(微调,2017年后提出)
原理:模型与环境进行交互,通过试错学习最优策略,基于奖励信号训练模型,最大化长期累积奖励。
深度学习框架
介绍:基于NLP(Transformer)、CV(CNN等)两大类基础架构衍生出各类大模型,多模态已成趋势。 大模型按照其底层架构以及研发任务领域的特点分为几个主要类别,包括自然语言处理(NLP)、计算机视觉(CV)、科学计算以及多模态任务等多种,但从底层架构上都分属NLP和CV两类。 Transformer是一种全新的编解码模型架构,并行程度高,适用于处理文本、代码这类强连续性生成任务;CNN、GAN、Diffusion等传统CV架构善于处理图像生成类任务。由单模态模型在实际训练时融合其他模态技术,可形成多模态、跨模态大模型,如GPT-4、盘古、 Mid journey等,由于多模态模型可接受文本、图像等不同输入输出形式,对应用场景能够更广泛适配,着力研发多模态模型成为趋势。
NLP大模型
PyTorch框架(Meta)
TensorFlow框架(Google)
飞浆架构(百度)
Transformer框构
Transformer 是一种基于自注意力机制(self-attention Mechanism)的深度学习模型,最初是为了处理序列到序列(sequence-to-sequence)的任务,比如机器翻译,它是由论文《Attention is All You Need》提出。得益于其优秀的性能和灵活性,它现在被广泛评估各种自然语言处理(NLP)任务。
(1)自注意力机制(Self-Attention Mechanism)自注意力机制是Transformer模型的核心。它允许模型在处理一个序列的时候,考虑序列中的所有单词,并根据它们的重要性赋予不同的权重。这种机制使得模型能够捕获到一个序列中的长距离依赖关系。 (2)位置编码(Positional Encoding)由于Transformer模型没有明确的处理序列顺序的机制,所以需要添加位置编码来提供序列中单词的位置信息。位置编码是一个向量,与输入单词的嵌入向量相加,然后输入到模型中。 (3)编码器和解码器(Encoder and Decoder)Transformer模型由多层的编码器和解码器很好完成。编码器用于处理输入序列,解码器用于生成输出序列。编码器和解码器都由自注意力机制和前馈神经网络(Feed-Forward Neural)组成网络)组成。 (4)多头注意力(Multi-Head Attention)在处理自我注意力时,Transformer模型并不只满足于一个注意力分配,而是产生多个注意力分配,这就是所谓的多头注意力。多头注意力可以让模型在多个不同的表示空间中学习输入序列的表示。 (5)前馈神经网路(Feed-Forward Neural Network)在自注意力之后,Transformer模型会通过一个前反馈神经网络路来进一步处理序列。这个网络路由两层全连接层和一个ReLU启动函数组成。 (6)残差连接和层归一化(Residual Connection and Layer Normalization)Transformer模型中的每一个子层(自注意力和前馈神经网路)都有一个残差连接,而其输出会通过层归一化。这有助于模型处理深度网路中常见的峰值消失和突然爆炸的问题。
CV大模型
CNN、GAN、VAE等
AI模型介绍
AI模型机理:是指在参数与架构的基础上构建起来,可以学习到输入内容和输出内容之间的关系,从而能根据输入对输出进行预测的一种架构,无论普通模型还是大模型,其运行逻辑都是一致的,即“训练+推理”。推理的目标是利用训练过程中学到的知识(模型),将其应用于实际场景中的数据,进行预测、分类、生成等任务。
机制流程:训练(人类编写训练算法→输入数据→不断对参数进行调整→相对准确的算法(模型))+推理(输入数据→不在进行参数调整→生成预测结果)
大模型
具有“预训练”和“大参数”的特点:大模型性通常有数以亿计的参数,由多层神经元组成,使用大规模无标注数据集完成预训练,之后模型仅需少量数据进行微调或不调整,就能直接支撑各类应用,完成多个应用场景的任务。
产业链分析
上游
基础层
算力基础
现状:海外龙头厂商占据垄断地位,AI加速芯片市场呈现“一超多强”态势,英伟达一家独大。市场上,英伟达凭借硬件优势和软件生态一家独大,在训练、推理端均占据领先地位。2022 年数据中心 AI 加速市场中,英伟达份额达 82%。 趋势:当前市场以训练芯片为主(目前各占比50%左右),未来推理芯片有望反超(占比65%以上)。从AI芯片的计算功能来看,一开始,因大模型首先要在云端经过训练、调优与测试,计算的数据量与执行的任务量数以万计,故云端训练需求是AI芯片市场的主流需求。而在后期,训练好的模型转移到端侧,结合实时数据进行调优、推理运算、释放AI功能,微调、推理需求逐渐取代训练需求,带动推理芯片市场崛起。预计到2025年,云端推理与端侧推理将成为市场规模增长的主要拉动力,提升了逐渐下滑的AI芯片市场规模同比增速。
算法基础
现状:行业主要收入贡献来源为计算机视觉类,市场竞争格局分散。AI技术开放平台中计算机视觉类与语音技术类收入占比达72.2%,是收入的主要贡献来源。人脸识别、人体识别、OCR文字识别、图像识别等构成了计算机视觉类业务的主要技术能力,且计算机视觉类的技术价格相较于其他技术而言更高,应用领域也更为广泛。现阶段的市场集中度相对分散,未来,能持续投入成本、研发出强劲算法的厂商有望占领更多的市场份额,市场集中度亦会因此提升。 趋势:现阶段的市场集中度相对分散,未来,能持续投入成本、研发出强劲算法的厂商有望占领更多的市场份额,市场集中度亦会因此提升。
数据基础
现状:由于数据服务门槛不高,2019年中国人工智能基础数据服务行业CR5占26%市场份额,行业集中度较低,品牌数据服务商、中小数据供应商和需求方自建团队是市场中的主要供应方。 趋势:随着预训练大模型时代的到来,以及人工智能技术在更多垂直应用场景落地深化,数据标注行业也将走向垂直化、定制化,门槛提高,市场集中度提升。从发展曲线来看,过去行业核心业务逻辑与以监督学习为主的小模型具市场有强相关性,在大模型逐步替代小模型后,传统数据治理业务将逐步减小,市场将转向自动化标注工具+行业知识图谱微调阶段,数据服务企业业务逐步发展为数据治理应用一体化。从发展趋势来看,一方面大模型大多采用无监督学习的方式进行预训练,模型可直接大量学习无标注的数据,此外AI辅助标注、自动化数据标注技术快速进步,行业对低质量数据标注的需求减少。另一方面,在自动驾驶、医疗医药、小语种、法律、金融等专业性的场景中,模型的落地效果很大程度上取决于是否有高质量标注数据进行微调。因此,资金、研发实力以及专业know-how或成为较高行业门槛,多种因素叠加影响下,行业集中度将提升。
中游
模型层
通用大模型
开源通用大模型
闭源通用大模型
行业垂直型基础大模型
业务垂直型基础大模型
企业垂直大模型
工具层
AI Agents
AI应用效率化生产平台
大模型服务平台
下游
应用层
内容消费赛道
创作工具赛道
数字化与大模型方案提供商
金融、零售、政务、电力、医疗、企业内部服务
1.近年来,随着人工智能技术及产品在企业设计、生产、管理、营销、销售多个环节中得到落地且成熟度不断提升,下游需求侧应用AI的行业也不断增多,渗透率持续提升,行业整体格局分散。 2.具体来看,数字经济的高速发展为人工智能发展创造了良好的经济与技术环境,而企业、行业的数字化水平也决定了AI产品的落地难度以及应用效能,行业数字化水平越高,AI规模化落地速度越快。
市场规模
整体市场情况(2022年1958亿)
2022年中国人工智能产业规模达1958亿元,到2027年,人工智能产业整体规模有望达到6122亿元,2022-2027年的相关 CAGR=25.4%。
上游市场情况:2022年总市场规模1084亿,占比43.8%
算力芯片市场(2022年647亿):2022年国内647亿,到2025年,我国AI芯片市场规模或将达到1385亿元,2023-2025年的相关CAGR=46.3%。
算法服务市场(2022年376亿)
数据服务市场(2022年64亿):2023年,中国AI数据服务市场规模预计为64亿元,至2025年将达到107亿元,2023-2025 CAGR=29.3%。
中下游模型、工具及应用:2022年总市场规模1389亿,占比56.2%
模型层市场规模(2022年169.5亿)
工具层市场规模(2022年101.4亿)
其他AI软件或应用市场规模(2022年1116.8亿)
商业模式
中游
模型层
通用大模型
闭源通用大模型:采用基础能力免费+增值服务收费的模式或为云服务引流模式变现。 开源通用大模型商业模式:1)订阅会员:获得特定的服务或特权;2)生成量:根据用户在平台上使用或生成内容量计费;3)第三方应用插件:提供API或工具,引进开发者创建集成应用。模型厂商通过出售这些应用、插件或提供高级功能来获得收入,平台从中抽成
行业垂直型基础大模型
业务垂直型基础大模型
商业模式:企业将微调好行业/业务大模型的以服务的形式提供给客户使用,客户可通过API调用,收费基于订阅时间、使用量、调用次数等
企业垂直大模型
商业模式:面向有私有化部署需求的客户提供企业专属大模型,收费基于服务内容和类型。
工具层
AI Agents
商业模式:1)面向开发者:作为深度学习自动化流程工具,提供Agents开发的逻辑框架,帮助开发者创建基于大语言模型的端到端应用程序或流程,目前主要是开源模式;2)面向客户端:利用大模型的代码生成能力,打通语音/文字输入层,与软/硬件层执行层的鸿沟,实现AI自动化,目前主要作为模型附加功能收费。
AI应用效率化生产平台
商业模式:帮助客户开发小模型,作为集成了算法与算力的低代码或无代码平台,供用户构建、部署和管理AI应用模型,按调用量或节点收费。
大模型服务平台
商业模式:大模型时代的新产物,AI应用模型效率化生产平台的升级版,提供多种基础大模型,供用户选择并微调专属大模型,按调用量收费或节点收费。