GPT系列专题之二:GPT-4引领认知革命 Deep Speed加速行业发展

56次阅读

我们将“AI+ 传媒”的研究框架体系定义为“通用大模型”+“行业小样本”的技术架构,“AI+ 传媒”在应用层表现效力优劣的关键取决于通用大模型对垂直应用的适配程度及迭代速度,

1、适配程度是指:多模态的输入及输出是否匹配应用层的输入及输出。比如 GPT- 4 属于“图 + 文”多模态输入 +“文”单模态输出,因此输入模态为“图或文”且输出模态为“文”的垂直应用更适配 GPT-4。

2、迭代速度是指:应用层产生的“行业小样本”的数据量是否匹配大模型的迭代要求。根据我们对 GPT 模型的理解,比如 BingAI 产生的“行业小样本”源自 Bing 的搜索结果,ChatGPT 产生的“行业小样本”源自用户的反馈和互动。因此我们认为,对于超出 GPT 所使用的预训练数据库范围(2021 年 9 月前)的事实性表述,Bing AI 反馈的是搜索的结果,ChatGPT 反馈的是用户主动的观点,Bing AI 反馈的效果比 ChatGPT 更好。

我们认为“行业小样本”的价值取决于数据数量及数据质量,数量大且质量高(多模态)的应用场景复用及迭代 AI 能力的效力更强,因此更进一步理解我们的研究框架,我们将“行业小样本”的结构分层(中层小模型 + 下层应用及内容),并将“行业小样本”的结合方式分类(调用 + 训练):

1、“行业小样本”的数据集来自小模型或应用及内容:AI 产业链包括上层大模型、中层小模型、下层应用及内容,包括应用及内容直接接入大模型或通过小模型接入大模型两种方式,即“大模型 + 应用及内容”或“大模型 + 小模型 + 应用或内容”,其中具备特定功能的 AIGC 软件产品及 MaaS 我们理解为“小模型”+“应用”的技术范式,本身具备较高质量的 AI 能力,若接入匹配的多模态大模型,有望实现能力上的质变突破。

2、“行业小样本”的结合方式包括“能力调用”及“能力训练”两类:

(1)“能力调用”是指下游垂类场景直接调用通用大模型的通用能力,并基于垂类场景内产生的特性化数据不断提升调用能力在垂类场景内的适配程度。我们认为现阶段下游应用及内容主要采取此类方式接入大模型能力,此类方式可高效快速调用大模型先进能力,在时间上及成本上具备优势。我们认为“能力调用”匹配“AI+ 传媒”的第一层利好,即通过 AI 降本增效,大幅提高数据及内容的供给量。内容产业本质由供给决定需求,因此内容供给量的明显提升将有效带动传媒基本面拐点及增量空间出现。

(2)“能力训练”是指下游垂类场景将通用大模型针对特性化数据集进行再训练,从而形成垂类场景专属大模型。例如彭博社利用自身丰富的金融数据源,基于开源的 GPT- 3 框架再训练,开发出了金融专属大模型 BloombergGPT。我们认为“能力训练”匹配“AI+ 传媒”的第二层利好,即下游垂类场景本身的数据或内容反过来“再训练”通用大模型(或开源大模型),形成传媒内容场景专属大模型,形成更稳定且高质的内容输出。我们认为训练难度文本 < 图片 < 视频 < 影视 < 游戏,且内容数量逐步递减但内容质量逐步递增,即偏后端的影视、游戏在内容数量上训练量级不足,因此高质量的内容形态首先通过“能力调用”输出 AIGC 内容,再将 AIGC 内容“再训练”大模型以解决高质量内容数量不足的问题(合成数据“再训练”范畴)。

从投资的角度,按照我们的研究框架,传媒对应垂类场景的“行业小样本”,其核心价值取决于数据与内容,第一层对应数据与内容的输入模态是否匹配大模型的输出模态;第二层对应数据与内容的数量及质量是否匹配大模型的能力再训练:

1、按照“模态匹配”的逻辑,AI+ 文本 / 虚拟人预计率先兑现案例及业绩,其次 AI+ 图片可通过“大模型”+“小模型”组合方式实现(如 GPT+Stable Diffusion、GPT+Midjourney)。随着未来 GPT- 5 提供更多模态的输入及输出,下游垂类场景的适配范围有望扩大,通过“能力调用”适配的应用及内容场景更为丰富,因此后续“AI+ 视频 / 影视 / 游戏”的案例兑现度存在新的催化空间。

OpenAI 最新发布的 GPT- 4 核心特征包括:(1)多模态输入(图 + 文),单模态输出(文),可以阅读并总结论文内容、解答较高难度的物理题目、具备较强的 OCR 能力(如识别网页草稿并按要求反馈网页代码)、理解人类社会常识;(2)具备长文字处理及推理判断能力,GPT- 4 上下文上限约 2.5 万字,允许使用长格式内容创建、扩展对话以及文档搜索和分析等,能够阅读并记忆更多信息,且具备更高的推理判断能力;(3)可靠性大幅提升,分辨能力提高,有效减少“虚构”或“有害”信息输出。

2、按照“能力再训练”的逻辑,AI+ 内容 /IP 预计空间及价值更大,其价值核心取决于数据与内容 /IP 的数量及质量的高低。微软本周发布的 DeepSpeed-Chat 大幅提升大模型预训练速度并大幅降低训练成本,我们认为最核心意义为大幅降低垂类场景专属大模型的训练门槛,小模型层及应用层有望明显受益。掌握数据及优质内容(多模态数据)的下游场景具备核心竞争力,因此内容及 IP(版权)的价值有望重估。

DeepSpeed-Chat 集成预训练语言大模型完整三个步骤,其中针对第三步 RLHF 训练集成了高效且经济的 DeepSpeed-RLHF 系统,使复杂的 RLHF 训练变得快速、经济并且易于大规模推广(相比现有系统提速 15 倍以上,且大幅降低算力要求及成本)。

来源:上海证券

若需获取本篇完整版资源,请关注公众号《侠说》

报告内容节选如下:

原文链接:https://www.bilibili.com/read/cv23475703/

正文完
 
追风者
版权声明:本站原创文章,由 追风者 2023-11-28发表,共计2247字。
转载说明:声明:本站内容均来自互联网,归原创作者所有,如有侵权必删除。 本站文章皆由CC-4.0协议发布。