新生产工具落地,近期即可展望变现——AIGC应用、商业化及受益标的华西传媒互联网团队证券分析师:赵琳SAC NO:S11205200400032023年2月10日请仔细阅读在本报告尾部的重要法律声明仅供机构投资者使用证券研究报告|行业深度研究报告内容产业专题之二:
mNtQpPoOuMqOqNmQmMnRtQ9P8QbRpNpPsQpMfQoOmOeRoPpN6MqRpMvPsQtNNZqNpR目录301 AIGC:新生产工具的诞生02 变现:B端/C端商业化条件成熟,长期想象空间大03 投资建议:关注兼具数据、算力及流量优势的厂商&先发布局标的04 风险提示
401AIGC:新生产工具诞生
1.1 AIGC:人工智能生成内容,Web3时代的生产工具AIGC(AIGeneratedContent),即通过人工智能自动生成内容,具体指基于大型语言模型LLM、生成对抗网络GAN等深度学习技术,输入数据后由人工智能生成相关内容。目前AIGC已进入成长期,AI生成图像、文字、代码、音乐等领域均已有相关应用落地,我们认为随着B、C两端的快速普及,AI创作生产内容将成为下一阶段的重要内容生产方式。资料来源:ChatGPT、华西证券研究所图:AI生成内容的流程数据准备使用机器学习算法(如神经网络、随机森林等)对,模型进行训练,让模型学会生成与人类相似的内容。模型训练生成内容评估效果模型优化准备大量的可供训练的数据,如文本、图像、音频等,并对其进行预处理。通过模型的预测接口,向模型输入指定的模板和数据,获得生成的内容。评估生成的内容与实际创作要求的差异。根据评估效果对模型进行优化,提高生成内容的质量。专业人士生产内容PGC用户生产内容UGCAI辅助用户生产内容AIUGCAI生产内容AIGC图:内容创作模式的演变猜想
图:从机器学习角度看AIGC发展历程,相关技术已经基本成熟卷积神经网络CNN递归神经网络RNN残差网络ResNet建立长距离的dependency→并行计算能力基础架构模型的深度和参数量指数级增加模型深度与结果开始具有相关性模型框架变分自编码器VAE深度神经网络DNN大型语言模型LLMGPT-1GPT-2GPT-3ChatGPTTransformer生成对抗网络GAN流生成模型flow/glow扩散模型Diffusion落地应用AI换脸AI生成图像AI生成音频人工智能对话型机器人人工智能生成内容的基础理论,它模拟了人脑的神经网络,从而实现了人工智能的生成内容。神经网络大数据自然语言处理计算机视觉人工智能生成内容的基础,对生成内容的质量和效果有着重要的影响。通过对人类语言的理解和处理,从而实现人工智能生成内容。通过模拟人类视觉系统的功能,对图像及视频进行处理。图:AIGC的四大技术基础1.2 当下为何关注AIGC:落地前的技术积累已经基本完成
ChatGPT实现了从技术提升到技术突破的转变。此前残差网络及Transformer的出现使得模型的深度和参数量指数级增加,大模型成为可能,AIGC应用飞速发展;大语言模型出现后,大模型的使用方式从预训练的单一任务模型迭代到多模态模型,微调时所需的标注数据量显著减少,从而降低了业务的使用成本。在此基础上,2022年11月,OpenAI上线了机器人对话模型ChatGPT(GPT-3.5),新模型参数量为1750亿(人脑神经元数量为120-140亿),远超此前模型的参数量。ChatGPT引入了RLHF(基于人类反馈的强化学习),能够在大部分领域与人类进行持续的语言交互,实现了历史性的突破。ChatGPT标志着AIGC规模化、商业化应用的开始,人类的内容生产习惯将被改变。尽管此前StableDiffusion、Midjourney等AI绘画应用已经落地,但注册及使用门槛仍相对较高。ChatGPT的对话机器人属性及免费试用窗口期使其能够广泛触达用户,瑞银数据显示上线两月用户数已突破一亿,系目前用户增长最快的消费应用,2023年1月推出付费订阅版,每月价格20美元。我们认为,ChatGPT之于OpenAI,可以对标AlphaGo和AlphaFold之于DeepMind,开启了AIGC认知普及的一大步,是AIGC内容批量规模化生产的起点。 1.3 当下为何关注AIGC:ChatGPT诞生,催化AIGC商业化价值图:ChatGPT实现路径步骤1:收集数据,监督学习步骤2:建立训练汇报模型步骤3:强化学习(PPO算法)引入监督学习,提高模型认知能力解释巩固学习到六岁阶段进行数据标注公司给予信任和惩罚在教授过程“提示学习”算法雇佣标注工使用监督学习,对GPT-3.5进行微调Q:如何向一个六岁的孩子解释强化学习?强化学习的目标是...奖励机制是...在机器学习过程中,,,围棋...一个提问对应多个回答标注者将回答从最好到最差排序该过程中产生的数据用于训练奖励模型写一个关于水獭的故事一个新提问初始化策略模型进行输出奖励模型对输出进行评价该评价用于更新策略模型的参数(基于PPO算法)图:ChatGPT的技术突破点在于引入了RLHF(基于人类反馈的强化学习)很久很久以前...