【银河科技】科技行业专题报告:DeepSeek-技术颠覆or创新共赢

  

【银河科技】科技行业专题报告:DeepSeek-技术颠覆or创新共赢

  1. DeepSeek通过算法及工程创新,明显降低成本,技术变革算力新方向

  2.结合我们对芯片、硬件、软件、应用端等的影响分析,我们认为DeepSeek的技术颠覆带来的是AI行业的多元化,有望加速AI行业的普及繁荣,具体细分到行业子板块来看:电子板块-后训练时代看好推理侧算力部署,以及AI端侧加速落地;通信板块-推理侧算力有望增加利好国产光芯片,看好AI时代运营商角色转换,光模块景气度无虞;计算机板块-看好算力向推理,基础设施向应用侧投资变化机遇;传媒板块-大模型推陈出新进程加速,AI+赋能进行时

  DeepSeek通过算法及工程创新,显著减少相关成本,技术变革算力新方向:DeepSeek模型通过使用PTX编程语言,以及工程能力上的创新,使得其在具有更强的性能的同时,实现更低的训练与推理成本,或将加速推动AI应用与硬件的普及和落地。与市场认为的不同,我们大家都认为更低的训练与推理成本对算力需求呈现短期减少,长期高增的趋势,AI能力边际扩张依然需要依赖更大的模型和强大的算力,DeepSeek在算法和架构上的创新给AI发展增加了一条新的道路,有望开拓AI行业的共赢局面。

  结合我们对芯片、硬件、软件、应用端等的影响分析,我们认为DeepSeek的技术颠覆带来的是AI行业的多元化,有望加速AI行业的普及繁荣,具体细分到行业子板块来看:

  电子板块-后训练时代看好推理侧算力部署,以及AI端侧加速落地:DeepSeek的创新并没有完全打破scaling laws,且正从pre-training转向post-training和推理,通过增加模型规模、扩展训练数据、提高计算资源以及合理的任务设计,可加速模型学习更复杂的推理能力。随着模型规模、数据量和计算资源的增加,模型能够更好地进行推理,通过平衡性能、内存占用和推理速度来提高大语言模型的运行效率,有利于AI硬件端的落地与普及。

  通信板块-推理侧算力有望增加利好国产光芯片,看好AI时代运营商角色转换,光模块景气度无虞。我们认为运营商作为我国最大的流量管道,具备数据优势及接口优势,AI应用的普及将持续推进,同时,更强训练模型的未来需求将带动光模块产业链快速发展,在全球经济形势复杂化趋势下,核心器件光芯片等方向自主可控进程进一步加速。

  计算机板块-看好算力向推理,基础设施向应用侧投资变化机遇:当下投资中的结构性机会主要体现在“从训练算力为主到推理算力为主过渡”、“从高端GPU到ASIC芯片过渡”,以及“从基础设施投资机会向应用侧投资机会过渡”。其开源策略和低成本模型使得更多企业和开发者能够使用先进的AI技术,加速了AI技术在各行业的应用和发展。

  传媒板块-大模型推陈出新进程加速,AI+赋能进行时:在C端,用户渗透率不断提升,主要AI APP活跃数据持续环比增长;在B端,AI营销等领域的商业化模式已经逐步得到验证。DeepSeek有望加速推动在影视、广告、社交陪伴等多个领域AI+应用落地。

  建议关注电子板块消费电子相关产业链、AI终端硬件等方向;通信板块运营商、光模块、光芯片等方向;计算机板块看好边缘算力、AI应用开发、数据服务与处理、端侧AI设备等方向;传媒板块“AI+”等细分子领域方向。

  国际经济形势复杂度进一步提升的风险;AI硬件发展速度不及预期的风险;AI产业链上下游短期波动的风险;AI应用发展不及预期的风险等。

  DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司,由幻方量化的联合创始人梁文峰创立。公司自2023年7月年成立以来,始终专注于大语言模型(LLM)及其相关技术的深度研发。公司坚持技术创新路线,开创性地提出多头潜在注意力机制(MLA)和DeepSeekMoE等创新架构。凭借这些创新成果,DeepSeek的大模型在多项权威测评中展现出顶尖的性能表现。

  DeepSeek的团队成员大多来自清华大学、北京大学、中山大学、北京邮电大学等国内顶尖高校,整体呈现出“年轻高学历、注重开源、重视创新”的特点。

  根据彭博社报道,DeepSeek的AI助手在140个市场中成为下载量最多的移动应用。根据Appfigures的数据,DeepSeek的推理人工智能聊天机器人在1月26日登上苹果公司AppStore的榜首并保持全球第一,1月28日起在美国的AndroidPlayStore中也位居榜首。根据SensorTower的数据,DeepSeek在发布后的前18天内获得了1600万次下载,约为OpenAI的ChatGPT发布时900万下载量的两倍,印度贡献了所有平台下载量的15.6%。

  在用户体验方面,DeepSeek表现不俗。用户普遍认为DeepSeekR1的性能出色,特别是在数学推理、编程能力和自然语言理解等领域。其推理速度和准确度在多个测试场景中达到业界领先水平。此外,DeepSeekR1的“聪明”特性使得用户无需复杂的提示词技巧,即可获得高质量的回答。在实际使用场景中,无论是游戏、视频播放还是日常工作的辅助,其流畅的操作体验都得到了用户的高度评价。用户反馈显示,DeepSeek界面简洁直观、操作简单,在实时数据推送和内容推荐上十分出色,能够有效提升工作效率,减少用户在信息检索上的时间投入。

  DeepSeekR1的发布引起了硅谷科技领袖、国际媒体及学术界的广泛关注。其性能和开源策略获得了高度评价,被认为是“非美国公司践行OpenAI初心”的典范。DeepSeekR1的发布引发了全球科技市场的连锁反应。其开源策略、低成本、高性能的特性,对科技巨头形成了压力。其训练成本仅为600万美元,远低于OpenAI和谷歌等公司的同类模型,《MITTechnologyReview》提到,R1在数学、代码等复杂任务上的表现与OpenAIo1相当,而训练成本仅为其1/70,定价低至OpenAI的3%。这种成本效益优势使得更多企业和开发者能够以较低的成本使用先进的AI技术,将大大加速AI技术的普及和应用。

  大模型在AI行业中占据核心地位,是推动技术创新、拓展应用场景及提升行业效率的关键因素。全球范围内的领军企业持续推动大模型性能的提升,随着模型规模的不断扩张,其性能也实现了显著提升。然而,这种规模的扩大也相应地带来了训练和部署成本的急剧增加,成为制约大模型广泛应用的瓶颈。

  在机器学习领域,尤其是大型语言模型(LLMs)的应用场景中,模型性能的提升与模型规模、数据集的大小以及计算资源之间存在着紧密的关联,这一关系通常被描述为“规模定律”(Scaling Law)。根据规模定律,模型的性能会随着模型规模的指数级增加而实现线性提升。目前,国际上主流的大模型,诸如OpenAI的GPT系列、Anthropic的Claude以及谷歌的Gemini等,其最新版本的规模均已突破千亿参数大关。尽管这些模型在性能上展现出了卓越的表现,但对于众多公司和开发者而言,其高昂的硬件资源使用成本、计算时间等依然构成了巨大的挑战。长期以来,大算力训练一直是基座模型厂商用于融资与构建竞争壁垒的重要手段。

  从技术层面来看,GPU等硬件设施效率的提升以及算法的优化等方式,均有望带动大模型成本的显著下降。在全球GPU短缺以及美国限制政策的双重压力下,我国的人工智能公司DeepSeek通过算法优化的创新路径,进一步降低了训练成本,为大模型的大规模应用提供了前所未有的可能性。DeepSeek在1月20日正式发布了其R1模型,并同步开源了模型权重。在第三方的基准测试中,DeepSeek-R1的表现优于OpenAI、Meta和Anthropic等美国领先的人工智能公司。在AIME2024数学基准测试中,DeepSeek-R1的成功率高达79.8%,成功超越了OpenAI的o1推理模型。在标准化编码测试中,DeepSeek-R1更是展现出了“专家级”的性能,在Codeforces上获得了2029Elo的评级,并超越了96.3%的人类竞争对手。同时,DeepSeek-R1真正令人瞩目的地方并不仅仅在于其卓越的性能,而在于其极低的成本。它打破了硅谷传统的“堆算力、拼资本”的发展路径,仅用557.6万美元和2048块英伟达H800 GPU便完成了性能对标GPT-4o的模型训练,成本仅为OpenAI同类模型的十分之一,推理成本更是低至每百万Token 0.14美元,而OpenAI的推理成本则为7.5美元每百万Token。

  与专有模型不同,DeepSeek-R1的代码和训练方法均在MIT许可下完全开源,这意味着任何人都可以无限制地获取、使用和修改该模型。全球开发者对DeepSeek-R1的贡献代码使其推理效率每小时提升0.3%,这一开放性的举措极大地激发了业界的创新活力。DeepSeek-R1在芯片资源利用、算法复杂性和推理速度上实现了重大突破,为AI行业的发展树立了新的标杆。

  DeepSeek-R1的崛起和其所展现出的成本优势和开源策略,一度让华尔街对传统的“烧钱”信仰产生了怀疑。

  1)首先是算法层次的创新。他们采用了新的 MoE 架构,使用了共享专家和大量细粒度路由专家的架构。通过将通用知识压缩到共享专家中,可以减轻路由专家的参数冗余,提高参数效率;在保持参数总量不变的前提下,划分更多的细粒度路由专家,通过灵活地组合路由专家,有助于更准确和针对性的进行知识表达。同时,通过负载均衡的算法设计,有效地缓解了传统 MoE 模型因负载不均衡带来训练效率低下的问题。

  2)其次在系统软件层次的创新。DeepSeek采用了大量精细化的系统工程优化。例如,在并行策略方面,采用双向流水的并行机制,通过精细的排布,挖掘了计算和通信的重叠,有效的降低了流水并行带来的气泡影响;在计算方面,采用 FP8 等混合精度进行计算,降低计算复杂度;在通信方面,采用低精度通信策略以及 token 路由控制等机制有效降低通信开销。

  DeepSeek-R1的成功或许证明,未来的AI竞赛将不再单纯依赖于芯片的纳米级较量,而是算法效率、生态活力与政策弹性的多维度博弈,AI行业的发展将呈现出更加多元化和复杂化的变化趋势,有望带来AI行业的繁荣。

  更强的性能,更低的训练与推理成本,将加速推动AI应用与硬件的普及和落地。虽然更低的训练与推理成本减少了当前的算力需求,但是并不意味着AI的未来发展对半导体整体需求的减少,相反由于其模型架构、基础设施数据等方面的优化,以及更低的成本,使得其更加容易布置在端侧,从而加速AI的普及。AI能力边际的扩张依然需要依赖更大的模型和强大的算力,DeepSeek在算法和架构上的创新给AI的发展增加了一条新的道路。

  Scaling laws指出,模型的性能伴随着三个关键因素的增加而提升,即:模型参数量、训练数据量、计算资源,且性能和资源之间存在对数线性关系,DeepSeek的技术创新表现在很多方面。

  模型架构的创新:以DeepSeek V3为例,采用了先进的 MoE 架构,具备 6710 亿总参数,但每次仅激活 370 亿参数,从而实现了高效的资源利用。与传统的全参数激活模型相比,MoE 动态激活机制明显降低了计算资源的需求,同时保持了高性能。DeepSeek 提出的多头潜注意力 (MLA) 在不牺牲模型质量的前提下,大幅减少了KV缓存的大小。MLA 的核心思想是将键和值向量的计算分解成两个步骤,并在推理过程中只缓存中间的“潜向量”,而不是完整的键和值向量,大幅提升效率,降低推理成本。其他架构上的创新还包括:多令牌预测,提升训练效率,推测性解码提高推理速度。使用多token预测(MTP)训练目标,提升数据效率。

  高效训练:DeepSeekV3在一个配备2048块NVIDIA H800 GPU的集群上进行训练,使用FP8混合精度加速训练。设计了DualPipe算法以实现高效的管道并行性,开发了高效的跨节点全对全通信内核,在训练过程中仔细优化了内存占用。完整训练仅需278.8万H800 GPU小时,展现高效成本效益。训练成本仅为557万美元。

  后续DeepSeek推出的R1,在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。

  强化学习:在过去的研究中,大型语言模型往往需要先进行监督微调(SFT),再结合强化学习来提升推理性能。然而,DeepSeek-R1-Zero直接用强化学习训练基座模型 DeepSeek-V3-Base,不依赖任何监督数据作为起点,证明了大型语言模型只要具备合适的奖励机制,就能纯粹依靠强化学习自主进化,学会复杂且深度的推理。而 DeepSeek-R1 通过冷启动数据和多阶段训练,使模型同时兼具高水平推理与高质量表达。

  蒸馏模型:据DeepSeek-V3的技术文档,该模型使用数据蒸馏技术生成的高质量数据提升了训练效率。通过已有的高质量模型来合成少量高质量数据,作为新模型的训练数据,从而达到接近于在原始数据上训练的效果。DeepSeek发布了从15亿到700亿参数的R1蒸馏版本。这些模型基于Qwen和Llama等架构,表明复杂的推理能力可以被封装在更小、更高效的模型中。蒸馏过程包括使用由完整DeepSeek-R1生成的合成推理数据对这些较小的模型进行微调,从而在降低计算成本的同时保持高性能。让规模更大的模型先学到高水平推理模式,再把这些成果移植给更小的模型。

  以上的创新主要是利用了更好的技术手段,解决很多实际“问题”,在理论应用和工程上打成平衡,体现了对transformer架构的深度理解,成功降低了对高端硬件的依赖,为AI的发展打开了一条新的道路。我们认为DeepSeek的创新并没有完全打破scaling laws,对于计算量,模型参数量和数据集大小,当不受其他两个因素制约时,模型性能依然与每个因素都呈现幂律关系。DeepSeek的创新为大模型的发展提供了新的“基准”,推动大模型发展进入新的阶段,AI大模型的效率革命已经到来,而算力依然是推动人工智能进步核心因素之一。

  (四)DeepSeek引领AI成本革命,算法突破有望促进算力需求正向循环

  DeepSeek-R1以超越美国顶尖模型的性能、更低的研发成本和较弱的芯片性能要求,引发了美国对其AI全球领先地位的担忧,同时也对科技公司在构建AI模型和数据中心上的巨额投入提出了质疑。在DeepSeek的冲击下,国内外大模型厂商紧急上线新模型,采取降价、免费等措施以证明自身的领先优势。同时,亚马逊、英伟达、微软等海外AI巨头纷纷上线部署支持用户访问DeepSeek-R1模型。2月1日,OpenAI发布全新推理模型o3-mini并首次向免费用户开放。这是OpenAI推理模型系列中最新、成本效益最高的模型。在定价方面,o3-mini每百万token的输入(缓存未命中)/输出价格分别为1.10美元/4.40美元,比完整版o1便宜93%。不过,o3-mini的性价比或依然不及DeepSeek。作为对比,DeepSeek的API提供的R1模型,每百万token的输入(缓存未命中)/输出价格仅分别为0.55美元/2.19美元。在o3-mini推出后,OpenAI CEO表示,中国竞争对手DeepSeek的崛起削弱了OpenAI的技术领先优势,并就开源与闭源的问题回应称,OpenAI过去在开源方面站在“历史错误的一边”,公司曾经开源部分模型,但主要采用闭源的开发模式,未来将重新制定开源战略。与此同时,国产大模型的降价浪潮仍在持续。1月30日,阿里云发布百炼qwen-max系列模型调整通知,qwen-max、qwen-max-2025-01-25、qwen-max-latest三款模型输入输出价格调整,qwen-max batch和cache同步降价,AI大模型行业竞争加剧。

  DeepSeek的成本突破不仅是大模型训练的从“硬件驱动”向“算法驱动”的范式拓展,更为普惠化应用打开了新空间,反映AI技术向实用化、低成本化演进。行业对算力的依赖相较之前发生了“结构性”而非“总量性”变化:DeepSeek的技术进步短期内或许能够局部缓解算力压力,但由于算法与算力的“螺旋上升”关系、应用场景的爆发式扩展以及数据增长的不可逆等特性,我们认为算力资源需求会从预训练端逐渐转移到推理端,DeepSeek的兴起不会削弱高端芯片需求,而会促使大模型发展进入“算法进步→模型复杂化→硬件升级”的正向循环。

  大模型成本优化与算力需求之间相互成就,高资源使用效率反而可能会增加算力的总消耗量。DeepSeek通过降低训练成本,提高训练效率,看似减少算力需求,但同时,大模型成本缩减意味着降低了企业的训练与推理门槛,即每单位成本所能提供的训练和推理服务更多了,算力效率提升有望激活更广泛的用户与应用场景,从而引发对更大参数以及更复杂的大模型迭代需求。算法优化(如模型压缩、蒸馏)确实能提升单次任务效率,但AI能力的边界扩展(如多模态、复杂推理、通用人工智能)仍依赖更大规模模型和更复杂计算。这可能会对均衡下的算力需求产生正面影响,整体算力需求不会减少而是更加旺盛,从而形成对硬件需求的新一轮推升,即步入“算法进步→模型复杂化→硬件升级”的正循环。

  微软首席执行官引用了“杰文斯悖论”来解释这一现象:Jevons在《煤炭问题》中发现,随着蒸汽机效率的提升,煤炭消耗量不降反增。其核心观点为:技术进步提高了资源使用效率,效率提高降低了资源使用成本,成本下降刺激了资源需求的增长,需求增长可能超过效率提升带来的节约,最终导致资源总消耗增加。在算力日益成为数字经济“水电煤”的今天,DeepSeek的技术方向与开源定位,恰恰是算力普及化革命的关键参与者。我们认为,大模型成本优化与算力需求并不是直接的此长彼消关系,而是互相搭台、相互成就,高资源使用效率反而可能增加算力的总消耗量。定价的持续走低有望带来更快的商业化落地,进而会衍生出更多的微调及推理等需求,将逐步盘活全球AI应用及算力发展。

  在OpenAI提供的O1模型后训练阶段的缩放定律显示,随着强化学习时间和推理思考时间的增长,O1模型性能得到显著提升。DeepSeek R1 系列模型推理过程包含大量反思和验证,思维链长度可达数万字。随着思考长度的增加,模型性能在稳步提升。Scaling Law已经从预训练向推理层转向。

  通过增加模型规模、扩展训练数据、提高计算资源以及合理的任务设计,可以加速模型学习更复杂的推理能力,这一过程遵循scaling law。随着模型规模、数据量和计算资源的增加,模型能够更好地进行推理。OpenAI的O1模型,以及其背后所强调的后训练(Post-training)和推理阶段 (Inference-time)的计算投入,正在重新定义我们理解AI模型性能增长的方式。通过模仿人类思考过程,进行多步骤、多路径的推理,最终选择最优的答案。这种“隐式思维链”(Implicit Chain of Thought) 的方法,需要在推理阶段投入更多的计算资源进行探索和评估。

  谷歌研究发现,当合理分配推理计算资源时,检索增强生成(RAG)的性能能够呈现近乎线性的增长,RAG在长上下文的大语言模型上的性能最高可提升58.9%。这意味着,模型的表现提升和投入的计算量几乎是成正比的,这种现象被称为推理扩展定律。也进一步印证了,在提升推理能力上,算力依然是最为重要的需求之一,无论其模型是开源或者闭源。

  未来的 AI 系统计算开销将更多地集中在推理服务上,而非单纯的预训练计算。这意味着算力基础设施的建设和优化需要重新思考,以满足日益增长的推理需求。在AI技术的实际应用落地过程中,用户感受最直观、最强烈的往往是推理环节的性能表现。虽然过去我们一直在强调大模型训练的重要性,但真正到了企业应用层面,推理的需求规模往往是训练需求的5-10倍。以字节为例,根据QuestMobile的数据,目前抖音集团旗下豆包app的月活跃用户达到了7522万,AI原生APP在24年12月的月活跃用户规模达到了1.2亿,同比增速达到232%。

  QuestMobile数据显示,2024年12月,AI原生App整体月人均使用时长达133.0分钟,较1月增加53.4分钟;月人均使用次数从1月的26.1次增加至49.6次。考虑到未来的潜在推理需求,预计将推动国内推理算力需求的持续增长。目前2024年豆包大模型的日均token调用量在40000亿左右,预估2025年日均token调用量将提升到最高40万亿,将大幅提升对推理算力的需求。国产算力寒武纪、海光信息等厂商有望受益。

  光芯片是光模块核心器件,应用场景较广。光芯片分为激光器芯片及探测器芯片,当前人工智能相关光模块内光芯片主要以VCSEL及EML芯片为主,高速率光芯片主要以VCSEL芯片为主,该款芯片具备线宽窄,功耗低,调制速率高,耦合效率高,传输距离短等特点,主要应用于500米内短距离传输,集中在数据中心机柜内布传输,消费电子等领域;EML芯片则由于其调制频率高,稳定性好,传输距离长等特性,广泛应用于长距离传输,高速率远距离的电信骨干网,城域网和DCI等领域,但其具备成本较高的特性,虽然可以部署于短距离传输市场中,但不具备性价比优势。

  光芯片市场规模持续提升,推理侧算力部署加速及国产化进程加速有望直接带动行业增长。随着云计算、大数据、人工智能等技术的快速发展,对高速、高效、低能耗的数据传输需求日益增长,光芯片的市场需求也随之增加,推动全球光芯片市场规模持续扩大。根据中商产业研究院发布的《2024-2029年全球及中国光芯片行业发展趋势与投资格局研究报告》显示,2023年全球光芯片市场规模约27.8亿美元,较上年增长14.4%。中商产业研究院预测,2024年全球光芯片市场规模将达到31.7亿美元。随着国产替代的加速推进,中国光芯片市场规模持续增长,并展现出强劲的发展势头。中商产业研究院发布的《2024-2029年全球及中国光芯片行业发展趋势与投资格局研究报告》显示,2023年中国光芯片市场规模约为137.62亿元,较上年增长10.24%。中商产业研究院预测,2024年中国光芯片市场规模将增长至151.56亿元。从国产化率来看,国内相关企业仅在2.5G和10G光芯片领域实现核心技术的掌握,2.5G及以下速率光芯片国产化率超过90%;10G光芯片国产化率约60%;25Gbs及以上的光芯片国产化率低,仅有4%。预计随着推理侧算力部署的逐步增多,以及后训练算力的规模提升,相对较低速率光芯片市场空间将进一步提升,在我国光芯片相关企业有望直接受益。

  1)强化国产算力产业链:为中国AI发展带来新机遇,为中美科技竞争增添变数。DeepSeek-R1/V3支持华为昇腾平台及MindIE引擎,自研推理加速引擎使硅基流动与华为云昇腾服务上的模型效果媲美高端GPU,同时减少相关成本。这一突破为AI生态提供自主多元化方案,助力我国本土芯片厂商商业化落地,促进高效能AI的普及。

  2)提升中国AI国际影响力:DeepSeek-R1的开源实践标志着开源模式对闭源模式的一次重要胜利,这一开源模式对社区的贡献能够迅速转化为整个开源社区的繁荣。中小企业和个人开发者等长尾市场原本因成本限制无法参与的领域(如小规模模型微调、实验性研究)将被激活,形成分散的算力需求增量,产业或将迎来结构性变化,有望为AI技术的多元化创新增添更多可能性。同时,AI加速走向千行百业,智能驾驶、机器人、元宇宙等新兴领域对实时计算和低延迟的高要求,将持续助推高算力需求。DeepSeek迅速吸引了全球开发者瞩目,曾短时间内即在苹果中国及美国应用商店免费应用下载榜超越ChatGPT登顶,彰显了中国AI技术以更开放姿态融入全球。未来创新将聚焦于效率、开放性和生产力转化,DeepSeek或成全球AI科技发展转折点。

  虽然DeepSeek的推出,对降低推理侧成本带来巨大降低,但我们大家都认为推理侧的成本降低,将显著带来训练测迭代的加速,由于推理侧成本的降低,应用场景落地或将进一步加速,推动推理侧模型效率的进一步提升,从而带动通信行业相关方向的持续性繁荣。故而我们维持此前对通信细分子领域运营商、光芯片、光模块的推荐方向,认为DeepSeek的推出,运营商作为我国最大的流量管道,具备数据优势及接口优势,AI应用的普及将持续推进,同时,更强训练模型的未来需求将带动光模块产业链快速发展,在全球经济形势复杂化趋势下,核心器件光芯片等方向自主可控进程进一步加速。

  未来5年数通市场的增长驱动力主要来自400G以上高速率光模块的需求。全球云计算服务提供商对计算能力和带宽需求的持续增长,以及他们在服务器、交换机和光模块等硬件设备上的资本支出的增加,将推动光模块产品向更高速率的800G、1.6T甚至更高端产品的迭代升级。根据我们估算,全球光模块400G客户主要集中于亚马逊(约45%)和谷歌(约25%)、800G主要集中于英伟达(约50%)、谷歌(约30%)和Meta(约20%)等,2025年1.6T光模块的主要需求方预计将是英伟达和谷歌。在GTC 2024大会上,英伟达发布了其最新产品GB200,其服务器与交换机端口速率也实现了翻倍提升,更有望引领AI光模块从现有的800G向更高性能的1.6T升级。此外,英伟达明确了2026年将使用1.6T网卡,对应3.2T光模块需求,明确了光模块升级迭代的节奏。LightCounting预测,到2029年,400G+市场预计将以28%以上的复合年增长率(每年约16亿美元以上)扩张,达125亿美元。其中800G和1.6T产品的增长尤为强劲,这两个产品共占400G+市场的一半以上。与此同时,200G以下速率光模块产品的市场规模预计将以每年约10%的速度缩减。光模块头部厂商产品的高度可靠性、领先的研发实力及交付能力等优势将进一步凸显,行业集中度有望进一步提高。因此,那些能够与客户同步研发、快速融入客户供应链,并能提前把握客户需求的光模块厂商,将有机会在产品更新换代时抢先获利。

  高速光模块的应用导致网络设备功耗大幅增加,硅光等新技术加固护城河。在以400G和800G光模块为典型配置的51.2T和100T交换机中,光模块加驱动SerDes的功耗占比在40~45%。预计到2030年,在400G+SerDes和6.4T光模块代际时,OSFP光模块功耗、SerDes驱动距离将成为很难突破的瓶颈。据统计2010-2022年全球数通光模块的整体功耗提升了26倍,2024年800G光模块正式放量后该问题更为突出,这种能耗增长对智算中心的运营成本构成了重大压力,降功耗成为光模块技术发展的核心诉求之一。硅光技术利用现有的CMOS工艺将光器件与电器件开发和集成到同一个作为光学介质的硅基衬底上,令光电处理深度融合,较传统分立器件更能发扬“光”(高速率、低功耗)与“电”(大规模、高精度)的各自优势。目前由于良率和损耗问题,硅光模块方案的整体优势尚不明显,在功耗、速率、成本、体积四个方面的突破是未来新技术发展的重点方向,也是未来光模块厂商竞争力的体现。根据LightCounting的预测,使用基于SiP的光模块市场份额将从2022年的24%增加到2028年的44%,硅光有望凭借硅基产业链的工艺、规模和成本优势迎来产业机遇。

  LPO和CPO技术在功耗及成本上也各具明显优势,或成未来发展方向之一。LPO(线性驱动)技术通过移除DSP降低了光模块的成本和功耗,以400G光模块为例,其7nm DSP的功耗约4W,占模块总功耗的一半,而BOM成本则占20-40%,无DSP的LPO在功耗和成本上更具优势。然而,由于DSP的功能不能完全由TIA和驱动芯片替代,LPO可能会增加误码率,进而缩短传输距离。因此LPO更适合短距离应用,如数据中心内部服务器与交换机的连接,以及机柜间的连接。而在CPO(光电共封装)技术中,光学组件被直接封装在交换机芯片旁边,进一步缩短了光信号输入和运算单元之间的电学互连长度,在减少信号损耗问题的同时实现了更低的功耗,还有助于缩小设备体积,使得数据中心的布局更加紧凑。LightCounting统计,CPO出货预计将从800G和1.6T端口开始,并于2024至2025年开始商用,2026至2027年开始规模上量,CPO端口在2027年800G和1.6T出货总数中占比预计达约30%。

  在光电子器件方面,随着算力资源的广泛部署及其网络基础设施建设的加速推进,MTP、MPO这类密集连接的典型产品,以其独特的高密度设计显著降低了布线成本,同时增强了系统的可靠性和可维护性,为数据中心的长期发展提供了有力支持,需求展现出快速增长的态势。此外,传输速率的显著提升也驱动了光有源器件光口向多通道方向的快速发展,进而带动了市场对多通道密集连接器件产品的需求增长。在此背景下,研发、制造MTP、MPO等高密度光网络关键无源器件的企业将显著受益。太辰光是全球最大的密集连接产品制造商之一,其中MT插芯及部分无源光器件产品的技术水平在细分行业处于领先地位,公司凭借产品的高性价比优势,有望进一步提升在产业链的市场份额。

  目前在数据中心和算力点内部,美国已经完成400G光口向800G光口的演进,正在向1.2T、1.6T推进。我国目前仍然以400G光口为主,预计明年800G光口成为主流。因此在数据中心、算力点和算力集群之间迫切需要400G/800G光传送设备进行承载和传输。德科立在长距离光电子器件产品上不断推陈出新,在宽谱放大器、小型化可插拔放大器、高速率长距离相干和非相干光收发模块等领域保持较强的技术优势,有望随数据中心互联互通的建设升级而迎来更加广阔的发展空间。

  TSV(硅通孔)技术是硅光芯片封装中的关键技术,其通过在硅片中创建垂直通道实现光芯片与电芯片间的高效电互连,促进了高密度集成和3D堆叠,增强了光电混合集成的性能和可靠性,对提升硅光芯片封装技术至关重要。晶方科技作为全球晶圆级芯片尺寸封装服务的主要技术引领者,拥有包括TSV在内的多样化先进封装技术,具备8英寸、12英寸晶圆级芯片尺寸封装技术规模量产封装线,有望在提升高端光模块性能方面发挥关键推动作用。

  LLM单纯云端部署(例如ChatGPT)并不广泛接受。如下图统计所示,88%的参与者倾向于边缘-云协作架构,其中58.33%支持本地部署,81.82%对现有的仅云端解决方案不满意。他们的主要担忧是:1)远程大型语言模型服务的高延迟,2)将个人数据传输到云端的风险,3)云端大型语言模型服务的成本。

  2023年边缘大型语言模型开始陆续爆发,当时出现了几个参数量低于10B的模型,使其能在边缘设备上运行,包括meta的LLaMA系列,微软的Phi系列,智谱的ChatGLM,阿里巴巴的Qwen等。进入2024年创新步伐加快,边缘端部署的优势是能够缩短响应时间,并直接应用在如手机、汽车、可穿戴设备上。2022年至2032年,按终端用户划分的全球设备边缘人工智能市场规模。市场将以25.9%的复合年增长率增长,预计2032年的市场规模为1436亿美元。

  尽管在边缘端部署大模型有诸多优势,但考虑到端侧有限的计算能力、存储能力和能源限制等,使得直接部署基于云端的LLM困难重重。再评估设备端大型语言模型的性能时,有几个关键指标需要考虑:延迟、推理速度、内存使用、存储和能耗。通过优化这些性能指标,设备端大型语言模型能够在更广泛的场景中高效运行,提供更好的用户体验。同时针对边缘设备的部署,在保持性能的同时提高计算效率至关重要,通过量化、剪枝、知识蒸馏和低秩分解,这些方法通过平衡性能、内存占用和推理速度来提高大语言模型的运行效率,确保其在设备端应用中的可行性。

  近年来,人工智能技术的迅猛发展和移动设备硬件的不断升级,使得在边缘设备上部署大型语言模型成为可能。作为人们日常生活中最常用的设备,智能手机上的语言模型引人注目。目前,全球主要手机品牌已开发并发布了多款先进的模型,这些模型采用设备端部署或设备-云协同策略。

  设备端语言模型正开启一个智能、响应迅速、个性化应用的新时代。通过将先进的自然语言处理能力直接引入用户设备,这些模型正在改变人们与技术互动的方式。从即时消息建议到实时语言翻译,从保密医疗咨询到尖端自动驾驶汽车。在资源受限设备上部署LLM面临独特挑战,这些挑战与传统的基于云的实施有显著不同。这些挑战涉及多个领域,包括模型压缩、高效推理、安全性、能源效率,以及与多样化硬件平台的无缝集成等。

  人工智能技术的快速发展,“AI+”已经成为推动全球创新和经济增长的重要力量。相比24年AI基础设施相关个股业绩和股价的一骑绝尘,2025年则可能是“AI+”百花齐放的开始。根据QuestMobile的数据,当下LLM的落地应用在网页端、移动端都已比较成熟,正逐步拓展至智能硬件端,不断深入用户日常生活并提供更自然便捷的交互体验。

  从硬件产品来看,手机是目前LLM最成熟的落地硬件载体之一,除手机外,AI硬件首先以市场成熟品类为切入点,如耳机、眼镜、智能音箱等。QuestMobile数据显示,2024年10月,智能穿戴行业在AI APP用户中渗透率33.4%,TGI达296。

  AI正在内容、应用、硬件、生态上影响世界,AI智能体已从“数字”走向“具身”;随着市场发展,大模型更广泛地接入硬件产品,做好软硬件协同发展是未来竞争的关键。

  AI技术可以赋予IoT“人工智能大脑”。物联网可以将人与物、物与物连接成为一个整体,通过IoT智能设备生成海量数据;AI技术可以对海量数据进行深度学习、判断用户的习惯,提升用户体验,两者相辅相成,推动“万物互联”向“万物智联”进化。ChatGPT的出现使得人工智能技术在语言交互方面的应用更为广泛,近日推出的插件功能,将进一步促进AI技术和其他产业的融合,AloT产业也将在AI技术升级的推动下不断发展。具身智能将是AI终端的最终形态,具身智能的核心在于如何理解世界、对世界进行建模,并基于此进行行为的决策以及与环境进行交互。大语言模型从本质上,只有数据和算法的迭代,而具身智能则需要把本体也一起囊括进来,需要本体、算法和数据一起联合迭代、优化和进化。

  随着多模态大模型和世界模型(WMs)的出现,这些架构因其出色的感知、交互和推理能力而被视作具身代理的“大脑”。机器人可以通过接入大模型直接理解人类的自然语言指令,并将其转化为具体的行动。而当前我们依然处在“具身智能”的初级阶段,即智能硬件。AI+硬件也是未来3-5年消费电子的主要发展方向,值得关注。

  国内互联网厂商包括科技公司等持续深度布局AI硬件赛道,通过AI软件+硬件的结合来推动AI的落地。

  总体来说,DeepSeek通过在算法与工程侧的深度耦合,把相同的算力资源利用率最大化,所以我们看到单次训练成本有显著下降。

  DeepSeek将加速AGI时代到来,AIAgent将成为通往AGI的基石。DeepSeekR1是人工智能革命下里程碑式的产品,对标OpenAI的o1模型,并且在强化学习的推动下,展现出了此前未曾预见的推理能力,同时通过工程与算法等深度耦合,大幅降低成本,让大模型更易触达下游厂商。并且DeepSeek开源其模型预示着开源社区正以全新的方式推进人工智能技术的发展,加速通用人工智能时代到来并推动AI Agent技术更加成熟。

  AI Agent是一种能自主感知周遭环境,通过内在的智能处理进行决策,并执行相应行动以达成特定目的的智能体。它基于大型语言模型(LLM),集成了规划、记忆、工具和行动能力。从智能助手、个性化推荐系统到自动化客户服务,AIAgent的应用案例层出不穷,它们在各行各业中展现出巨大的潜力和价值。

  AI代理的工作流程比传统的LLM交互方式更高效:通过迭代式的AI代理工作流程(例如:先写提纲,再进行网络搜索,再写初稿,再修改),可以显著提高AI模型的输出质量,其提升程度甚至超过了模型本身的迭代升级。

  未来人工智能发展关键在于推理,Capex逐渐转向经营性性质。传统训练任务的Capex是研发型投入,而近期OpenAI发布的GPT-o1所采用的推理模型,是被设计用来处理长时间的思考和多步骤的复杂任务,为用户的决策提供支持,GPT-o1在推理过程中的成本被描述为数百万甚至数十亿级别的提升,这预示着未来AIAgent广泛渗透时,对于推理算力的需求将是指数级爆发增长,推理的Capex的日常经营性质越发明显。AIAgent推理和规划的能力由LLM来实现,推理和规划赋能Agent学习能力,可以积累知识和经验,并且Agent可以对过往的数据和动作进行反思总结,从错误中吸取经验,并为接下来的行动进行纠正,从而适应环境、更有效地执行任务并成功达成目标。

  DeepSeek推动AIAgent快速进化,AI应用进入新时代。当前,伴随全球数据量维持高速增长,为AIAgent发展提供数据资源。未来五年,全球数据量将维持增长,2022年,全球数据规模已达到103ZB,中国数据规模达到23.9ZB;预计2027年,全球数据规模可达到284.3ZB,近五年的CAGR可达到22%,中国数据量规模则可达到76.6ZB,近五年的CAGR为26%,超过全球增长速度。国产大模型自2023年7月开始进行密集发布,截至2023年7月,国产大模型累计数量达到300个,并且涉及金融、法律、教育、医疗、娱乐等多个垂直细分领域。

  在AI技术的全球竞争中,以DeepSeek、Kimi、豆包等为代表的国产大模型凭借其前沿的技术创新与精准的场景化应用,正强势突围。在C端,用户渗透率不断提升,主要AI APP活跃数据持续环比增长;在B端,AI营销等领域的商业化模式已经逐步得到验证。我们大家都认为,DeepSeek-R1通过强化学习实现了低成本与高性能的结合,其发布并开源为行业生态发展带来了新的可能性,并且有望加速推动在影视、广告、社交陪伴等多个领域应用落地。

  2)2.0阶段——生成式AI出现:随着人工智能的不断发展,AI的能力不再仅限于对被动输入信息的接受和分析,而是具备了一定的主动输出内容的能力。在这一发展进程中,Transformer和Diffusion Model这两个算法模型对推动生成式AI的发展起到了重要的作用。目前的生成式AI已经可以自主生成文本、图片、视频等多种模态的信息。

  在人工智能的发展过程中,开源的生态起到了重要的作用:头部AI公司引领着各项技术向前,并使得后来者能够了解到最新的技术进展并发展相关的技术应用,而技术应用又进一步促进AI技术的发展。我们大家都认为,DeepSeek推出的开源推理模型具备显著的成本优势,大幅降低了企业接入门槛,有利于应用端的开发创新,将极大地推动AI应用生态的蓬勃发展。

  在开源生态的大背景下,随着相关技术的不断迭代,我们认为AI Agent有望成为AI浪潮的下一个发展方向。AI Agent将进一步改变人们的日常生活:AI Agent不仅能够提高工作效率,优化资源配置,还将在个性化服务、智能决策支持等方面发挥重要作用,有望成为推动社会进步和创新的关键。目前,头部互联网大厂相继在AI Agent领域积极布局,我们认为凭借其强大的技术资金实力、丰富的数据资源和庞大的用户基础正开启追赶模式,潜力巨大。

  AIGC有望在影视生产全环节得到广泛应用。前期策划阶段,AIGC可根据电影主题、风格、人物等要素自动生成剧本草稿。此外,AI还可以辅助分镜制作,提供视觉参考,从而加快电影前期准备工作。电影制作阶段,多模态AI可以低成本地生产图片、音频、视频等素材,从而提供更多元的内容供给。AI技术还可用以辅助场景生成,特效制作等环节,从而为影片带来更逼真的视觉效果和更丰富的细节。AI工具还为视频处理提供了有力的工具,大幅降低了视频去除噪点、模糊、抖动,提升画质,提取关键镜头的剪辑难度。

  此外,AIGC还可用以进行风格迁移,从而加速电影IP向周边商品、漫画、游戏等媒介的落地。宣发阶段,AI模型可根据用户画像定制优化预告片、海报及展示的评论等。同时结合虚拟数字人技术,发行商有望以极低的成本实现映前观众与电影人物的“面对面”交流,从而持续地在维持电影话题热度。

  当前,AIGC蓄势待发,预备在影视行业掀起新一轮的技术变革和竞争力洗牌,国内各大平台与影视公司也在AIGC的应用研究与业务协同上开启了应对未来的准备。从《斗罗大陆》《吞噬星空》到《三体》《遮天》,腾讯视频在视效技术规模化运用和长期投入方面展现出了灵敏的嗅觉。自AIGC出现后,腾讯视频在动画行业中也开始探索二维和三维界限的打破。我们认为,未来通过借助三维工业化流程和AIGC的辅助,如文生图、图生图、文生视频的能力,行业难题有望被突破,二维动画的效率和产能将有进一步的提升。

  游戏作为集合了文字、图像、声音、视频等内容形式的商业化应用,有望更好地在研发端利用多模态大模型的能力,AI对游戏行业的长期催化作用值得看好:经过技术探索和商业化落地,AIGC技术已被广泛应用在游戏资产生成,仿真场景渲染等多个环节。遵循供给端降本增效,需求端革新交互体验,挖掘用户付费意愿的逻辑,我们认为,AI技术将通过AIGC工具(绘画工具、文本创作、语音合成等)和AI工具来对游戏行业全产业链条进行重塑:

  1)创作端:传统的游戏创作端存在着资源生成效率低、成本高昂的痛点。特别是在美术资源的制作上,高质量的3D模型和纹理的创作往往需要大量的手工艺术家工作时间,这不仅使得游戏开发周期延长,而且大幅度增加了开发成本。在AI技术的加持下,游戏创作将在自动化内容生成(如AIGC绘画工具和3D模型生成)方面发生根本性的变革。具体而言,AIGC可以通过生成算法自动生成地图、关卡设计、任务等游戏内容,分析玩家数据并进行游戏平衡性调整等,提高开发效率和游戏多样性。

  2)运营端:在游戏运营方面,AI技术可以通过智能NPC、智能BOT和掉线托管等应用,解决现有运营工作杂、营销转化弱的难题。例如,AI可以帮助处理违规审判,通过学习判断何为游戏内的违规行为,自动化处理大量的审判工作,减轻运营团队的负担;AI也能实现平衡匹配,通过分析玩家的技能水平和游戏习惯来优化匹配算法,从而提供更公平、更有趣的游戏体验;同时,对局陪伴系统能够为玩家提供虚拟的游戏伙伴,增强游戏的社交和互动性。在游戏营销方面,AIGC可以通过用户行为分析、客户服务与反馈、营销预测和广告优化等方式,提高营销效果和ROI。

  我们认为:AIGC技术目前已经能从语言、语气等多方面深入洞悉人类的多种情感,同时作出判断给予不同的情感价值和需求。无论是在增强用户体验方面,还是拓展更多个性化的服务等方面,都具有丰富的想象空间,AI陪伴未来可能是成为工作中最得力的助理,也是最了解用户习惯的销售员,进一步的创新有望开发商业化应用落地。

  人工智能(AI)技术的应用领域不断拓展,电商行业也在积极探索新的AI应用,以保持竞争力并满足消费者日益增长的期望。最初,电商平台采用聊天机器人提供24/7客户服务,解答用户问题并处理订单查询。通过自然语言处理技术,系统能够理解用户意图,提供更准确的服务。此外,预测分析工具被用于预测产品需求,优化库存水平,减少积压和缺货现象。AI还被应用于供应链管理,提高物流效率等B端场景。在C端方面,Google、OpenAI等公司正积极布局AI与搜索在电商中的应用。通过对大量数据的深度学习,分析客户的潜在消费需求,实现精准推荐。

  我们认为,生成式AI(AIGC)正在重塑电商格局。在生产端,AIGC辅助商家拓展业务,降低销售和运营成本。在消费端,购物模式将从“人找货”过渡到“货匹配人”,最终实现“货找人”,这将带来巨大的消费增量。

  AI 技术被用于分析消费者的行为数据,生成用户画像,并根据这些数据进行精准广告定向投放(如 Facebook、Google 广告), 更有效地提高广告的点击率和转化率,减少广告浪费,提升广告主的投资回报率(ROI)。同時, AI 可以自动生成与用户相关的个性化内容,如广告文案、电子邮件和社交媒体帖子。基于用户的兴趣、行为模式生成个性化营销信息, 增强与消费者的互动,提高品牌忠诚度和参与度。

  我们认为,AI已经重塑了营销行业的生态。它不仅为营销人员提供精准的数据支持,助力营销策略的制定和优化,还推动了“一人多面”的个性化营销,使针对每个用户生成定制化的内容和服务成为可能。同时,AI保持了大规模营销活动的高效执行,实现了个性化与规模化生产的平衡。

  (一)电子板块:Scaling Laws转向后训练,计算效率提升至关重要

  我们乐观看待DeepSeek创新对电子行业带来的改变。我们总结以下几条结论:

  1, 我们认为DeepSeek的创新并没有完全打破scaling laws 。DeepSeek模型具有更强的性能,更低的训练与推理成本,将加速推动AI应用与硬件的普及和落地。虽然更低的训练与推理成本减少了当前的算力需求,但是并不意味着AI的未来发展对半导体整体需求的减少,相反由于其模型架构、基础设施数据等方面的优化,以及更低的成本,使得其更加容易布置在端侧,从而加速AI的普及。AI能力边际的扩张依然需要依赖更大的模型和强大的算力,DeepSeek在算法和架构上的创新给AI的发展增加了一条新的道路。

  2, Scaling laws正在从pre-training转向post-training和推理,通过增加模型规模、扩展训练数据、提高计算资源以及合理的任务设计,可以加速模型学习更复杂的推理能力,这一过程遵循scaling law。随着模型规模、数据量和计算资源的增加,模型能够更好地进行推理。

  3, 针对边缘设备的LLM部署,在保持性能的同时提高计算效率至关重要,通过量化、剪枝、知识蒸馏和低秩分解,这些方法通过平衡性能、内存占用和推理速度来提高大语言模型的运行效率,有利于AI硬件端的落地与普及。我们看好AI应用持续落地带来的传统消费电子的换机周期,苹果产业链值得关注,同时看好AI终端硬件如耳机、眼镜、桌面机器人、小家电、周边硬件等。

  运营商盈利能力、现金流资产不断改善、资产价值优势凸显,持续增加分红回馈股东,相对历史估值和国外水平,通信运营商均处于估值低位。总体来说,运营商业绩持续增长或超预期,5G“收获期”大有可为。当前运营商云业务发展如火如荼,DeepSeek对于成本端的降低有望协同运营商云业务部署以及运营商的海量数据资产,推动运营商第二曲线的快速增长。

  AIGC引领新一轮科技革命,DeepSeek对于成本端的降低或将推动应用端的繁荣,继而反哺推理侧模型的快速迭代,推动应用端的进一步发展。光模块100G/200G→400G→800G→1/6T迭代速率持续提升,带来产品量价齐升有望延续,带来业绩高增持续可期。同时国内的算力部署有望推动国内光模块产业链景气度提升,带来较强的规模效应。

  DeepSeek对于成本端及训练精度的降低或将使得推理侧对光芯片的技术需求产生一定放松,国产光芯片在推理侧算力部署中具备成本优势且技术可靠性较强,产业链渗透率有望跟随推理侧算力部署的增加而有所上升,同时在复杂国际形势下,海外芯片采购难度预计将提升,国产光芯片在推理侧部署的可靠性及成本优势将进一步提升自身在采购链条中的话语权。

  DeepSeek的爆火和推广,有望加速全球AI产业链的发展。DeepSeek的技术突破将显著降低高质量AI模型的训练成本,有望加速AI技术的普及和应用。成本的降低使得企业可以将更多资源投入到AI技术研发和应用开发中,加速AI技术的创新和迭代以及AI市场的繁荣。短期而言,DeepSeek的技术创新可能对以GPU为代表的高端算力的芯片企业产生压力,市场预计会从单纯追求高端算力马太效应企业,转向更加注重技术创新和成本控制的企业和项目,但中长期来看,“杰文斯”悖论再次到来,技术进步反而推动资源使用总量上升,DeepSeek将推动算力需求总量提升。当模型的成本越低,开源模型发展越好,模型的部署、使用就会更高频率、更多数量,对算力的需求将越来越大,我们认为,当下投资中的结构性机会主要体现在“从训练算力为主到推理算力为主过渡”、“从高端GPU到ASIC芯片过渡”,以及“从基础设施投资机会向应用侧投资机会过渡”。

  DeepSeek的技术创新显著降低了模型训练成本,同时提升了推理效率。这种变化推动了AI产业从以训练算力为主向以推理算力为主过渡。随着推理需求的增长,ASIC(应用特定集成电路)和LPU(语言处理单元)等专用芯片将逐渐取代部分GPU市场份额。此外,推理算力的增长将推动边缘计算设备的需求,边缘侧设备能够直接在本地运行轻量化大模型,减少对云端的依赖,降低延迟和带宽成本,边缘算力机会逐渐凸显。

  DeepSeek的低成本、高性能模型展示了ASIC芯片在特定任务中的优势。ASIC芯片通过定制化设计,能够实现更高的能效比和更低的推理延迟。例如,DeepSeek的LPU+R1模型在运行7B蒸馏模型时,推理延迟仅为50ms,功耗约30W,而英伟达A100GPU运行175BGPT-3模型时,推理延迟约350ms,功耗约300W,ASIC芯片的崛起将为相关ASIC制造商以及AIOT端侧只能硬件带来新的增长机遇。

  DeepSeek的技术创新不仅降低了模型训练成本,还推动了AI技术在更多领域的应用。其开源策略和低成本模型使得更多企业和开发者能够使用先进的AI技术,加速了AI技术在各行业的应用和发展,相应的投资机会:

  1)AI应用开发:随着AI技术的普及,应用开发将成为新的投资热点。投资者可关注在教育、医疗、金融、办公等领域有技术积累和市场优势的AI应用开发公司。

  2)数据服务与处理:高质量的数据集是训练高效AI模型的基础,数据的获取、处理和应用将成为AI应用的关键。投资者可关注数据采集、存储、处理和分析等环节的技术和服务提供商。

  (四)传媒板块:DeepSeek加速AI向低成本发展,看好AI+应用落地

  DeepSeek-R1通过强化学习实现了低成本与高性能的结合,其发布并开源为行业生态发展带来了新的可能性,并且有望加速推动在影视、广告、社交陪伴等多个领域应用落地。建议关注与C端用户体验密切相关的行业:1)AI+游戏:游戏内NPC互动、互动影游;2)AI+影视:赋能生产全环节;3)AI+营销:精准推送,重塑生态;4)AI+专业咨询:情感陪护,应用场景专业解答等。公司层面,建议关注头部互联网大厂。

  1. 国际经济形势复杂度进一步提升的风险:国内外政策和技术摩擦不确定性,经贸关系面临诸多挑战,直接影响各国贸易往来以及全球经济稳定发展。

  2. AI产业链上下游短期波动的风险:若未来上游原材料的价格受到宏观经济、贸易摩擦等因素的影响而产生大幅波动,将会对科技行业上市公司的经营业绩造成不利影响。

  3. AI硬件发展速度不及预期的风险:据技术发展的趋势和下游客户的需求,不断升级更新现有产品,并研发新技术和新产品,从而保持技术的先进性和产品的竞争力。如果产品研发进度未达预期或无法在市场竞争中占据优势,AI硬件或将面临新产品研发失败的风险,前期的研发投入也将无法收回。

  4. AI应用发展不及预期的风险:目前AI仍处于早期加快速度进行发展迭代阶段,技术研发进展存在不确定性,在应用端落地速度存在没有到达预期的风险。

  本文摘自:中国银河证券2024年2月3日发布的研究报告《【银河科技】科技行业专题报告:DeepSeek-技术颠覆or创新共赢》

  评级标准为报告发布日后的6到12个月行业指数(或公司股价)相对市场表现,其中:A股市场以沪深300指数为基准,新三板市场以三板成指(针对协议转让标的)或三板做市指数(针对做市转让标的)为基准,北交所市场以北证50指数为基准,香港市场以恒生指数为基准。



上一篇:联合微电子中心专利突破AI助力设计﹃光﹃未来 下一篇:芯片概念净利润增加最高的10家公司(值得保藏)

Copyright © 2014 企鹅电竞网页版入口_官网网址 Kuangtong Electric(China) Co.,ltd All Rights Reserved

鄂公网安备 鄂ICP备14019055号-1