华泰证券:Agent叙事强化,算力与SaaS分化加剧

来源:华泰睿思

本文梳理近一个月国内外AI领域的进展,包括国内模型、海外算力(核心股、AI应用、AI4S的重点应用与投资方向、AI Coding 等。

核心观点

国内模型:Agent能力持续演进,关注DeepSeek多模态进展

本月国内模型的进展包含多模态、多Agent和上下文学习三条主线。DeepSeek推出DeepSeek-OCR 2,聚焦图像到文本转换与视觉推理,我们关注到视觉侧能力与文本侧主干的融合路径更清晰,有望推动DeepSeek下一代模型向更完整的多模态能力扩展。Kimi K2.5提出Agent Swarm并行Agent显著提升复杂任务效率,我们认为K2.5以“多模态内置+并行智能体”的组合,提升了其在企业级长流程任务中的落地效率与适配范围。腾讯提出CL-bench,量化揭示大模型临时学习能力不足,指出提升模型能力需兼顾上下文窗口与复杂度处理,有望指导后续模型提高上下文学习能力。

海外算力(核心股:Agent主线强化,CSP Capex持续上修

我们判断Agent渗透是下一个token加速点。Agent产品迅速进展的本质是模型在长链任务能力上跨越“奇点”,25年年底发布的模型在长链任务能力上完成了显著的跨越,我们认为这是目前Agent能力提升的根本因素。Agent的推理范式是复杂流程、连续执行的,算力(核心股消耗较大,我们预计26年将成为AI Agent推理端从“能力验证”走向“Agent规模化应用”的关键拐点年。本月海外大厂陆续公布业绩,Capex持续增长,AI需求表述乐观。我们关注到NPO方案下的“光进机柜”雏形初现,建议关注后续GTC大会催化。

AI应用:云厂业绩加速兑现,静待SaaS预期修正

海外科技公司25Q4业绩持续披露,云厂商业绩加速兑现,SaaS市场预期偏悲观。数据层面上看,25Q4 AI应用公司业绩基本超市场预期,26年指引呈小幅上修状态;预期层面上看,SaaS板块的悲观预期或持续加重,云厂商核心担忧在于AI商业化能否匹配26年高增的CapEx指引。我们认为,26年全球AI应用有望全面加速,云厂商业绩有望持续加速,部分SaaS公司有望实现产品价值下沉与企业价值重估,看好海外AI商业化进展提速。

AI4S:生物制药商业化最快,材料领域有望突破

我们认为AI for Science (AI4S)的研究范式打破了传统“实验发现”或“手工推导方程”的局限,正通过赋能量子、原子与连续介质系统中的高级建模、仿真与预测,引领科研革命。我们持续看好AI制药在26年的商业化前景,预计行业将呈现小分子药物合作深化与大分子抗体领域合作爆发的双轮驱动格局。我们预计AI新材料将成为AI4S的重点应用与投资方向,AI加速材料发现,并通过数字化工(核心股艺优化直接推动产业化,是实现制造产业升级的核心引擎。

月专题:Agentic Coding加速迭代,关注Agent进展

本月我们关注到以Claude Code为代表的Agentic Coding产品、以OpenClaw为代表的Agent应用产品正在加速迭代,我们认为Agent应用正在加速,有望带来软件行业重构。我们判断2025年是Agent元年,2026年可能进入Agent加速落地期,主要体现在两方面:一是Agentic Coding的迭代速度会大幅加快;二是国内外大厂会激烈争夺个人Agent助手的超级入口,均会成为下一轮token加速的重要推手。Agentic Coding的快速迭代可能会加速软件行业的重构,软件开发成本面临“杰文斯悖论”:未来个性化的、由AI生成的软件会爆发,但单体软件的价值可能下行,建议持续关注Agent进展。

风险提示:宏观经济波动,技术进步不及预期,中美竞争加剧。研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。

正文

AI模型:Agent能力持续演进,关注DeepSeek多模态进展

DeepSeek-OCR 2提升了视觉理解能力,有望加强下一代模型能力

DeepSeek-OCR 2面向复杂文档的视觉理解式OCR模型。DeepSeek在2026年1月底推出DeepSeek-OCR 2,参数规模约3B,聚焦图像到文本转换与视觉推理,强调对页面布局与内容关系的深度理解。相较传统OCR偏重纯文本提取,DeepSeek-OCR 2更强调按接近人类的阅读顺序完成内容提取与结构还原,旨在弥补DeepSeek-OCR1在读取顺序与复杂页面布局处理上的不足,使复杂文档的输出更贴近可直接使用的书面结构。

图片

DeepEncoder V2以全局理解重排阅读顺序。DeepEncoder是DeepSeek-OCR 2中的重要组件。引入DeepEncoder V2后,模型不再采用固定网格从左上到右下扫描,而是先形成页面全局表示,再通过可学习查询learnable queries按语义驱动的逻辑顺序抽取内容。该机制被描述为“visual causal flow”,核心在于先判定“先读什么、后读什么”,从而在多栏PDF、密集表格、标签-值对等场景下更好地区分列间先后与字段对应关系。DeepSeek-OCR 2论文显示,新架构使文档结构更清晰、序列更合理,布局相关错误明显降低。

图片

双重注意力让编码器兼顾全局与因果提取。DeepSeek-OCR 2以语言模型驱动的视觉编码器替代旧版CLIP等静态视觉编码网络,将视觉特征编码过程融入类LLM架构:1)视觉token之间保持双向注意力以编码全局空间结构。2)新增因果查询token以单向因果注意力顺序关注视觉内容,并结合已生成查询的上下文逐步提取信息。编码器在“阅读”图像的方式上类似一个小型语言模型(如Qwen2 500M),并通过定制注意力Mask实现“先看全局、再按需提取”,从机制上克服DeepSeek-OCR1固定顺序编码的局限。

基准测试显示模型在效率与精度上同步提升。得益于阅读顺序与编码架构改进,DeepSeek-OCR 2在复杂版面OCR上更易保持上下文连贯与结构一致,减少人工清洗需求。基准测试显示,DeepSeek-OCR 2在OmniDocBench v1.5上评分为91.09,较前代提高3.73个百分点;在压缩效率方面,据OmniDocBench实验,新模型仅用1120个视觉token即可实现较低编辑距离误差(0.100 vs 0.115,比较对象为Gemini-3 Pro)。同时,生产环境重复率下降:对在线用户图像日志从6.25%降至4.17%,对PDF数据从3.69%降至2.88%;在个别超长新闻类版面上受视觉token上限影响仍有改进空间。我们认为,DeepSeek-OCR 2的设计重点在于以“顺序可学习+结构可解释”的路径提升复杂文档可用性,并在成本受控前提下改善端到端输出质量。

图片

图片

DeepSeek-OCR 2的视觉理解能力提升,有望在后续模型中以多模态形态被纳入。DeepSeek-V3与R1系列目前仍为纯文本模型,不支持直接上传图片、音频或视频,但DeepSeek并非缺乏多模态技术,而是将不同能力以相对独立的模型形态拆分部署:1)V系列(如V2、V3)定位为通用大语言模型(General LLM),强调性能功耗比与文本理解、代码、数学能力,在架构设计(如MLA架构)上主要面向文本Token处理。2)R系列(如R1、R1-Zero)定位为推理模型(Reasoning Model),强项来自强化学习(RL)驱动的“思考”能力,训练与输出聚焦纯文本逻辑链路。我们认为,随着DeepSeek-OCR 2在复杂版面阅读顺序、结构抽取与视觉推理等方面的迭代成熟,视觉侧能力与文本侧主干的融合路径更清晰,有望推动DeepSeek下一代模型向更完整的多模态能力扩展。

Kimi K2.5提出Agent Swarm并行Agent显著提升复杂任务效率

Kimi K2.5以原生多模态智能体定位拓展能力边界。Kimi K2.5是Moonshot AI推出的新一代大型模型,定位为开源的native multimodal agentic model,面向视觉、代码与智能体任务等多场景协同需求。模型总参数量约1万亿级别,采用混合专家MoE架构,专为复杂推理与多任务智能体场景设计。K2.5为前代Kimi K2(代号“K2 Thinking”)的持续训练升级产物,通过在K2基础上新增约15万亿token的视觉+文本混合数据持续预训练,扩充知识覆盖并强化跨任务能力。

图片

原生多模态引入MoonViT实现内置视觉理解。Kimi K2.5论文,K2.5从“K2 Thinking”以文本与工具调用为主,升级为原生多模态模型,在预训练阶段引入大规模视觉-文本联合数据,使模型同时掌握图像与语言。其架构新增MoonViT视觉编码器,参数规模约200-400M,用于处理图像输入,并支持原始高分辨率图像,方案与“Kimi-VL-A3B-Instruct”相近。相比之下,K2 Thinking虽可通过工具调用图像分析接口,但缺少内部视觉模块;K2.5将视觉能力整合进同一模型,使其可直接接收图像、视频等输入并进行跨模态推理与生成。

代码能力增强并扩展至“视觉编程”范式。K2.5通过持续训练与优化提升代码生成与理解能力,在前端开发场景表现更突出,可将自然语言需求转化为完整前端界面代码,并覆盖复杂布局与交互动画。依托多模态能力,K2.5支持结合视觉进行编程:可基于UI设计图或视频演示理解视觉意图并生成对应代码,实现界面还原与视觉调试,例如读取网页设计视频后重建网站代码,或依据设计图实现接近像素级的布局与动态效果。Moonshot还提供Kimi Code产品,面向终端或IDE提供“所见即所得”的编程体验。

MoE架构维持算力(核心股可控并优化长上下文表现。K2.5沿用DeepSeek V3改进版MoE架构并在超大规模上优化:总参数约1万亿,但每次仅激活32B。结构上包含61层Transformer Block(仅1层为密集层,其余为MoE专家层),共384个专家,每个专家隐藏层维度2048,每个token由门控网络选出8个专家参与计算,并配置1个共享专家。长上下文方面,据Kimi K2.5论文,K2.5提升了256K窗口下的信息保真度;同时沿用量化感知训练QAT以原生INT4权重部署,并且第三方提供了1.8-bit动态量化版本,大小约240GB,较原模型缩小约60%。

Agent Swarm并行Agent显著提升复杂任务效率。K2.5在K2 Thinking的CoT与动态工具调用基础上,引入“Agent Swarm”并行Agent架构,并通过并行智能体强化学习PARL训练,使模型能自动拆解复杂任务并派生多达100个子Agent并行执行,由主Agent编排协调。实验证明,在无需人工预定义子Agent角色或流程的情况下,Agent Swarm可将多步任务总耗时减少4.5倍;内部测试表明端到端运行时间降低约80%。训练侧引入可训练编排者Orchestrator策略网络,并通过分阶段奖励塑造缓解“串行崩溃”“虚假并行”等失败模式,同时以关键路径长度等指标评估并行是否实质缩短最长步骤。

图片

多模式推理提升交互灵活性并回应K2瓶颈。为适配不同场景,K2.5在产品形态中提供多种模式:1)Instant模式用于简单问题快速响应。2)Thinking模式用于复杂问题的逐步推理。3)Agent模式面向资料检索、内容创作等结构化输出并自动工具交互。4)Agent Swarm模式用于大型多步骤项目的并行执行。综合改进点包括:多模态集成由外部工具依赖转为内置视觉模块;通过新增15万亿以上训练样本持续预训练扩展知识广度并缓解知识截止影响;RoPE缩放等增强长文档稳定性;并行Agent提升大规模资料处理的可行性。我们认为,K2.5以“多模态内置+并行智能体”的组合,提升了其在企业级长流程任务中的落地效率与适配范围。

腾讯提出CL-bench,有望指导后续模型提高上下文学习能力

腾讯提出CL-bench,量化揭示大模型临时学习能力不足。腾讯首席科学家姚顺雨团队提出CL-bench(Context Learning Benchmark),评测大语言模型(LLM)从新上下文中学习并应用的能力,旨在区分“调用已知知识”与“现场吸收新知识”。据CL-bench论文,主流模型在该基准上整体成功率偏低:GPT-5.1(High)平均成功率23.7%,其他模型平均17.2%。这表明模型在面对预训练未覆盖的新规则、新概念时,常难把上下文转化为可执行的推理约束,我们认为,这一短板会直接影响模型在真实工作场景中的可靠性。

CL-bench基准以“新知识自包含”约束模型走捷径。CL-bench要求每题必须使用上下文提供且预训练中不存在的新知识作答,并明确禁止借助上下文之外的信息(例如检索或隐含预设),从机制上迫使模型“现学现用”。据CL-bench论文,基准包含500个复杂上下文、1899个任务(questions/prompts)与31607条评价标准(rubrics),并由专家标注,平均每个上下文投入约20小时。为防污染,团队采用1)虚构创造;2)变体改造;3)小众与新兴内容等设计。据团队验证,不给上下文时GPT-5.1(High)成功率不到1%,说明任务确实依赖现场信息。

四类场景覆盖演绎执行与归纳发现。CL-bench将任务划分为1)领域知识推理:如架空法律、创新金融工具、小众理论等;2)规则体系应用:如新游戏规则、公理系统、自创编程语言或技术标准;3)流程化任务执行:如手册、软件说明、API调用顺序;4)实验发现与模拟:从数据与观测中归纳规律再应用。据团队结果,实验发现与模拟类通常成功率低于10%,且波动更大,显著弱于“按明示规则执行”的任务,反映模型在归纳形成新规律方面更薄弱。

图片

细粒度评估显示“更长上下文与更强思考”增益有限。CL-bench平均每题约16.6条rubrics(评分标准),并采用“LM-as-a-judge”对照rubrics自动打分,以任务成功率(Solving Rate)作为主指标,同时比较高推理强度(思维链)与低推理强度(直接回答)。据CL-bench论文数据,失败主要来自忽略或误用上下文,模型容易回退到参数化知识而违背新规则;提高推理强度通常仅带来小幅改善,GPT-5系列在部分管理类与实验数据类任务上提升约6%。

图片

启示:提升模型能力需兼顾上下文窗口与复杂度处理。据CL-bench论文结论,任务难度随上下文长度增加而上升,各模型在长上下文条件下成绩普遍下降,反映长上下文有效利用仍存在约束。但与此同时,即便上下文很短,当信息高度浓缩、隐含规则密集、依赖关系复杂或约束更苛刻时,模型同样容易失误,说明“复杂度”对结果的影响不弱于“长度”。因而,在提升模型能力时,不能只着眼于扩展上下文窗口,还要系统增强:1)复杂知识结构的抽取与结构化表示能力。2)隐式约束与细节条件的识别与对齐能力。3)多轮依赖下的状态维护与动态更新能力。我们认为,只有同时补齐上述能力,模型在真实场景中对新知识的吸收与调用才更具稳定性。

AI算力(核心股:Agent主线强化,CSP Capex持续上修

Agent渗透是下一个Token加速点

Agent渗透是下一个token加速点。回顾2026年以来的Agent进展,我们可以看到Agentic Coding与个人Agent两条主线。从Agentic coding来看,各个大厂均在推广其相应的产品,包括Anthropic的Claude code,OpenAI的ChatGPT Codex、Google的Gemini Code Assist。垂直Agent的价值在于验证 Agent 的可执行性,真正决定产业规模的是是否出现适用于绝大多数人的通用Agent。个人Agent来看,海外方面,Open Claw(原Clawdbot、Moltbot)的众多能力引起海内外的广泛关注,Meta收购Manus表示了其对虚拟机路线Agent的看好,OpenAI也在ChatGPT Agent中尝试加入更多的应用场景。国内来看,各个大厂都在推广其个人助手产品,包括千问助手、豆包助手等,并开启春节入口争夺战。在互联网与移动互联网历史中,平台型入口的争夺一定发生在两件事同时具备时:供给侧已具备可规模化的能力;需求侧即将被激活,但用户心智尚未固化(抢占默认选择)。我们判断26年的Agent将在大厂的推动下快速渗透。

图片

Agent产品迅速进展的本质是模型能力在长链任务能力上跨越“奇点”。从25年年底发布的模型来看,在长链任务能力上完成了显著的跨越,我们认为这是目前Agent能力提升的根本因素。之前的Agent工程化的卡点在于长链任务完成度不佳,随任务复杂度提升,Agent会在错误的进程中陷入死循环。而25年12月发布的Claude 4.5 Opus在任务时长上实现了显著提升,从METR的测评结果来看,Claude 4.5 Opus在能够独立完成的任务所需人类工作时间的指标上实现了增长速度的突破。2019-2024年:模型独立完成任务的时长每7个月翻一倍,2024-2025年,这个数字缩短为4个月。根据Anthropic的预测,26年年底Agent将独立完成人类半周的工作量。

图片

图片

Agent的推理范式是复杂流程、连续执行的,算力(核心股消耗较大。传统 Chat 模式下,推理的核心特征是:单轮或短链路、强人工介入、Token 使用高度离散、不可持续。而 Agent 模式的本质变化在于三点:多步规划、工具调用(Tool / API / MCP / VM)、长时间运行与状态保持(Persistent Context),这三点共同决定:Agent 的 token 消耗不是“对话量”的线性函数,而是“任务复杂度 × 执行时长”的指数函数。以Claude Code为例,拆分Claude Code工作流程来看,我们预测,1)启动阶段,只打开几个小文件,agent思考一次约消耗1-2万token;2)随工作流程的深入,一般打开20个以上的文件,Claude 进行工具调用、编写代码、外部交互、debug与代码测试等工作,如上文提到这个过程不断地再重复上下文理解、执行操作与结果验证,则每一步约消耗20万token。总体量化来看,保守假设完成一个小项目需要5-10步左右的工作,则完成一个项目需要消耗百万级别token(完成复杂项目的消耗会更大),这与chatbot单次交互消耗一千左右token相比,算力消耗提升3个数量级。从Claude Code技术文档来看,官方建议每名用户每分钟的token限制设置在20-30万token,算力消耗较大。

图片

我们判断,2026年将成为AIAgent推理端从“能力验证”走向“Agent规模化应用”的关键拐点年。与 2023–2025 年以大模型能力跃迁为主线不同,下一阶段产业主线不再是模型参数或benchmark的线性提升,而是Agent形态驱动的token使用方式结构性变化。

海外大厂Capex持续增长,AI需求表述乐观

海外四大CSP Capex持续快速增长,指引乐观。根据海外四大CSP季报来看,CY2025Q4资本开支合计1,270亿美元,同比+63%,环比+13%。CY2025Q4 Microsoft/Google/Meta/ Amazon的资本开支分别为375、279、221、395亿美元,同比+66%/+95%/+49%/+52%,环比+7%/+16%/+14%/+15%。从指引角度来看,Google、Meta、Amazon均明确上修Capex指引,Google表示预计2026年全年资本支出将在1750亿美元至1850亿美元之间,投资额将在年内逐步增加;Meta表示预计2026年资本支出(包括融资租赁本金支付)将在1150亿至1350亿美元之间;Amazon表示将总体投入2000亿美元,大部分投入投向AWS。

图片

下一代光互连方案CPO/NPO雏形初现,关注GTC大会催化

NPO方案下的“光进机柜”雏形初现。根据AYZ发布的文章,CPO方案的Rubin Ultra机架将采用NVL72 x 2的架构,即由两个机柜组成。每个机柜内部仍保留现有NVL72机架的连接方式:compute trays与NVSwitch trays通过cable cartridge相连;相邻两个机柜的NVSwitch trays则通过CPO光引擎与光纤实现互联,从而构成包含144张GPGPU卡(相当于576颗GPU die)的Rubin Ultra机架(每张Rubin Ultra GPGPU卡集成四颗GPU die)。根据AYZ发布的供应链调研,CPO版本的NVSwitch芯片将基于NVIDIA去年发布的Quantum X800 CPO switch芯片改款而成。每颗NVSwitch芯片周围共封装4.5颗3.2T光引擎(其中半个光引擎的带宽共享给相邻NVSwitch芯片)。一个NVSwitch tray内配置6颗CPO NVSwitch芯片,每3颗置于同一块PCB板(核心股上,tray内上下堆叠两块PCB板。据此计算,单颗NVSwitch芯片交换容量为3.2T × 4.5 = 14.4T,一个NVSwitch tray的交换容量为14.4T × 6 = 86.4T。

图片

CPO/NPO等下一代光互连方案已经进入产业化落地的元年,核心矛盾在于渗透节奏。英伟达在2026年CES大会上发布了Spectrum-X Ethernet CPO,从产业进展来看,CPO进入产业化落地元年。根据英伟达在2月3日举办的AI网络研讨会上表示26年上半年,CoreWeave、Lambda、德克萨斯高级计算中心会率先部署Quantum-X InfiniBand CPO;下半年将推出Spectrum-X以太网CPO,同时推动落地更多AI和超算相关的部署项目,这也意味着CPO技术将进入规模化商用的阶段。随Agent推理的拓展,Scale up域呈现逐步扩大的趋势,铜缆的 scale up 模式正逼近极限(200Gbps/lane 速率下,铜缆的传输距离最多仅为2m),且单通道带宽翻倍的难度日益增加,光互联进入Scale up领域逐步成为共识。根据Coherent CEO在FY26Q2业绩电话会的表述,未来十年可插拔光模块在Scale-Out仍是主流;CPO主要增量来自Scale-Up,且市场规模较Scale-Out大几个数量级。我们认为英伟达下一代互联方案将逐步清晰,3月份的GTC大会或发布官方架构,关注CPO/NPO的渗透节奏。

AI应用:云厂业绩加速兑现,静待SaaS预期修正

海外科技公司25Q4业绩持续披露,云厂商业绩加速兑现,SaaS市场预期偏悲观。数据层面上看,25Q4 AI应用公司业绩基本超市场预期,26年指引呈小幅上修状态;预期层面上看,SaaS板块的悲观预期或持续加重,云厂商核心担忧在于AI商业化能否匹配26年高增的CapEx指引。我们认为,26年全球AI应用有望全面加速,云厂商业绩有望持续加速,部分SaaS公司有望实现产品价值下沉与企业价值重估,看好海外AI商业化进展提速。

图片

云厂商业绩提速,全栈式竞争趋势凸显

25Q4Google、Amazon云业务收入持续加速,算力(核心股供给能力仍是商业化的核心制约。25Q4 Microsoft、Google、Amazon云业务收入同比增速分别为39%、48%、24%,其中,Google、Amazon云业务营收增长显著提速,主要受下游需求放量拉动;Microsoft云业务营收增速边际放缓,主要由于公司主动调整算力分配重心,根据公司电话会表述,若GPU资源全部服务云场景,Azure云收入增速将超过40%。综合来看,海外云厂商的下游需求持续高增(Microsoft、Google、Amazon RPO分别环比+59%、+50%、+22%),算力供给能力仍是订单收入转化的核心制约因素。同时,海外大厂26年全面加速Agent产品布局,推理算力需求同步加速,25Q4 Google、Amazon、Meta大幅上修26年CapEx指引。

图片

图片

云业务进入全栈竞争新周期,海外大厂26年或加速算力(核心股、模型、应用全栈式布局。海外大厂AI全栈式竞争趋势明显,受益于自研芯片规模化与利用率提升,Amazon、Google云业务营业利润率环比改善,25Q4 Amazon、Google云业务营业利润率分别环比提升0.39pct、6.40pct。我们认为,26年海外大厂将加快算力、模型、应用全栈式布局。1)算力层面:Microsoft、Amazon有望加速新一代自研芯片落地;2)模型层面:关注多模态、超长上下文、代码等能力提升;3)应用层面:Meta、Google等厂商2C Agent流量竞争或将加剧。

图片

SaaS加速产品价值下沉,Palantir提供范式参考

传统SaaS加速产品价值下沉,加速拓展数据中台、Agent中台等产品品类。从市场预期来看,传统SaaS的TAM收缩预期持续强化,能否实现预期反转,关键在于传统SaaS能否实现产品价值中枢下沉。从进展来看,25Q4 SAP、ServiceNow全力加强中台类产品推广。1)ServiceNow:25Q4 AI Control Tower(企业级Agent管理平台)订单量环比增长近3倍,合同价值高于100万美元的AI订单单季新增35笔;2)SAP:截至25Q4,Business Data Cloud(BDC,企业级数据中台)累计合同金额约20亿欧元,25Q4最大50笔交易中90%包含 AI 或 SAP Business Data Cloud(BDC)。我们认为,传统SaaS具备数据+流程的优势卡位,若能完成产品价值中枢的数据层下沉,其AI业务空间或将充分打开。

Palantir提供范式参考,国内软件厂商具备相似的产品+客户优势。区别于传统SaaS,Palantir具备“数据能力强、满足客户定制化需求”的差异化优势,得益于公司业务的先发布局与产品的成熟度,25Q4 Palantir业绩加速成长,25Q4总营收14.07亿美元,同比+70%,其中美国商业收入5.07亿美元,同比+137%,美国政府收入5.70亿美元,同比+66%;同时,公司积压订单持续加速,25Q4 RPO达42.10亿美元,同比+43%,下游需求快速增长。我们认为,基于过去软件的定制化需求,国内软件厂商与企业客户的业务流程、产品需求形成了深度绑定关系,在AI需求下同样具备Palantir类似的产品+客户优势。同时,国内企业基于AI需求逐步加大数据工程投入,看好企业数据治理后的AI应用放量空间。

图片

AI4S:生物制药商业化最快,材料领域有望突破

AI4S引领科研走向第五范式

AI正通过赋能量子、原子与连续介质系统中的高级建模、仿真与预测,引领科研革命。这些系统覆盖量子力学、分子相互作用、材料科学与生物体系等多元科学领域。AI正在多个领域加速科学发现,提升计算精度,并为复杂问题提供了可扩展的解决方案。AI for Science (AI4S)的研究范式打破了传统“实验发现”或“手工推导方程”的局限,不仅是工具的更新,更是科研逻辑的重塑,利用AI的强大算力(核心股跨越计算瓶颈,将量子力学到宏观力学的物理法则连接起来,成为物理、化学、生物及材料科学领域不可或缺的“科学基座”。

图片

根据空间和时间尺度,AI4S的研究可以划分为以下核心领域:

1) 量子体系:包括量子力学(利用神经网络高效学习波函数)和密度泛函理论(DFT)(预测分子的电子结构与物理性质)。

2) 原子体系:涵盖小分子(药物设计与分子生成)、蛋白质(结构预测与设计)、材料科学(晶体性质预测)以及分子相互作用。

3) 连续体系:利用 AI 作为代理模型(Surrogate Modeling)加速求解描述宏观物理过程的偏微分方程(PDEs)。

图片

AI4S已在多个科学领域深度融合与广泛应用,实现利用AI处理复杂数据、构建预测模型、自动化分析流程,并深入至发现、设计、优化、控制等核心环节。随着AI与越来越多的科学研究领域深度嵌入,标志着AI已从辅助工具转变为驱动科学发现的核心引擎,为未来更大规模的科学突破奠定了基础。目前AI4S的核心应用领域包括:

1) 生命科学:覆盖从基础研究(蛋白质结构解析、相互作用预测)到药物研发全流程(虚拟筛选、分子设计、ADMET预测),并延伸至合成生物(核心股学(酶改造、生物基化学品生成)。

2) 材料科学:贯穿所有材料类别(金属、催化、高分子、纳米材料等),实现性能预测、新型配方设计、微观结构分析,加速从发现到应用的进程。

3) 地球科学:应用于大气、海洋、水文、地质各分支,实现高精度气候模拟、极端天气识别、灾害风险评估,并能自动处理海量遥感与观测数据。

4) 能源科学:优化从传统化石能源、燃烧过程到新能源太阳能、电池、核聚变)的全链条,包括反应参数控制、设备优化与系统模拟。

图片

AI制药从小分子走向大分子,2026年AI抗体合作有望加速

2026年以来,AI制药正从传统的小分子药物快速扩展至大分子生物药(尤其是抗体药物),标志着AI在药物研发中正迈向更高复杂度和更高价值的前沿。AI能够实现从小分子到抗体的跨越,核心在于其多尺度建模能力:1. 原子尺度与蛋白质建模:AI4S 研究范式已覆盖从小分子到蛋白质的完整图版;2. 物理规律嵌入:通过融入群论(Group Theory)和等变性(Equivariance)等物理对称性约束,AI能够更精准地模拟大分子之间的相互作用。

从商业化进展来看,2026年1月,赛诺菲与Earendil Labs(华深智药子公司)在自身免疫性疾病和炎症性疾病领域再次达成重大合作,合作范围扩大:从首次合作(2025年4月)针对两款特定的双特异性抗体,扩大至覆盖多个双特异性抗体药物项目;投入力度升级:合作总价值从18.45亿美元提升至25.6亿美元,验证跨国药企对AI驱动的抗体药物研发投入正迅速加大并走向深化。

图片

我们持续看好AI制药在2026年的商业化前景,预计行业将呈现小分子药物合作深化与大分子抗体领域合作爆发的双轮驱动格局:

小分子领域:商业化路径已得到验证,预计药企与AI公司的合作将持续活跃并趋向多元化。合作重点将从早期的靶点发现,进一步延伸至临床前候选化合物(PCC)的优化、预测ADMET性质以及差异化分子设计,提升临床成功率和开发效率。

抗体等大分子领域:有望成为2026年最大的增长亮点。继赛诺菲等MNC与AI制药公司达成高额战略合作后,AI在抗体发现、人源化优化、双/多特异性抗体工程方面的潜力正在逐步显现。AI能够高效探索广阔的蛋白质序列空间,设计出具有更佳特异性、亲和力及可开发性的新型抗体,预计更多大型药企将跟进布局,相关License-out交易的首付款及潜在总合作额有望创下新高。

AI构建新材料研发新范式,驱动产业跨越“创新鸿沟”

国际巨头积极布局“AI+新材料”领域,MatterGen开启“按需定制”材料新时代。材料创新是驱动能源转型与技术革命的底层支撑,从锂电池(核心股到超导材料,每一次突破都深刻改变了数十亿人的生活。然而,传统“大海捞针”式的实验试错和被动的数据库筛选,在面对无限的材料空间时已触及效率天花板。以微软为代表的国际科技巨头正积极布局AI + 材料领域,重塑科研范式:1. 从“筛选”进化为“生成”: 微软研究院推出的 MatterGen 突破了传统局限,不再是从既有库中挑选,而是直接根据导电性、磁性等应用需求,从零生成物理属性稳定的新材料;2. 多维度属性优化:MatterGen能针对材料的化学成分、几何结构及物理稳定性进行协同优化,极大拓宽了探索空间。

图片

MatterGen相比传统筛选方法展现出革命性优势。其核心在于能够跳出已知材料库的局限,探索并创造全新的材料结构空间。在寻找体积模量大于400 GPa(即极难压缩)的高性能稳定新材料任务中,传统筛选方法(Screening)受限于现有数据库,随着计算量增加,其发现新材料的效率迅速饱和,增长乏力。相反,MatterGen凭借其生成式AI能力,能够从头设计自然界可能尚未存在或未被记录的候选材料。因此,其发现效率随着计算资源的投入几乎呈线性高速增长,在同等计算成本下,发现的合格新材料数量远超传统方法数个量级。

这标志着材料研发范式从“在已知库中筛选”转向“在无限可能中定向创造”。AI不仅大幅提升了探索效率,更关键的是突破了人类经验和现有知识的边界,为发现具有超常性能(如超高硬度、超导性)的下一代颠覆性材料打开了全新道路。

图片

从产业进展来看,2026年1月,晶泰控股与晶科能源子公司签署AI+自动化高通量叠层太阳能电池研发战略合作协议,双方将共同成立合资公司,共建全球首个“AI 决策-机器人(核心股执行-数据反馈”全闭环叠层电池智造线,为不同的应用场景开发高效率、高稳定性的太阳能电池产品。

针对钙钛矿叠层电池在效率、稳定性和成本平衡上的工业化难题,双方通过智能化范式打破了传统“试错法”的局限:1. 数据编码化:首次将上百种材料配方与工艺参数编码化,整合产业经验、文献挖掘及自动化实验生成的多种高精度数据,建立专属数据库;2. 多模态AI引擎: 开发由大语言模型驱动的研发引擎,融合多任务深度学习与物理约束模型,实现材料筛选与性能预测的进化迭代;3. 高通量闭环:构建业内首条千平米级实验线,实现每日1000片的百倍通量提升,通过“设计-实验-反馈”的自动化闭环快速优化工(核心股艺。

图片

我们认为2026年AI新材料预计将成为AI4S的重点应用与投资方向。以“AI预测+自动化实验”为核心的研发闭环已进入规模化验证阶段,能十倍级缩短传统研发周期。未来AI有望从光伏(核心股钙钛矿向固态电池(核心股电解质、高温超导材料、半导体(核心股光刻胶等更高附加值的领域复制。AI不仅加速材料发现,更通过数字化工艺优化直接推动产业化,是实现制造产业升级的核心引擎。

月专题:Agentic Coding加速迭代,关注Agent进展

基于对AgenticCoding和OpenClaw进展的观察,我们认为Agent应用正在加速,有望带来软件行业重构。我们判断2025年是Agent元年,2026年可能进入Agent加速落地期,主要体现在两方面:一是Agentic Coding的迭代速度会大幅加快;二是国内外大厂会激烈争夺个人Agent助手的超级入口,均会成为下一轮token加速的重要推手。我们认为Agentic Coding的快速迭代会加速软件行业的重构,软件开发成本面临“杰文斯悖论”:未来个性化的、由AI生成的软件有望爆发,但单体软件的价值可能下行。

AI Coding:Agent推动产品能力快速迭代

AI Coding是发展最快的企业级AI应用之一,从简单补全向AgenticCoding进化。根据Menlo Ventures的数据,AI Coding已成为企业AI最热门的应用场景,占企业部门级AI支出的55%。从功能看,目前AI coding正在从代码补全向自主执行任务的Agentic Coding进行范式跃迁。其中最具代表性的产品,就是Anthropic基于最新的Claude Opus 4.5模型升级的Claude Code 2.1(面向开发者)和Cowork(面向非程序员),一定程度带来了美股存储/CPU等加速上涨和美股软件股的加速下跌的分裂走势。它们有两个显著特点:

1)200K tokens的超长上下文:Cowork通过本地化存储长期保存上下文需求,这些都指向了存储需求的增加,存储需求可能从HBM向DRAM、NAND外溢;

2)Agentic工作流,具备多工具、多Agent的调用能力:让CPU在动态批处理、吞吐率优化、Agent调度、工具编排等环节的重要性空前提升。

AI Coding演进:从小型系统拓展到中型系统

AI Coding高速迭代:我们判断25年年中AI Coding仅能自主实现1000行以内代码的简单程序,预计目前AI Coding已经拓展到能够构建5000-20,000行代码的中型系统,预计未来两年可能实现中型系统完全自主生成;五年后大型生产级系统的自主生成将成为可能。

图片

最具代表性的AI Coding产品Claude Code在25年以来经历多项功能迭代,我们关注到三个趋势:

1)Agent能力的增强,AI Coding进化到Agentic Coding。LLM时代早期,AI Coding工具的主要功能是做代码预测和完成,Agentic Coding具备项目级上下文,支持多工具多Agent调用,丰富了AI Coding的工作流。

2)上下文窗口的合理应用,Claude将各类记忆进行压缩,从而在有限的上下文窗口增强效果。我们认为Claude Code增加的多项功能,例如CLAUDE.md、Skill、Memory,都通过人工方式进行信息压缩,从而极致地应用有限上下文窗口。

3)从工具到产品:Cowork的推出,有力推动了非技术人员对AI Coding工具的使用。

图片

AI Coding各类应用产品推出,中美加速布局

Cowork推出,降低软件构建门槛。2026年1月12日,Claude Cowork发布。从功能来看,Cowork具备和Claude Code类似的Agentic Coding能力,因此具备项目级的上下文能力和多Agent多工具使用能力,而Chatbot的上下文通常局限于对话窗口与用户上传内容。与Claude Code相比,Cowork大幅提升使用便利性,用户不需要进入命令行终端编码并对项目进行配置,Cowork可以自行读取上下文并执行任务。我们认为Cowork可以理解为对Claude Code的UI封装,结合了聊天窗口的易用优势和Code产品的项目级能力,使得非技术人员也可以建立项目级代码仓库,降低了复杂项目的建设门槛。

图片

Claude拓展在Excel和法律场景应用,提升特定场景的使用能力。25年1月,Claude in Excel推出,与此前应用于命令行的Claude Coding相比,Claude in Excel应用于Excel界面,只需快捷键即可调用,能理解整体Excel工作簿,包含从嵌套公式到多个工作表依赖关系,可以获取单元格级别的引用解释,并在保留公式的同时更新假设,有利于推动Claude在办公端的应用。25年2月初,Claude Legal推出,作为Claude Code的插件,用户在本地配置后,可以让Claude Code具备自动完成合同审查、保密协议筛选、合规工作流程、法律简报和模板化回复的功能,而且可根据组织流程和风险承受能力进行个性化配置。

图片

中美加速AICoding布局,26年有望看到应用加速。目前中美大模型厂商均在AI Coding领域进行布局,以Coding场景为入口,增加用户对自身模型的调用。此外,一些独立AI Coding产品商业化加速、用户规模扩大。我们认为随着模型能力的增强和Coding产品功能的拓展,26年有望看到应用加速。

图片

图片

图片

AI Coding对软件行业影响:价值锚点转移,相关公司分化

我们认为AICoding将对标准化SaaS产品带来冲击,带来软件价值锚点的转移,软件开发成本面临“杰文斯悖论”。软件行业的价值将发生如下转变:1、从交互外壳向逻辑内核转移;2、从记录系统向执行系统转移;3、从封闭系统向开放接口转移。就SaaS产品而言,传统的按席位计费的模式可能会向按结果收费转变,用户不再为软件厂商写代码的能力付钱,而是为其拥有的数据真实性、系统稳定性、法律合规性付钱。SaaS公司允许AI构建的软件在自己的平台上运行,提供“Agentic底座”。AI大幅降低软件开发成本,有望导致各类定制化软件出现,长尾软件需求被满足,软件数量大幅增长。

图片

未来的软件公司:足够“轻”,变成一个可以被AI随时调用的原子化API,或足够“重”,变成一个承载企业核心资产和合规责任的底座。我们认为AI时代,软件行业的赢家包括1、深度垂直SaaS公司,其拥有AI无法通过互联网公开抓取的、极其细碎的垂直行业数据;2、基础设施平台:如金山办公(掌握底层文档渲染引擎)或Salesforce(掌握核心客户关系数据),我们认为它们有望成为Agent必须接入的重型底座;3、安全审计公司:专门验证AI执行结果是否合规、安全。

Coding Agent发展背景下,看好各类Agent应用爆发

Clawdbot:从单任务拓展到多任务,Agent能力加强

26年1月26日,奥地利个人开发者Peter Steinberger在GitHub正式发布Clawdbot(之后改名为OpenClaw):24小时内获5万以上GitHub星标,一周内突破10万,成为史上增长最快的开源AI项目之一。我们认为,与此前类似的Agent产品相比,Clawdbot的核心区别在于具备远程聊天窗口,可以持续运行并保持长期记忆,具备更高的读写权限,能执行更多样的任务。

图片

基于OpenClaw的纯AI论坛Moltbook引发热议。1月29日,Moltbook社交平台上线,类似于AI机器人(核心股参与的Facebook社交平台,人类只能旁观不能发言。用户只需向自己的OpenClaw助手发送链接,OpenClaw即可通过API注册账号、发布帖子、添加评论,甚至创建子版块。48小时内超过10万AI Agent涌入平台,目前超过15万个,发布上万帖子留下超过12万条评论。

图片

我们认为持续运行的Gateway、持久记忆是Clawdbot的核心创新点,带动Agent产品从单一任务到多任务演进。Gateway是一个始终运行的进程,保持监听状态,在获得新指令后创建进程独立完成任务,因此即使聊天结束,仍然能完成用户设定的任务,不需要人为监督。持久记忆则是实现多任务的基础,对于每个对话,Clawdbot在本地保存相关上下文,当相关Agent被重新调用时可以重新读入历史记忆,使得记忆能力不局限于当前的对话框。我们认为Gateway从技术上看并非LLM相关能力,但从应用角度而言满足了更丰富的需求,有望带来Agent产品的丰富和能力的拓展。

图片

图片

我们认为Clawdbot利好网安、CDN、端侧等环节:

1)Clawdbot的代码存在风险,且为了提高AI能力给予过高权限,带来潜在安全性问题。VibeCoding的编码质量存在安全隐患,且由于降低了使用门槛,可能降低非专业用户识别漏洞的概率。此外,真正能实现各类任务的AI Agent依赖强大权限,而类似Clawdbot这样的高权限AI意味着更多的安全性问题。因此从长远看,Agent的能力提升可能带来对权限的更多需求,进而推动网络安全领域的需求增长。

2)Clawdbot端侧部署,依赖云端LLM模型运行并回复,带来端侧网络需求:Gateway实现24小时持续运行,监听网站内容,带来网络需求。往后看端侧有望成为趋势, Gateway有望成为未来Agent基本组成部分,边缘分发、低时延回传与带宽弹性需求上升,内容分发网络(CDN)将深度受益。

3)Clawdbot需要部署在端侧或云端,目前的方案主要包括MacMini部署和虚拟机部署。我们认为从长期看,B端受限于安全性考虑,可能会选择将虚拟机作为长期的部署方案。C端更倾向开箱即用的类似产品,手机操作系统厂商有望完成这部分工作的整合,实现Agent技术的普及。

国内AI Agent能力加强,连接更多应用

阿里千问APP全面介入阿里生态,看好国内AIAgent迭代。2026年1月15日,阿里召开千问APP发布会,宣布千问APP与淘宝、闪购、飞猪等多类生态场景结合,用户可以在对话界面实现包括购物、外卖、出行规划等多项任务,此外还宣布“任务助理”能力,专注于解决办公场景复杂问题。千问APP的迭代同样体现了Agent能力的加强,一方面是连接更多的应用为Agent提供丰富的能力,另一方面,单一功能的实现涉及多应用的协同,例如出行任务涉及到地图、航班和酒店订购、下单支付等多环节。我们认为连接多应用、执行复杂功能的Agent将在26年持续涌现,看好国内AI Agent的迭代。

图片

风险提示

宏观经济波动。若宏观经济波动,可能对AI产业资本投入产生负面影响,导致AI产业变革、新技术落地节奏、整体行业增长不及预期。

技术进步不及预期。若AI技术、大模型技术、AI应用进展不及预期,或对行业落地情况产生不利影响。

中美竞争加剧。中美竞争加剧,或影响国内算力(核心股基础设施布局,导致国内AI大模型技术迭代速度放缓。

研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。

相关研报

研报:《Agent叙事强化,算力(核心股与SaaS分化加剧》2026年2月7日

郭雅丽 分析师 S0570515060003 | BQB164

范昳蕊 分析师 S0570521060004 | BWD469

袁泽世 分析师 S0570524090001

岳铂雄 分析师 S0570524080004

王浩天 联系人 S0570125010006

徐诚伟 联系人 S0570125070089

股票频道更多独家策划、专家专栏,免费查阅>>

责任编辑:栎树
AI智能分析该文,为您挖掘投资机会该AI功能处于试用阶段,内容仅供参考,请仔细甄别!
展开
精彩推荐
加载更多
全部评论
热榜
关闭 下载金融界app
金融界App
金融界微博
金融界公众号