来源 :电子发烧友网2026-05-09
讯飞星火X2-Flash正式发布,同步开放API。
采用MoE架构,总参数30B,最大支持256K上下文,星火X2-Flash在智能体、代码等能力上实现了大幅提升。基于华为昇腾910B集群训练完成,星火再次证明国产大模型在本土算力架构上也能更高效、更低成本的运行。
目前,AstronClaw、Loomy已率先接入星火X2-Flash,实测效果接近业界万亿级参数模型,Tokens消耗成本大幅优化。
任务效果接近大尺寸模型,调用成本降至约三分之一
Agent 应用正在从简单问答走向复杂任务执行。一次完整的智能体工作流,往往需要经历需求拆解、上下文读取、工具选择、代码生成、结果校验和多轮修正,token 消耗可能达到数十万甚至上百万。模型能力之外,端到端任务成本、执行稳定性和响应效率,正在成为Agent应用能否规模化落地的关键。
经AstronClaw实测,星火X2-Flash在深度研究报告、Skill管理与调用、系统控制与执行等多类“养龙虾”最常用的任务上效果接近业界万亿级参数模型效果;在相同工作流下,整体 token 消耗不到当前主流大尺寸模型的三分之一,显著降低了开发者构建复杂 Agent 应用的使用成本。
以创建一个复杂的视频生成Skill为例,星火X2-Flash在了解详细需求后快速生成,并给出技能结构、核心功能和使用案例等关于Skill的详细说明。
▲视频Skill创建效果
对于需要频繁运行复杂工作流的Agent开发者来说,星火 X2-Flash 提供了一个新的选择:在保持任务完成质量的同时,降低长链路任务中的 token 消耗,让智能体应用从“能跑起来”进一步走向“跑得起、跑得稳”。
硬核揭秘:降本提效背后的技术重构
此次星火X2-Flash在国产算力上实现性能提升与成本下降的双赢,得益于数据、模型结构和训练推理系统的协同优化。
智能体数据高效闭环,突破高质量数据瓶颈。针对智能体数据轨迹长、逻辑复杂等问题,讯飞在国产算力上构建了可验证的星火大规模智能体数据自动合成平台,依赖Agent自主搭建环境、检测结果准确性,实现了智能体数据高效合成和闭环。
上下文大幅拓展,攻克国产算力长文本训练难题。星火X2-Flash率先在国产算力上实现了DSA(稀疏注意力)与MTP(多token预测)结合的长文本高效训练,上下文拓展至256K,通过亲和国产芯片的算子和分布式训练策略深度优化实现训练效率相比同规模A800集群从20%提升到90%,解决了智能体长上下文在国产芯片训练慢的难题。
采样与解码效率提升,扫清RL训练耗时障碍。在智能体强化学习训练场景,星火X2-Flash通过上述的算法创新+工程创新,大幅提升了采样推理效率,相对于非DSA结构的采样解码效率最高可以提升2倍以上。该突破,一定程度缓解了910B上智能体长交互场景下采样效率过低影响RL训练问题,为后续的大规模强化学习对齐训练扫清了算力障碍。
当下,人工智能正全面迈入全新的Agentic时代,模型对智能体的适配优化提出了更高要求。星火X2-flash已实现了OpenClaw、Claude Code等主流Agent框架的深度兼容,能够将模型的代码等能力,以更低成本赋予各类智能体。
开发者专属福利:
针对需要高频调用的Agent开发者,讯飞星辰Coding Plan 已全面支持此模型,新老用户均可自主切换体验。