研报评级☆ ◇001339 智微智能 更新日期:2026-05-13◇ 通达信沪深京F10
★本栏包括【1.投资评级统计】【2.盈利预测统计】【3.盈利预测明细】【4.研报摘要】
【5.机构调研】
【1.投资评级统计】最新评级日期:2026-03-15
时间段 买入评级次数 增持评级次数 中性评级次数 减持评级次数 卖出评级次数 评级次数合计
────────────────────────────────────────────────
2月内 1 2 0 0 0 3
3月内 1 2 0 0 0 3
6月内 1 2 0 0 0 3
1年内 10 5 0 0 0 15
────────────────────────────────────────────────
【2.盈利预测统计】(近6个月)
┌──────────┬─────┬─────┬─────┬─────┬─────┬─────┐
│财务指标 │ 2023年│ 2024年│ 2025年│2026年预测│2027年预测│2028年预测│
├──────────┼─────┼─────┼─────┼─────┼─────┼─────┤
│每股收益(元) │ 0.13│ 0.50│ 0.68│ 2.03│ 2.60│ ---│
│每股净资产(元) │ 7.73│ 8.33│ 8.93│ 10.49│ 12.58│ ---│
│净资产收益率% │ 1.70│ 5.97│ 7.59│ 19.86│ 21.35│ ---│
│归母净利润(百万元) │ 32.81│ 124.92│ 170.94│ 510.12│ 654.00│ ---│
│营业收入(百万元) │ 3665.45│ 4034.14│ 4086.76│ 5616.33│ 6581.00│ ---│
│营业利润(百万元) │ 33.59│ 242.97│ 331.90│ 869.25│ 1085.67│ ---│
└──────────┴─────┴─────┴─────┴─────┴─────┴─────┘
【3.盈利预测明细】(近6个月)
日期 评级 评级变化 目标价 2026EPS 2027EPS 2028EPS 研究机构
────────────────────────────────────────────────
2026-03-15 买入 维持 88.45 1.82 2.31 --- 华泰证券
2026-03-15 增持 维持 --- 2.45 2.91 --- 国信证券
2026-03-13 增持 首次 --- 1.82 2.57 --- 华源证券
────────────────────────────────────────────────
【4.研报摘要】(近6个月)
──────┬──────────────────────────────────┬──────┬────
2026-03-15│智微智能(001339)参股元川微,智算业务或加速增长 │华泰证券 │买入
──────┴──────────────────────────────────┴──────┴────
3月12日,公司在官方公众号公布参股国内领先LPU公司元川微,加码边缘及端侧AI推理赛道。当前推理范式从Chatbo
t向Agent转变,众多小Batch的推理任务使得对于时延的要求提升,LPU技术路线天然契合低时延的需求,或是特定推理范
式下的更优平台。元川微依托自研的硬数据流架构与全资源编译器等核心技术,大幅降低推理应用的部署复杂度和TCO。
我们认为,此次战略投资是公司完成全场景AI算力生态关键延伸,有望在下一代AI推理硬件生态中构筑核心竞争力,维持
“买入”评级。
Agent带来生产力革命,国内算力Beta景气度向上
伴随OpenClaw的加速渗透,各大厂Claw生态加速成熟,推动长链任务、工具调用与多Agent协作普及。我们预计26年
将成为AIAgent推理端从“能力验证”走向“Agent规模化应用”的关键拐点年,Agent正式进入高价值生产工作场景,成
为数字劳动力。Agent对应的是连续任务执行,需要在规划、调用工具、读取环境、回写结果、再次规划的闭环中反复调
用模型,因此token消耗不再是线性增加,而是随任务复杂度成倍放大。Agent的渗透推动Token消耗斜率加速上行,我们
预计国内算力Beta景气度将上行。
顺应Agent需求,公司智算业务与NAS代工有望加速增长
当前Agent的快速渗透正推动推理侧Token调用快速增长,国内互联网大厂算力资本开支持续加码。公司智算业务主要
通过控股子公司“腾云智算”开展,专注于为客户提供AIGC高性能基础设施产品的全生命周期服务。公司凭借渠道优势,
有望切入更多智算业务客户,旺盛的行业需求红利有望带动公司利润加速释放。同时公司是国内如绿联等NAS头部品牌核
心供应商,有望承接OpenClaw热潮带来的NAS设备需求。我们认为公司全面顺应Agent需求,公司利润有望加速增长。
机器人控制器业务快速拓展
公司是英伟达端侧芯片Thor的官方合作厂商。英伟达提出的“三台计算机”理念,分别对应机器人开发中的训练、仿
真渲染与控制三大核心环节。在这一框架下,智微智能提供了覆盖全链路的整合解决方案。25年8月,公司发布基于Thor
芯片开发的机器人大小脑控制器。目前已与多家具身智能头部企业建立合作关系,并有望切入更多头部机器人供应链,看
好26年公司机器人控制器业务收入加速释放。
盈利预测与估值
考虑到25H2智算业务招标延迟,同时26年大厂新一轮算力集群招标加速,我们预计公司26、27年智算业务有望加速放
量,我们预测公司25/26/27年净利润为1.5、4.6、5.9亿元。对应25-27年EPS分别为0.59、1.82、2.31元,可比公司26EPE
为48.6x,给予公司26EPE为48.6x,对应目标价为88.45元(前值54.90元,对应25E56.0xPE)
风险提示:智算业务招标不及预期,市场竞争加剧。
──────┬──────────────────────────────────┬──────┬────
2026-03-15│智微智能(001339)战略投资元川微,加码边缘及端侧AI推理赛道 │国信证券 │增持
──────┴──────────────────────────────────┴──────┴────
事项:智微智能全资控股曜腾投资,2026年3月2日,杭州元川微科技有限公司完成工商变更,深圳市曜腾投资成为其
新进股东。
国信计算机观点:1)元川微是国内LPU架构先行者:国内首家专注于AI实时推理算力芯片的初创企业,技术路线上回
归AI推理的第一性原理,产品精准满足行业对确定性超低时延、高吞吐算力、极致能效比及高性价比的核心诉求,为边端
智能提供高效、可落地的算力基础设施。2)LPU(LanguageProcessingUnit,语言处理单元)专为推理设计的AI芯片:其
核心是张量流处理器(TSP)的设计和实现,TSP将功能单元转移到核心之外,以2D网络方式排列,每一列只包含特定类型
的功能单元(称为切片Slice)。指令流沿着垂直方向(南北方向)运行,数据流沿着水平方向(东西方向)运行,TSP可
以确定在每一个时间点,X轴流动的数据和Y轴流动的指令恰好交叉,进行运算,运算结果会向东或向西传送到下一个切片
进行下一步处理,而指令控制单元(ICU)同时在最底部的切片发出新的指令。3)LPU具备高输出、低时延、低能耗优势
:根据ArtificialAnalysisi披露数据,以Llama3.3Instruct70B为测试对象,Groq的输出速度(OutputSpeed)为306Toke
n/s,业内领先;Groq的端到端响应时间(End-to-EndResponseTime)为2.4s(输出500个Token),业内领先。根据Thund
erSaidEnergy披露数据,推理领域,LPU的每Token能耗不到GPU的1/4,能耗优势明显。4)投资建议:基于Token出海、国
内大模型快速发展,智算需求快速增长,公司2026年智算业务有望快速增长;此外,27年LPU服务器产品有望开始放量,
打开第二增长曲线,上调盈利预测,预计2025-2027年收入44.96/58.24/71.62亿元(前值为46.93/53.27/59.60亿元),
归母净利润1.99/6.14/7.30亿元(前值为2.21/2.69/3.29亿元),当前股价对应PE=92/30/25x,维持“优于大市”评级。
5)风险提示:传统主业所处行业下行的风险、产品价格下行及毛利率下降的风险、部分产品依赖单一大客户的风险、贸
易保护主义和贸易摩擦风险等。
评论:
智微智能战略投资元川微,加码边缘及端侧AI推理赛道
2026年3月2日,杭州元川微科技有限公司完成工商变更,深圳市曜腾投资成为其新进股东。元川微是国内LPU架构先
行者,亦是国内首家专注于AI实时推理算力芯片的初创企业,技术路线上回归AI推理的第一性原理,产品精准满足行业对
确定性超低时延、高吞吐算力、极致能效比及高性价比的核心诉求,为边端智能提供高效、可落地的算力基础设施。
LPU(LanguageProcessingUnit,语言处理单元):专为推理设计的AI芯片
发展历史:2016年初创公司Groq成立,率先提出LPU概念;2023年GroqLPU开始小规模商用,2024年GroqCloud正式上
线,开始大规模商用;2025年12月24日,英伟达以200亿美金收购Groq,为英伟达历史上最大规模的收购。
硬件架构:LPU的核心是张量流处理器(TSP)的设计和实现,传统的多核芯片平铺结构(每一个小方块Tile代表一个
处理核心),核心由一组功能单元组成,负责不同类型的计算(算术运算、内存运算、逻辑运算、指令控制等),而TSP
将功能单元转移到核心之外,以2D网络方式排列,每一列只包含特定类型的功能单元(称为切片Slice)。
数据流和指令流:TSP以SIMD(单指令多数据)方式执行指令,此处每个切片由20个Tile(方块)构成,且单个Tile
可处理16个数,则其共可处理320(=20*16)个元素的向量。指令流沿着垂直方向(南北方向)运行,数据流沿着水平方
向(东西方向)运行,TSP可以确定在每一个时间点,X轴流动的数据和Y轴流动的指令恰好交叉,进行运算,运算结果会
向东或向西传送到下一个切片进行下一步处理,而指令控制单元(ICU)同时在最底部的切片发出新的指令。
投资建议:战略投资元川微,智算需求快速增长,维持“优于大市”评级
基于Token出海、国内大模型快速发展,智算需求快速增长,公司2026年智算业务有望快速增长;此外,27年LPU服务
器产品有望开始放量,打开第二增长曲线,上调盈利预测,预计2025-2027年收入44.96/58.24/71.62亿元(前值为46.93/
53.27/59.60亿元),归母净利润1.99/6.14/7.30亿元(前值为2.21/2.69/3.29亿元),当前股价对应PE=92/30/25x,维
持“优于大市”评级。
风险提示
传统主业所处行业下行的风险、产品价格下行及毛利率下降的风险、部分产品依赖单一大客户的风险、贸易保护主义
和贸易摩擦风险等。
──────┬──────────────────────────────────┬──────┬────
2026-03-13│智微智能(001339)智联网整体解决方案提供商,强化AI算力服务能力 │华源证券 │增持
──────┴──────────────────────────────────┴──────┴────
智微智能是国内领先的智联网硬件产品及解决方案提供商。公司坚持“ODM+OBM双轮驱动”战略,深耕智联网硬件领
域,构建起涵盖多场景产品定义、多形态研发、柔性制造及数智化管理的综合能力体系。依托自主研发与前沿技术融合创
新,公司目前已形成行业终端、ICT基础设施、工业物联网及智能计算四大核心业务板块的完整布局。公司以多元化产品
矩阵深入赋能智慧教育、办公、金融、医疗及工业等垂直领域,积极拓展具身智能与AI智算等前沿赛道,前瞻构建“AI+
”创新生态。
AI算力需求驱动全球云厂商资本开支新周期。2023年以来,在AI技术驱动算力需求激增、数字化转型加速及全球数据
总量快速增长的共同作用下,数据中心基础设施建设需求持续扩大,进而推动全球云服务提供商(CSP)的资本开支进入
高增长周期。根据TrendForce数据,2025年全球八大主要CSPs资本支出总额年增率达65%,预计2026年资本开支总额达602
0亿美元,增速在40%左右的高位。
积极强化AI算力服务能力。公司提供从AI算力规划与设计、GPU及高性能服务器设备交付、运维调优、算力调度与优
化管理平台服务、算力租赁+MaaS、算力及网络设备售后的全流程服务。公司推出腾云HAT云平台,凭借丰富资源池、灵活
付费与统一管理优势,为AI开发者提供一站式解决方案,有效破解算力资源匮乏、扩展受限和利用率低等核心难题。为满
足AI行业对高性能服务器的多样化需求,公司推出面向专业创作的塔式服务器、适配大模型的机架式系列以及边缘部署服
务器。
积极布局AI应用,加速产品创新,实现多类大模型的本地化部署。在AI终端方面,公司全面推出AIOPS、AIPC、AI边
缘网关、AI大模型算力一体机、AI工控机等多样产品,满足多种AI+场景的应用需求。成功在端侧产品上实现多类大模型
的本地化部署,部署从较小参数量到超大参数量的多个版本,满足不同场景下对于计算资源和性能的需求。同时深度推动
主板、整机、行业专用方案与AI及大模型的融合。
盈利预测与评级:我们预计2025-2027年智微智能归母净利润分别为2.17、4.58、6.50亿元,同比分别增长74.08%、1
10.74%、41.73%,对应PE分别为88、42、29倍。我们选取浪潮信息、软通动力、中科曙光作为可比公司。公司专注为AI+
场景提供全方位智能化硬件、附加方案及增值服务,首次覆盖,给予“增持”评级。
风险提示:产品及技术研发、行业竞争加剧、下游市场需求波动
【5.机构调研】(近6个月)
参与调研机构:1家
──────┬──────────────────────────────────────────────
2026-05-12│智微智能(001339)2026年5月12日投资者关系活动主要内容
──────┴──────────────────────────────────────────────
1、Q:目前公司的智算业务具体有哪些产品?服务哪些客户?
A:尊敬的投资者您好!公司智算业务可为客户提供端到端的智算中心全流程服务,涵盖AI算力规划与设计、GPU及高
性能服务器设备交付、运维调优、算力调度与优化管理平台服务、算力租赁+MaaS、算力及网络设备售后及置换等内容,
同时公司也计划打造并销售自主品牌智算设备。在硬件产品层面,公司自主研发并迭代更新了多款服务于智算场景的服务
器主板,其中P15DRE高性能服务器主板可满足当前及未来智算中心的高效能需求;公司还将相关服务器主板技术运用至自
主品牌“智微工业”服务器,推出了基于Intel OCES规范的SYS-80215R 2U机架式高性能服务器,以及4U机架式SYS-60415
WG AI服务器等产品,相关产品可适配深度学习模型训练推理、高性能计算、数据分析等多个智算相关应用场景。在平台
服务层面,公司控股子公司腾云智算已发布HAT算力服务云平台,可依托该平台面向长尾客户开展灵活的算力租赁服务,
支持潮汐定价、资源预约与竞价、预付费套餐、即用即付等多种灵活计费模式,满足不同客户的差异化AI算力需求;同时
公司还计划搭建自研云平台,为中小企业及个人提供碎片化算力租赁服务,可为客户提供第三方专业GPU服务器维保服务
,以及硬件安装配置、故障处理、软件安装更新、资源分配、安全备份管理等全方位运维服务。
客户层面,公司已经与国内知名互联网大厂、金融客户、IDC厂商及国企客户开展智算业务相关合作,同时公司凭借
稳定的合作基础与良好的品牌效应,也在持续拓展更多长尾客户与中小企业客户,不断拓宽智算业务的服务覆盖范围。20
26年一季度公司营业收入和净利润同比大幅增长,主要就是由主营及智算业务订单增加所带动。感谢您的关注!
2、Q:公司有没有相应的市值管理措施来稳定投资者信心?
A:尊敬的投资者您好!公司始终高度重视市值管理工作,严格遵循证监会相关监管指引,坚持以提升公司质量为基
础,以维护投资者尤其是中小投资者利益为核心,构建了常态化、规范化的市值管理体系,多措并举稳定投资者信心,推
动公司市值与内在价值合理匹配,包括:深耕主业筑牢价值根基;强化信息披露,保障投资者知情权;完善投资者关系管
理,搭建高效沟通桥梁;健全长效激励与回报机制;规范治理运作防范经营与市场风险等。公司将始终坚持长期主义,专
注主业、稳健经营,持续优化市值管理举措,不断提升公司内在价值,切实保护投资者利益与全体投资者共享公司发展成
果。感谢您的关注!
3、Q:关于推理芯片LPU的具体应用形态,贵司有无相关研究?
A:尊敬的投资者您好!LPU(语言处理单元)作为专为大规模语言模型(LLM)推理设计的专用芯片,核心优势的是
极致低延迟、高吞吐和高能效,可覆盖云边端全场景,适配不同行业的推理需求。云端部署聚焦大型数据中心、云服务商
提供规模化低延迟的推理云服务;边缘侧聚焦本地化、低功耗推理,如边缘推理一体机、工业场景边缘终端等;端侧适配
轻量化、小体积、低功耗、低成本的消费级、工业级及智能终端产品。感谢您的关注!
4、Q:请问公司,2026 年一季度智算业务和算力租赁的收入占比大概是多少?
A:尊敬的投资者您好!公司2026年一季度营业收入为13.03亿元,同比增长52.96%,营业收入增长主要系报告期内主
营及智算业务订单增加带来的收入增长;公司2026年一季度智算业务在手订单饱满,预计2026年整体智算业务经营将维持
良好增长态势,详情请参阅公开信息。感谢您的关注!
5、Q:2025年研发投入占营收比例是多少?主要投向了智算具身智能还是传统物联网业务?
A:尊敬的投资者您好!2025年公司研发投入占营业收入比例为4.19%。公司2025年研发项目重点投向了智算、具身智
能相关领域,包括基于NVIDIA Jetson Thor平台开发的人形机器人大脑和大小脑一体化控制器项目、基于NVIDIA JetsonN
X&NANO平台开发的移动类机器人大脑大小脑一体化控制器项目、基于Intel ESG平台开发智算中心多GPU推理服务器等智算
相关项目,同时也围绕行业终端、ICT基础设施、工业物联网等核心业务持续推进研发投入,在工业物联网赛道也完成了
多款面向机器人领域的运算控制器研发项目,深化传统物联网业务技术布局,推动各业务线协同创新升级。感谢您的关注
!
6、Q:想问问公司,2026年一季度归母净利润同比增长159.13%,远高于营收 52.96% 的增速,主要是智算业务占比
提升带来的毛利改善吗?后续这种高增长趋势能维持多久?
A:尊敬的投资者您好!主要系报告期内主营及智算业务订单增加带来的利润增长。当前大模型迭代加速,AI从通用
训练向行业推理、多智能体及具身智能快速渗透,政企、工业、金融等垂直场景算力需求持续爆发。全球头部云厂商及国
内互联网大厂持续加大资本开支,算力服务器、智算中心建设节奏不减,随着AI应用全面落地,算力刚需仍持续扩容。公
司将紧抓AI算力产业发展红利与行业机遇,聚焦主业深耕布局,持续强化产能、技术与服务能力,稳健经营抢抓市场订单
,全力巩固行业地位,把握长期成长空间。感谢您的关注!
7、有个问题想请教一下,2025年经营活动现金流净额是- 6.76亿,2026Q1还是-5.30亿,公司之前提到是原材料备货
增加导致目前备货周期和库存周转情况怎么样?后续现金流改善有什么具体措施吗?
A:尊敬的投资者您好!客户订单同比大幅增加进而相应的备货需求增加,库存周转良性。将通过增加客户预付款和
结算条款优化的方式加快资金回笼。感谢您的关注!
8、智算业务毛利率2026Q1,比2025下滑,请问是什么原因?预计后续会继续下滑吗?
A:尊敬的投资者您好!智算业务2026年Q1毛利率与2025年基本持平。感谢您的关注!
9、和华为昇腾的合作有没有新的进展?
A:尊敬的投资者您好!相关情况请以公司公开信息为准。感谢您的关注!
─────────────────────────────────────────────────────
参与调研机构:32家
──────┬──────────────────────────────────────────────
2026-04-24│智微智能(001339)2026年4月24日投资者关系活动主要内容
──────┴──────────────────────────────────────────────
一、公司 2025年及 2026年一季度情况介绍
(一)2025年情况介绍
2025年,智微智能秉持“全面拥抱 AI+”的核心战略坚守“智联网硬件及全场景 AI算力底座提供商”定位,依托“
行业终端、ICT基础设施、工业物联网、智算”四大核心业务板块协同发力,受益于 AI大模型迭代驱动的算力需求爆发及
工业数字化提速,整体实现营收稳健增长、盈利结构持续优化,业务布局进一步深化,核心竞争力不断提升
2025 年,公司实现营业收入 40.87 亿元,同比增长1.30%;归属于上市公司股东的净利润 1.71亿元,同比增长36.8
4%;截至 2025年 12月 31日,公司总资产 61.70亿元归属于上市公司股东的所有者权益 22.54亿元。分业务来看
(1)行业终端业务主要包括 PC、教育办公、其他行业终端等产品,2025年营业收入 22.15亿元,同比下降 14.7%主
要由于 2025年存储价格大幅上涨,抑制了各类终端的需求,影响了公司出货量。
(2)ICT 基础设施业务主要包括服务器、数据通信、网络安全等产品,2025 年营业收入 8.03 亿元,同比增长27.1
6%。其中,数据通信、网络安全业务由于价格竞争及需求下滑,对整体板块有一定的拖累。NAS、服务器、工作站等产品
受益于 AI需求,同比大幅增长。
(3)工业物联网业务主要包括机器人大小脑控制器、机器视觉控制器、工控机、工业 ICT 等产品,2025年公司与 N
V全球同步推出 Thor 大脑控制器,并在国内头部人形客户实现了重大突破,2025年实现收入 2.51亿元,同比增长 66.26
%。
(4)智算业务聚焦算力设备供应、交付上架、维保、运维调优、维修服务及算力租赁等核心服务,2025 年继续维持
高速增长,全年实现营业收入 4.62 亿元,同比增长53.39%。
整体来看,2025年 ICT 基础设施、智算、工业物联网三大业务均实现了快速成长,行业终端业务短期承压。
(二)2026年一季度情况介绍
2026年以来,以“龙虾”为代表的 AI应用加速落地,从内容生成到智能服务场景全面渗透,拉动 AI算力、端侧AI
设备需求持续攀升。公司得益于国内 AI 算力、AI 终端需求的爆发,2026 年一季度公司智算业务订单增加明显、ICT基
础设施业务快速增长,公司实现营业收入 13.03亿元同比增长 52.96%;净利润 1.09亿元,同比增长 159.13%;扣非净利
润 1.002亿元,同比增长 177.69%。
二、互动交流
1、Q:公司智算业务 25年的情况和今年情况介绍?
A:2025年国内互联网厂商、金融机构对AI算力需求旺盛,公司智算业务2025年交付确收大幅度增长。2026年以来国
内外AI应用快速落地,国内外云计算厂商资本开支力度持续加大,拉动了AI算力需求快速增长,今年一季度公司智算在手
订单饱满,同比有较大幅度的增长,预计2026年整体经营将维持良好增长态势。
2、Q:公司持股元川微的情况?投资元川微未来有什么业务上的协作期待?
A:本年度以来,公司已对元川微完成多轮战略投资,为其仅有的两家产业背景股东之一,截至目前,公司持有元川
微股权比例为 4.41%。
元川微是国内领先的 LPU 企业,通过投资元川微,与元川微芯片原厂形成了强绑定关系,也将进一步强化公司自身
从 AI训练到 AI推理的卡位优势。智微智能作为国内领先的“智联网硬件及全场景 AI算力底座提供商”,结合元川微的
LPU+架构的 AI 推理芯片特点和技术参数,我们将会把元川微的 LPU芯片全面适配到公司的 AI推理服务器、具身智能、
边缘 AI、端侧 AI等产品上面,增强公司在 AI硬件领域的产品能力。与此同时,公司也将在资金、市场、技术方案等多
维度全力支持元川微 LPU芯片的推广和商业化落地,与元川微一道为即将爆发的 Agent(智能体)时代打造高能效的底层
算力基础设施,助力元川微成长为国产 AI实时推理的领航者。
3、Q:今年 GTC 大会 NV 未来在推理侧推出 LPU,如何看待 LPU 未来的发展潜力?和传统 GPU 相比,LPU的优势?
以及未来 LPU的潜在空间有多大?
A:今年3月中旬,英伟达在GTC大会上推出了专攻AI推理环节的LPU,补齐了其算力平台在超低延迟推理方面的关键短
板,巩固了其在AI计算领域的领先优势。全球科技巨头介入LPU领域,也体现出LPU在AI推理场景中具备良好的发展潜力和
市场空间。
LPU与GPU相比,并非简单的性能高下之别,在架构思维上有本质性差异,GPU本质上是一个“通用并行处理器”LPU是
为超低延迟推理这一特定场景而生的“专用特种兵”,LPU从设计之初就是面向AI推理优化的“专用数据流处理器”。在
推理场景中,LPU相比GPU的核心优势在于极致推理速度与超高能效。LPU芯片采用片上SRAM,能够提供超高带宽;配合确
定性执行架构,延迟低至毫秒级;同时,在能耗、单token成本上也具有极大的优势。
4、Q:元川微的 LPU 芯片流片进展,以及公司 LPU相关产品推出的节奏?
A:目前,元川微按计划推进设计工作,已完成自研LPU+架构的 FPGA验证,所有性能指标均已达到设计预期整体研发
进展稳步向好。
公司推出 LPU相关产品的节奏,需要根据元川微 LPU芯片量产的进度。在元川微 LPU 芯片量产之前,我们与元川微
已经进行了多轮的技术交流、产品路标规划、产品规格定义。同时,我们也积极向云计算厂商、算力中心等现有客户介绍
元川微的 LPU,为接下来快速推出 LPU相关产品做好了充分的准备。下一步,我们也将根据元川微 LPU 芯片研发进展,
持续深化与合作方的业务协同,增强双方在商业化落地上的战略关系。
5、Q:公司机器人大小脑控制器业务的进展?还有什么布局的方向?
A:大脑控制器进展:智微智能作为 NV 的全球 NPN合作伙伴,于 2025年 8月份,结合 NVIDIA Jetson Thor/AGXOri
n模组联合创新,与其全球同步首发智擎 EII系列具身智能控制器,为人形机器人打造卓越的车规级“大脑”“大小脑”
,目前已与国内多家一二线人形厂商完成送样验证、定制开发工作,待各厂商大模型调试完善后,有望逐步实现批量采购
。部分工业机器人客户已实现小批量订单交付,现阶段业务规模仍处于初期阶段
小脑控制器进展:公司机器人小脑控制器主要是基于Intel、Rockchip等多个芯片平台开发,应用领域主要包括人形
机器人小脑,服务类、四足类及工业机器人手臂主控。目前,在国内头部人形机器人厂家占据领先的供应份额,并于4月
中旬在客户举办的第二届合作伙伴大会上荣获“优秀供应商伙伴奖”。
布局方向:公司除了自身机器人大小脑业务之外,还战略投资宇叠智能,拓展触觉感知领域布局。年初,通过参与私
募股权基金的方式,战略投资了机器人大模型公司——星源智。后续在机器人方面的布局,主要还是围绕控制和传感方向
,增强公司的产品力和方案能力,通过延展并丰富机器人产业链布局,与合作伙伴共同开拓具身智能产业新赛道
6、Q:传统业务今年的增长预期?哪些业务增长比较快?
A:行业终端业务自 2025 年下半年起,存储价格持续上涨,2025年底至今 CPU价格亦呈上行趋势,由于芯片、元器
件价格的上涨,一定程度上抑制了终端需求,导致传统业务中的行业终端业务板块短期承压。
ICT 基础设施业务得益于客户 NAS在海外持续放量,以及公司 AI推理服务器需求拉动,服务器业务实现较大幅度增
长。
智算业务今年以来,以“大龙虾”为代表的 AI应用加速落地,从内容生成到智能服务场景全面渗透,拉动 AI算力需
求持续攀升,一季度成长明显。
工业物联网业务由于基数低,叠加机器人客户订单持续放量,整体保持较高增长速度。
总体上,公司四大业务中,智算、工业物联网和 ICT基础设施三大业务均实现较快增长。
─────────────────────────────────────────────────────
参与调研机构:23家
──────┬──────────────────────────────────────────────
2026-03-05│智微智能(001339)2026年3月5日投资者关系活动主要内容
──────┴──────────────────────────────────────────────
1、Q:请介绍一下什么是 LPU?
A:作为专为推理设计的芯片(为单一任务量身定做的芯片),LPU(Language Processing Unit,语言处理单元)与
GPU存在根本性差异。GPU源于图形渲染需求,凭借强大的并行计算能力被拓展至AI领域,支撑模型训练与推理;而LPU则
聚焦语言处理场景,针对文本数据的特性深度优化在自然语言理解、文本生成等任务中实现更高效的处理——如同为“文
本引擎”量身定制的专用加速器,在语义解析、对话交互等垂直场景中,展现出比通用计算单元更精准的能效比与响应速
度,重新定义了语言智能的硬件实现路径。
LPU采用大容量片上SRAM架构,数据直接集成于芯片,访问延迟远低于传统GPU的“仓库-生产线”分离模式,实现“
生产线旁即仓库”的极速响应;其确定性执行架构通过“静态时序”规划,将计算与通信步骤精确到时钟周期,保障稳定
高吞吐量。
更关键的是,LPU抛弃了传统“存算分离”的冯诺依曼架构包袱,如同专为推理定制的“F1赛车”,在低时延、高吞
吐低成本、高能效四大维度形成综合优势,成为大模型推理的“性能引擎”。
2、Q:在2月份英伟达大会上,英伟达一直在强调,Token即收入,单位Token的成本,关注最佳每瓦性能,能否分享
下LPU和GPU相比,我们的Token输出速度能快多少,以及成本能下降多少,能耗能下降多少?
A:根据 Groq CEO 在 2024 年 ISSCC 国际固态电路大会公布的实测数据:LPU 的 Token 生成速度达到英伟达H100
的 6倍,单 Token成本降至 H100的 1/4,推理能耗降至 H100 的 1/3。元川微自身架构验证数据与 Grok接近,且通过进
一步架构优化,有望在能效和成本上表现更优。
3、Q:能否分享一下 LPU速度快的原因是什么?
A:LPU速度领先的核心原因,主要来自三大技术特性①硬流水体系结构:LPU采用纯硬件流水线架构,天然规避冯·
诺依曼体系中系统调度、仲裁、多级缓存等额外开销,时延极短。
②片上大容量SRAM及高带宽:大容量片上SRAM使模型处理长上下文时无需将数据卸载至片外存储,显著降低访存时延
;高带宽提升单次Token并行处理能力,并增强算子融合效率——原需3个算子完成的计算可融合为2至2.5个算子执行。
③ 静态编译调度机制:所有调度工作在编译期静态完成,运行时无需动态仲裁。类比高铁运行图,调度预先确定拥
塞概率极低;传统GPU动态调度犹如高速公路自由行驶个体随机性在数学上必然导致系统性拥塞。
4、Q:根据 Groq的设计,LPU 跨过了内存墙,使用了大量 SRAM,一方面 SRAM的价格比较昂贵,成本问题如何解决
?另一方面 SRAM的容量较低,能否承载超大模型推理?
A:关于 LPU 采用大容量 SRAM带来的成本与超大模型承载问题,我们从架构本质和产品迭代两个层面给出清晰解答
。成本方面,芯片制造成本的核心决定因素是芯片裸片面积与光罩层数,而非片上组件类型,以相同工艺、
|