后摩智能吴强亮相WISE2025:存算一体重构端边通用AI计算新格局

发布者:后摩智能
时间:2025-12-01
收藏
已收藏

2025年11月27-28日,36氪年度重磅S级商业大会“WISE2025 商业之王”在北京朝阳798艺术区传导空间盛大启幕。作为聚焦AI、出海、品牌等核心赛道的顶级商业盛会,大会以“科技爽文短剧”创新形式汇聚行业领军者,共探商业与科技融合新路径。后摩智能创始人、CEO吴强受邀出席,发表“端边智能的觉醒时刻:存算一体重构AI通用算力新格局”主题演讲。

图片

“未来五到十年,端边侧计算将从以逻辑控制为主,转向以AI为主。我们正站在端边侧AI爆发的前夜。”在大会上,吴博这样判断。

他认为,端边AI计算正在经历类似数据中心过去十年的“范式迁移”——从控制优先转向数据优先,而推动这一变革的核心动力,正是大模型落地带来的算力重构需求。

当前端边计算仍以CPU及控制为主,AI仅是配角;随着感知、理解、决策类任务逐渐成为端侧主流,通用AI芯片将迎来爆发。但是,端边通用AI芯片仍面临严峻的挑战:传统架构面临“存储墙”与“功耗墙”的制约,约90%功耗耗在数据搬运上,而非计算本身。

针对这一痛点,后摩智能选择了“存算一体”技术路径,提升计算效率效,并于今年7月推出首款针对端边大模型的芯片M50。该芯片以10W功耗提供100-160T算力,可支持百亿级参数大模型在端侧运行,目前已与AIPC、智能办公、陪伴机器人、5G+AI等场景的客户展开合作。

随着M50明年起逐步落地,以及信创PC、智能办公、陪伴机器人等场景的持续拓展,后摩智能正与产业链上下游共建端边AI生态。



以下为吴强博士演讲内容(经36氪整理编辑):


大家好,我是后摩智能的吴强。我们是一家专注于端边AI芯片的公司,今天想借这个机会,和大家分享我们对于端边AI计算的一些思考和实践。

大模型推动了AI进入2.0时代,这不仅改变了云端数据中心的计算格局,也让英伟达成为全球首家突破5万亿美元市值的公司。我们认为,未来几年,端边侧也将迎来巨大机遇。由于端边设备对实时性、隐私性有天然需求,再加上AI普惠化的发展趋势,我们相信,端边计算会逐渐崛起,成为AI竞争的主战场。

图片

目前,端边计算的市场规模才刚刚起步,但我们预计在未来五到十年,它将迎来爆发式增长。例如,STL Partners预测,这个市场的规模可能达到四千亿美元甚至更高。

今天,端边计算仍然以逻辑控制为主。那么未来五到十年,端边计算的格局会怎样?我们认为,它会从现在的逻辑控制为主,逐步转向以数据为中心的AI计算为主。

回顾数据中心过去十年的发展,我们可以看到类似的变迁。以前,数据中心80%的支出用于逻辑控制类计算,比如网页处理、数据库操作等,只有20%用于数据类计算。而今天,这个比例已经反转:80%用于AI计算,20%用于逻辑控制。这种计算范式的迁移,正是由应用场景的演变驱动的。

图片

那么,在端边侧,我们是否也能预见同样的变化?目前,端侧的计算仍以CPU为主,AI更多是辅助角色。但我们预计,未来五到十年,端边的任务将更多转向感知、理解、决策等,走向以数据和AI为主的方向。这是我们做出的第一个判断。

具体看端边AI计算,它可以分为垂类和通用两大类。垂类场景如手机、智能驾驶等,由于场景明确、体量大,已经受到广泛关注,并且在算法与芯片架构上做了大量软硬件协同优化。

而另一类是端边通用AI计算,它覆盖成千上万种不同场景,每个场景规模不大,但总和非常可观。这类计算需求多样,既要保证效率,又要兼顾通用性,目前才刚刚受到重视,也是我们接下来想重点谈的。

那么,端边通用AI芯片的特点和挑战是什么?首先,它处于端边侧,成本敏感、功耗敏感,带宽也容易成为瓶颈,特别是在大模型时代。其次,作为通用芯片,它要适配各行各业、众多场景,需要高通用性才能满足所有需求。我们必须在底层架构上,在不损失通用性的前提下,提升能效,满足端边侧的需求。这是行业过去几年一直在探索的方向。

要解决这个问题,首先要看清当前架构的瓶颈。传统架构灵活性好,但如今遇到了“存储墙”和“功耗墙”——数据搬运成为主要瓶颈,90%的功耗可能都花在数据搬运上,而不是计算本身。因此,要想提升端边通用AI的效率,就必须从根本上突破这两大瓶颈。

我们认为,存算一体是突破存储墙和功耗墙的最佳路径之一。它本质上是通过拉近数据与计算的距离,来减少数据搬运,从而提升能效。存算一体有多种实现方式,比如基于SRAM和DRAM。SRAM更适合提升计算密度和能效,DRAM则更擅长解决带宽问题。

图片

后摩智能从成立之初,就专注于存算一体的大算力芯片研发,也是第一家将存算一体大算力从论文推向实践的企业经过四五年的技术积累,我们已经推出了两代量产产品。今年7月,我们发布了最新的旗舰芯片——M50。

M50是我们首款专为端边大模型设计的芯片,提供约100-160T的算力,功耗仅10W,能够支持从140亿、200亿、300亿直至1200亿参数的大模型。我们提供了多种产品形态,如M.2卡和Duo M.2卡,最小的M.2卡只有口香糖大小,却可以运行140亿甚至300亿参数的模型,这在端边场景中给客户带来了很大惊喜。

发布以来,我们一直在与客户推动M50的落地。在端侧,我们合作的场景包括智能语音设备、AIPC、陪伴机器人、AI NAS等;在边侧,主要聚焦AI网关、5G+AI、计算盒子等场景。

一个好的芯片离不开好的工具链。针对M50,我们提供了完整的工具链,支持各类已训练好的模型(包括开源模型)直接转换到硬件运行,无需重新训练。由于M50支持bFP等浮点精度,整个编译过程非常顺畅,客户可以快速完成模型适配。

从7月发布至今,我们与芯片上下游伙伴紧密合作,完成了与多种操作系统(包括Windows、Linux,以及麒麟、统信等信创系统)的适配,也协同了各类主控芯片(x86、ARM及国产CPU)。同时,我们正与算法层、解决方案层的伙伴开展大量适配工作,预计从明年初开始,会有更多落地应用推出。我们希望与更多伙伴共建端边AI生态。

最后我想总结,尽管当前端边计算仍以控制和逻辑为主,但我们坚信,未来五到十年,它将转向以AI为主,端边通用AI计算也将迎来爆发。这是一个历史趋势。后摩智能愿与上下游伙伴一起,共建端边AI生态,推动AI普及与普惠,让生活更加美好。 

图片


大会上,36氪正式发布「WISE2025 商业之王 年度企业系列名册」。本榜单聚焦十大关键方向,系统梳理在AI、数字化、先进制造、消费品牌、文化内容、低空经济、跨境服务、生态赋能、孵化支持、商业潜力等方面表现卓越的代表性企业与平台。后摩智能凭借存算一体技术的创新突破及落地成果,成功入选大会重磅发布的“AI应用场景突破企业榜单”