星期一 , 12月 23 2024
首页 / 人工智能 / AI / AI芯片为啥至今都没有出现“爆款”?

AI芯片为啥至今都没有出现“爆款”?

在刚刚过去的2019年,国内外产业玩家们共同推动着AI芯片的车轮向前滚动。7nm芯片还未全面铺开,5nm冲锋的号角已经吹响,在AI强势侵入并颠覆各个传统领域的同时,AI芯片的架构创新持续发酵。“AI芯片”这个新鲜的概念在过去一年间逐渐走过了普及的阶段,越来越被大众所熟知。在行业走过野蛮生长,开始加速落地、加速整合的过程中,也有更多的AI芯片公司也开始走出属于自己的差异化路线。

如今,AI芯片正在云计算、手机、安防监控、智能家居、自动驾驶五大场景上演新的群雄争霸赛,包括华为、阿里、百度等巨头企业,均拿出自己的“杀手锏”。这些“杀手锏”在不同程度上提振了自己在行业的影响力,也给产业带来巨大变革,更让业界看到了中国半导体行业的希望。但是,在经历了一次次疯狂打call之后,每次都觉得差了点什么——那种感觉仿佛就是看了一晚上网红带货,但是当主播大喊“买它!”之后,却无人下单的尴尬。

可以说,尽管去年各大厂商纷纷推出了多款产品,但至今仍然没有任何一款产品可以称得上“现象级爆款”。为什么出现了此种叫好不叫买的情况?不由让笔者深感疑惑。

究其原因不难发现,覆盖细分领域,偏离主战场是其中的重要问题。相关调研公司数据显示,到2022年,整体AI芯片市场规模将会达到596.2亿美元,其中云端训练+云端推断芯片达到244亿美元,占据四成以上的市场规模。毫无疑问,云端服务器市场是AI芯片的主战场。目前的现状是具备通用性优势的GPGPU占据了云端人工智能主导市场,以TPU为代表的ASIC目前只运用在巨头的闭环生态,FPGA在数据中心业务中还在尝试阶段。目前全球各大公司云计算中心如谷歌、微软、亚马逊、阿里巴巴等主流公司均采用GPU进行AI计算。英伟达就是在这里赚的钵满盆满。目前,全球主流的硬件平台都在使用英伟达的 GPU 进行加速,AMD 也在积极参与。亚马逊网络服务 AWS EC2、Google Cloud Engine(GCE)、IBM Softlayer、Hetzner、Paperspace 、LeaderGPU、阿里云、平安云等计算平台都使用了英伟达的 GPU 产品提供深度学习算法训练服务。

反观其他专用AI芯片厂商,在各自聚焦的细分领域都表现抢眼,但难以粉饰自身配角的地位。赛迪顾问的预测数据显示,2019年中国对于AI芯片需求最大的市场依次为安防、零售、医疗、教育、金融、制造、交通、物流等行业。其中最大的安防市场也仅占20%,多家聚焦安防领域的AI芯片厂商在经历了奋力厮杀后,也难以在出货量等方面取得好成绩。

而深究下去,聚焦单一领域又诱发了另一问题:成本问题。随着芯片制造工艺的日益先进,芯片制造成本也水涨船高,如今设计制造一颗10nm芯片的成本要几千万美元,综合成本高达上亿美元。因此,如果不能保证某款单一应用场景下能够大量出货,专用芯片需要保持一定的通用性与灵活度。

最近两年间,产业界开始陆续涌现出神经网络计算专用芯片(AI芯片),寒武纪、深鉴科技、中星微电子等玩家的AI芯片产品采用的都是28nm的芯片工艺,前期从投入到流片的成本超过400万美元,单一品类出货量没有百万的级别将很难收回成本。

而除了成本之外,AI算法的演进也需要纳入考虑。由于目前人工智能算法还在不断变化、不断演进的过程中,人工智能经历了六十多年的发展才迎来了深度学习的大规模爆发,然而现在深度学习算法还有众多有待优化的方面,比如稀疏化、低功耗、小数据训练等,算法尚未定型。

此外,目前语音/文字/图像/视频等不同应用无法使用统一算法,然而许多实际生活中的AI应用程序(识别图像中的对象或理解人类语言)需要不同类型的具有不同层数的神经网络的组合。

因此,在确保AI应用性能的前提下,AI芯片需要尽可能地保持芯片通用性。那么问题来了:既然GPGPU如此强大,能够大小“通吃”,为什么厂商反而顾左右而言他?其实真正的困难在于GPGPU的技术难度。

硬件角度看,最核心的是指令集。指令集的覆盖面、颗粒度、效率等决定一款芯片能否覆盖到足够宽的应用市场领域,并对软件开发和产品迭代足够友好。无论是英伟达还是AMD的GPGPU,指令集都在千条量级,而目前国内的AI芯片指令集大多数都在百条以内。类型与数量的差别映射到硬件高效实现的复杂程度,差距是巨大的,在这方面国内的团队还存在着一定的差距。另一个重要方面就是基于硬件层的任务管理和智能调度,这可以让芯片从硬件层即提高算力的利用率,也就是大家常说的实际算力。大多数AI芯片的做法是完全依赖于软件层的调度实现,但这种方式第一增加了软件开发的复杂度,第二降低了硬件算力的利用率,第三减缓了软件栈迭代更新的速度,这在AI领域,面向算法模型、开发环境、应用场景加速更新的大背景下无疑大大增加了产品落地与工程化的难度。

在软件方面,毫无疑问,最重要的必然是开发生态,GPGPU通过英伟达十多年的耕耘,已经建立起了一个超过160万开发用户的庞大而成熟的生态-CUDA。AI芯片则需要搭建全新的生态,它会带来两个维度显著的问题,第一个维度是客户端,客户需要冗长的适配期,从原有的开发环境切换到新的软件生态,这不仅带来了资源投入,推迟了业务部署时间窗口,增加了业务的不确定性,更严重的是不利于保护已有的软件投资,软件的很多部分都要重新来写并适配,这对企业级用户来讲恰恰是非常敏感与慎重的事情。另一个维度是产品开发端,从底层芯片与系统软件,跳过CUDA层去直接支持开发框架,必然带来巨大的软件投入,不停得追赶现有框架的新版本,以及生态巨头的新框架,这在底层软件人员缺乏的背景下矛盾显得尤其突出。

本文在一开头就提出了一个貌似针对产品的问题,而事实上,这还是一个关于市场的问题。能否成为爆款,一方面要看产品,另一方面还需要看市场需求。数据显示,2018年中国AI芯片市场依然保持增长,整体市场规模达到80.8亿元,同比增长50.2%。且目前依然以云端训练芯片为主。2018年中国云端训练芯片市场份额达到51.3%。巨大的市场前景,也引来各方诸侯前来抢夺。

除了一骑绝尘的英伟达,其他老牌的芯片巨头都没闲着,特别是Intel也在加紧布局通用GPU。英特尔眼馋GPU路人皆知,其背后是一段辛酸史——从开始对GPU的不屑,到基于自家的x86架构开发独立显卡,英特尔折腾了十年之久仍然没做出来一款像样的GPU。近两年传出消息英特尔将在今年推出首款独立GPU,这恐怕要得益于英特尔的重金挖人——原AMD RTG显卡部门负责人Raja、Zen架构的功勋领袖Jim Keller、显卡技术市场总监Damien Triolet这几位大神都在2018年被英特尔招入麾下。

而在国内,一家名为“天数智芯”的公司也宣布将在今年发布GPGPU芯片。这家公司目前围绕GPGPU的系统研发已聚集了一支百余人的技术团队,其中不乏AMD在美国和上海做 GPU的核心团队成员、行业经验超20年的世界级技术专家。

从产业发展规律来看,在过去两年之内AI芯片将持续火热,大家扎堆进入;但是到了2020年前后,则将会出现一批出局者,行业洗牌开始。由于目前AI算法还在不断演进汇总的过程中,最终的成功与否则将取决于各家技术路径的选择和产品落地的速度。让我们静待2020年的第一个“爆款”早日来临。

关于 声波

声波
发现不同的声音

检查

OpenAI重磅发布o3,再次突破AI极限

OpenAI迎来了年底AI春晚 …

发表评论

邮箱地址不会被公开。 必填项已用*标注