国产小厂胖揍英伟达,中国芯片这就崛起了

最近,差评君听到了一个好消息。

AI算力领域的“图灵奖”——MLPerf测试,发布了一个关于当前主流ai芯片的基准性能的测试结果。

一家首次参加测试的芯片企业——墨芯人工智能,化身“草根英雄”,火速制裁了AI芯片的霸主英伟达。

墨芯S30芯片在主流AI模型之一的图像分类(ResNet50)中,以FPS的单卡算力夺得全球第一。

是英伟达现役最强GPU——A的2倍,是即将上市的英伟达H的1.2倍。

对芯片不太了解的差友,可能不太了解这事的重要性。

市场研究公司Omdia调查显示:英伟达占据了全球人工智能(AI)处理器80.6%的市场份额。

而作为他的旗舰产品A、H几乎代表了全球同类芯片的最高水平。

如果墨芯s30真能超越英伟达最新科技的话,说不定双方的团队已经在洽谈收购的事情了。

不过,更逆天的是,墨芯S30竟然用14nm纳米的制程就暴打了4nm工艺的英伟达最强GPU——h系列。

这是真的6翻了。

虽然,每一年都有一两家企业叫嚣着:拳打英伟达、脚踩英特尔。

但是能用14nm工艺超越4nm工艺的芯片公司,英特尔看了都要馋。

所以要是不出意外的话,凭借这个技术,名不经传的墨芯公司完全可以,名扬大中华,技术封锁美利坚,然后带着欧盟27个小弟称霸世界了。

好了,说到这里,想必各位差友都知道了

如果不出意外的话,那么意外就来了。

很快有人扒出来:墨芯这瓜,它不保熟。

虽然,这个叫做MLPerf的性能测试,权威且保真。

但是,也有很多周旋的空间。

比如,虽然墨芯公司官方的宣传里,着重强调了“算力全球第一”。

但后续有人扒出了,这个“全球第一”的数据经过了“美化”的处理。

关键性的分组标签,被人p掉了。

点击查看大图▼

点击查看大图▼

原来,这个MLPerf测试它是分为Closed(固定任务)和Open(开放优化)两组。

Closed代表的固定任务分组,进行的是正式比赛。

也就是说,厂商们,需要运行统一的算法,对同一个模型图像分类(ResNet50)进行计算,实现芯片之间的性能比较。

而这个open分组就是用来展示一些创新性的成果的,也就是所谓的表演赛。

在这个组别里,只要不改变测试的内容,你想怎么玩都行。

而墨芯参加的恰恰就是open分区的测试。

于是,墨芯s30凭借着“稀疏化”的算法,用“无规则格斗”的打法胜了英伟达的“空手道”。

然后,公司再一运作,删删减减,一个全球算力第一的营销广告就这么华丽的出现。

又一个营销鬼才。

不过这岂不是证明了墨芯用的稀疏算法,能大幅增加ai芯片的算力?

情况也确实是这样的。

所谓的稀疏算法,又称剪枝。

就是在ai模型的训练过程中,把一些不重要的运算过程去掉,大大增加计算的效率。

这就像识别一个超清的图像,如果我们降低到标清的水平,传输速度就会快上许多。

但是,这种成倍提升算力的“黑魔法”怎么会没有代价呢?

一来,这种提升算力的方式应用场景比较小,不适合高精度的模型训练。

二来,算力是通用的,ai的模型并不是,这就需要根据不同的模型,研究不同的稀疏算法。

但问题的重点在于,稀疏算法并不是墨芯一家的专利,英伟达家的h也能支持。

而且,英伟达依然是目前唯一一家在每轮MLPerf基准测试都参与所有主流算法测试,然后横扫各项测试成绩的全能选手。

所以说,回到ai芯片的性能本身,我们还是很难否认英伟达在这方面的统治力。

不过,抛开这次的“吊打英伟达”的乌龙事件不谈,最近几年国内还是涌现出一批优秀的国产ai芯片。

比如在今年3月,壁仞科技诞生了一枚名为BR的芯片。

这颗芯片16位浮点算力在0T以上,8位定点算力达到了T以上,打破了此前一直由国际巨头保持的通用GPU全球算力纪录。

而19年,华为发布的昇腾芯片的算力也号称是当时国际顶尖水平的两倍。

看来,真金白银地砸进去还是有水花的。

不过,当国内芯片的性能开始触碰到全球算力的天花板的时,我们才发现差距不止在算力上。

国内的一大批创业者们,早已经在追赶英伟达的过程中,撞上了第二堵南墙:生态。

年前后,ai的浪潮席卷中国,人人都想做“中国的英伟达”。

但后来,国内的厂商们慢慢发现AI芯片陷入了一个困境:ai芯片无法成为一个单独的产品。

探境科技的CEO概括了这种复杂的处境:

英伟达的GPU在AI应用中很难被替换,因为英伟达的GPU除了能处理AI的工作,还能进行图形计算等。

即便AI专用芯片性能大幅提升,也不能满足最终应用的所有需求,客户还要再购买GPU。

以至于,大家都以兼容英伟达的软件开发系统目标,如果不兼容,代码重新开发或者移植的成本太大了。

之所以会有这样的问题,是因为英伟达依靠在gpu上的先发优势建立了自己的生态--CUDA,一套与英伟达芯片配套的软硬件开发的工具包。

能为几乎所有主流的ai模型服务,同时大量的开发者也在反哺和完善这个生态。

据年英伟达官方最新数据显示,英伟达生态的开发者数量已接近万,CUDA在过去15年总计下载量达0万次,过去一年下载量达到万。

这就好比同样是一个野外求生俱乐部。

国内还停留在,拿着一本野外求生指南让客户自己学的阶段时。

而英伟达,已经提供了全套装备。

甚至送来了一个贝爷。

这就导致了,AI的软件生态成了英伟达生态。

而英伟达的软件生态,尤其是CUDA相关的核心部分都是闭源、封闭的。

在这样的封锁下,想要将自家的软件与英伟达的生态兼容的难度可想而知,建立一个新的AI生态更是痴人说梦。

一位国内AI芯片公司软件的负责人直言:“CEO和CTO都听不懂我的工作。一些国内AI公司创始人对软件的认知,相比领先的国际大公司,我认为有十几年的差距。”

英伟达GPU强大的产品力加上顶尖的CUDA软件生态,使得它在AI领域的势力不可动摇。

包括微软、三星、Snap等在内的多家企业客户,都接入了英伟达的ai推理平台。

而且它比想象的要难以超越。

因为他不仅比你更强,还比你更努力。

在过去的十年中,英伟达在研发方面的支出持续扩大,根据财报,年英伟达研发投入达到39.24亿美元。

所以,在这种全面的领先下,我们很难相信有什么公司可以在ai芯片领域,一步跨越大山一样的英伟达。

这一点,每年砸出去上百亿的英特尔深有体会。

而相对于全球其他的竞争者们,我们还面临着芯片制程的问题。

但即便如此,差评君觉得,差距越大,我们更应该脚踏实地地发展。

不要幻想一日赶英超美,而是紧紧跟在对手的身后,就像一头猎豹,等待敌人犯错。




转载请注明:http://www.aierlanlan.com/rzdk/5690.html