国产小厂肥揍英伟达 中国芯片这便突起了?
最近,差评君听到了一个好消息。
AI 算力领域的 图灵奖 MLPerf 测试,发布了一个关于当前主流 ai 芯片的基准性能的测试结果。
一蓝狮在线家首次参加测试的芯片企业 墨芯人工智能,化身 草根英雄 ,火速制裁了 AI 芯片的霸主英伟达。
墨芯 S30 芯片在主流 AI 模型之一的图像分类( ResNet50 )中,以 95784 FPS 的单卡算力夺得全球第一。
是英伟达现役最强 GPU A100 的 2 倍,是即将上市的英伟达 H100 的 1.2 倍。
对芯片不太了解的差友,可能不太了解这事的重要性。
市场研究公司 Omdia 调查显示:英伟达占据了全球人工智能( AI )处理器 80.6% 的市场份额。
而作为他的旗舰产品 A100、H100 几乎代表了全球同类芯片的最高水平。
如果墨芯 s30 真能超越英伟达最新科技的话,说不定双方的团队已经在洽谈收购的事情了。
不过,更逆天的是,墨芯 S30 竟然用 14nm 纳米的制程就暴打了 4nm 工艺的英伟达最强 GPU h100 系列。
这是真的 6 翻了。
虽然,每一年都有一两家企业叫嚣着:拳打英伟达、脚踩英特尔。
但是能用 14nm 工艺超越 4nm 工艺的芯片公司,英特尔看了都要馋。
所以要是不出意外的话,凭借这个技术,名不经传的墨芯公司完全可以,名扬大中华,技术封锁美利坚,然后带着欧盟 27 个小弟称霸世界了。
好了,说到这里,想必各位差友都知道了
如果不出意外的话,那么意外就来了。
很快有人扒出来:墨芯这瓜,它不保熟。
虽然,这个叫做 MLPerf 的性能测试,权威且保真。
但是,也有很多周旋的空间。
比如,虽然墨芯公司官方的宣传里,着重强调了 算力全球第一 。
但后续有人扒出了,这个 全球第一 的数据经过了 美化 的处理。
关键性的分组标签,被人p掉了。
点击查看大图 ▼
点击查看大图 ▼
原来,这个 MLPerf 测试它是分为 Closed( 固定任务 )和 Open( 开放优化 )两组。
Closed 代表的固定任务分组,进行的是正式比赛。
也就是说,厂商们,需要运行统一的算法,对同一个模型图像分类( ResNet50 )进行计算,实现芯片之间的性能比较。
而这个 open 分组就是用来展示一些创新性的成果的,也就是所谓的表演赛。
在这个组别里,只要不改变测试的内容,你想怎么玩都行。
而墨芯参加的恰恰就是 open 分区的测试。
于是,墨芯 s30 凭借着 稀疏化 的算法,用 无规则格斗 的打法胜了英伟达的 空手道 。
然后,公司再一运作,删删减减,一个全球算力第一的营销广告就这么华丽的出现。
又一个营销鬼才。
不过这岂不是证明了墨芯用的稀疏算法,能大幅增加 ai 芯片的算力?
情况也确实是这样的。
所谓的稀疏算法,又称剪枝。
就是在 ai 模型的训练过程中,把一些不重要的运算过程去掉,大大增加计算的效率。
这就像识别一个超清的图像,如果我们降低到标清的水平,传输速度就会快上许多。但是,这种成倍提升算力的 黑魔法 怎么会没有代价呢?
一来, 这种提升算力的方式应用场景比较小,不适合高精度的模型训练。
二来,算力是通用的,ai 的模型并不是,这就需要根据不同的模型,研究不同的稀疏算法。
但问题的重点在于,稀疏算法并不是墨芯一家的专利,英伟达家的 h100 也能支持。
而且,英伟达依然是目前唯一一家在每轮 MLPerf 基准测试都参与所有主流算法测试,然后横扫各项测试成绩的全能选手。
所以说,回到 ai 芯片的性能本身,我们还是很难否认英伟达在这方面的统治力。
不过,抛开这次的 吊打英伟达 的乌龙事件不谈,最近几年国内还是涌现出一批优秀的国产 ai 芯片。
比如在今年 3 月,壁仞科技诞生了一枚名为 BR100 的芯片。
这颗芯片 16 位浮点算力在 1000T 以上,8 位定点算力达到了 2000T 以上,打破了此前一直由国际巨头保持的通用 GPU 全球算力纪录。
而 19 年,华为发布的昇腾 910 芯片的算力也号称是当时国际顶尖水平的两倍。
看来,真金白银地砸进去还是有水花的。
不过,当国内芯片的性能开始触碰到全球算力的天花板的时,我们才发现差距不止在算力上。
国内的一大批创业者们,早已经在追赶英伟达的过程中,撞上了第二堵南墙:生态。
2016 年前后,ai 的浪潮席卷中国,人人都想做 中国的英伟达 。
但后来,国内的厂商们慢慢发现AI芯片陷入了一个困境:ai 芯片无法成为一个单独的产品。
探境科技的CEO概括了这种复杂的处境:
英伟达的GPU在AI应用中很难被替换,因为英伟达的GPU除了能处理AI的工作,还能进行图形计算等。即便AI专用芯片性能大幅提升,也不能满足最终应用的所有需求,客户还要再购买GPU。以至于,大家都以兼容英伟达的软件开发系统目标,如果不兼容,代码重新开发或者移植的成本太大了。
之所以会有这样的问题,是因为英伟达依靠在 gpu 上的先发优势建立了自己的生态–CUDA ,一套与英伟达芯片配套的软硬件开发的工具包。
能为几乎所有主流的 ai 模型服务,同时大量的开发者也在反哺和完善这个生态。
据 2021 年英伟达官方最新数据显示,英伟达生态的开发者数量已接近 300 万, CUDA 在过去 15 年总计下载量达 3000 万次,过去一年下载量达到 700 万。
这就好比同样是一个野外求生俱乐部。
国内还停留在,拿着一本野外求生指南让客户自己学的阶段时。
而英伟达,已经提供了全套装备。
甚至送来了一个贝爷。
这就导致了,AI的软件生态成了英伟达生态。
而英伟达的软件生态,尤其是 CUDA 相关的核心部分都是闭源、封闭的。
在这样的封锁下,想要将自家的软件与英伟达的生态兼容的难度可想而知,建立一个新的 AI 生态更是痴人说梦。
一位国内AI芯片公司软件的负责人直言: CEO 和 CTO 都听不懂我的工作。一些国内 AI 公司创始人对软件的认知,相比领先的国际大公司,我认为有十几年的差距。
英伟达 GPU 强大的产品力加上顶尖的 CUDA 软件生态,使得它在 AI 领域的势力不可动摇。
包括微软、三星、 Snap 等在内的 25000 多家企业客户,都接入了英伟达的 ai 推理平台。而且它比想象的要难以超越。
因为他不仅比你更强,还比你更努力。
在过去的十年中,英伟达在研发方面的支出持续扩大,根据财报,2021 年英伟达研发投入达到 39.24 亿美元。
所以,在这种全面的领先下,我们很难相信有什么公司可以在ai芯片领域,一步跨越大山一样的英伟达。
这一点,每年砸出去上百亿的英特尔深有体会。
而相对于全球其他的竞争者们,我们还面临着芯片制程的问题。
但即便如此,差评君觉得,差距越大,我们更应该脚踏实地地发展。
不要幻想一日赶英超美,而是紧紧跟在对手的身后,就像一头猎豹,等待敌人犯错。
双11红包活动推荐:
京东红包(每日三次,最高11111元):领取>> | 打开京东APP搜索“领红包985”
天猫红包(每日一次,最高22888元):领取>> | 打开天猫APP搜索“天降红包5656”