中科环保(SZ 301175,收盘价:4.66元)发布公告称,2024年15:00-16:00,中科环保接受中信保诚基金管理有限等机构调研,公司财务总监庄五营、...
国中水务发布股票交易异常波动公告,经公司自查,并向公司控股股东及其一致行动人和实际控制人再次核实,截至本公告披露日,公司不存在应披露而未披露的重大事项。北京汇源...
人民网北京6月25日电 23日起,全国多地陆续公布高考成绩。截至目前配资代理配资代理,吉林、天津、山西、河南、四川、江苏、青海、河北、湖南、重庆、辽宁、福建、陕...
创金合信季安鑫3个月持有期债券型证券投资基金2024年中期报告基金管理人:创金合信基金管理有限公司基金托管人:招商银行股份有限公司送出日期:2024年8月29日...
1、每日经济新闻:上海市浦东新区房地大厦举行今年第四批次集中供地活动,徐汇区斜土街道xh128D-07地块最终被绿城以总价约48亿元夺得,楼板价13.1万元/平...
|
当地时间周二,机器学习及人工智能领域开放产业联盟MLCommons披露两项MLPerf基准评测的最新数据,其中英伟达H100芯片组在人工智能算力表现的测试中,刷新了所有组别的纪录,也是唯一一个能够跑完所有测试的硬件平台。 (来源:英伟达、MLCommons) ![]() MLPerf是由学术界、实验室和产业组成的人工智能领袖联盟,是目前国际公认的权威AI性能评测基准。Training v3.0包含8种不同的负载,包括视觉(影像分类、生物医学影像分割、两种负载的物体侦测)、语言(语音识别、大语言模型、自然语言处理)和推荐系统。简单来说,就是由不同的设备供应商提交完成基准任务所需要的时间。 (Training v3.0训练基准,来源:MLCommons) 在投资者比较关注的“大语言模型”训练测试中,英伟达和GPU云算力平台CoreWeave提交的数据为这项测试设定了残酷的业界标准。在896个英特尔至强8462Y+处理器和3584个英伟达H100芯片的齐心协力下,仅仅花了10.94分钟就完成了基于GPT-3的大语言模型训练任务。 除了英伟达外,只有英特尔的产品组合在这个项目上获得评测数据。由96个至强8380处理器和96个Habana Gaudi2 AI芯片构建的系统中,完成同样测试的时间为311.94分钟。横向对比,使用768个H100芯片的平台跑完这个测试也只需要45.6分钟。 (芯片越多数据越好看,来源:英伟达) 对于这个结果,英特尔也表示仍有上升空间。理论上只要堆更多的芯片,运算的结果自然会更快。英特尔AI产品高级主管Jordan Plawner对媒体表示,接下来Habana的运算结果将会呈现1.5倍-2倍的提升。Plawner拒绝透露Habana Gaudi2的具体售价,仅表示业界需要第二家厂商提供AI训练芯片,而MLPerf的数据显示英特尔有能力填补这个需求。 而在中国投资者更熟悉的BERT-Large模型训练中,英伟达和CoreWeave将数据刷到了极端的0.13分钟,在64卡的情况下,测试数据也达到了0.89分钟。BERT模型中的Transformer结构正是目前主流大模型的基础架构。 相关报道国家信息中心单志广:算力指数每提高1点 对GDP有1.8‰的推动 算力能耗均优于GPU!韩国政企联合斥资研发NPU芯片 替代竞争或将开启证券杠杆 |