当地时间周三芯片公司英特尔、ARM 和英伟达共同发布了一项所谓人工智能通用交换格式的规范草案,目的是使机器处理人工智能的过程速度更快、更高效。
英特尔、ARM 和英伟达在草案中推荐人工智能系统使用 8 位的 FP8 浮点处理格式。他们表示,FP8 浮点处理格式有可能优化硬件内存使用率,从而加速人工智能的发展。这种格式同时适用于人工智能训练和推理,有助于开发速度更快、更高效的人工智能系统。
在开发人工智能系统时,数据科学家面临的关键问题不仅是收集大量数据来训练系统。此外还需要选择一种格式来表达系统权重,权重是人工智能从训练数据中学习到影响系统预测效果的重要因素。权重使得 GPT-3 这样的人工智能系统能够从一个长句子提示自动生成整个段落,还能让 DALL-E 2 人工智能基于某个特定标题生成逼真的肖像画。
人工智能系统权重常用的格式有半精度浮点数 FP16 和单精度浮点数 FP32,前者使用 16 位数据表示系统权重,后者则使用 32 位。半精度浮点数以及更低精度浮点数能减少了训练和运行人工智能系统所需的内存空间,同时还加快计算速度,甚至减少占用的带宽资源和耗电量。但因为位数较单精度浮点数更少,准确性会有所降低。
然而,包括英特尔、ARM 和英伟达在内的许多行内公司都将 8 位的 FP8 浮点处理格式作为最佳选择。英伟达产品营销总监萨沙・纳拉西姆汉(Shar Narasimhan)在一篇博客文章中指出,FP8 浮点处理格式在计算机视觉和图像生成系统等用例中的精度与半精度浮点数相当,同时有“明显”加速。
英伟达、ARM 和英特尔表示,他们将让 FP8 浮点处理格式成为一种开放标准,其他公司无需许可证即可使用。三家公司在一份白皮书对 FP8 进行了详细描述。纳拉西姆汉表示,这些规范都将提交给技术标准化组织 IEEE,看 FP8 格式能否成为人工智能行业的通用标准。
纳拉西姆汉说:“我们相信,一个通用的交换格式将带来硬件和软件平台的快速进步,提高互操作性,从而推进人工智能计算的进步。”
当然,三家公司之所以不遗余力推动 FP8 格式成为通用交换格式也是出于自身研究的考虑。英伟达的 GH100 Hopper 架构已经实现对 FP8 格式的支持,英特尔的 Gaudi2 人工智能训练芯片组也支持 FP8 格式。
但通用的 FP8 格式也会使 SambaNova、AMD、Groq、IBM、Graphcore 和 Cerebras 等竞争对手受益,这些公司都曾在开发人工智能系统时试验或采用 FP8 格式。人工智能系统开发商 Graphcore 联合创始人兼首席技术官西蒙・诺尔斯(Simon Knowles)在今年 7 月份的一篇博客文章中写道,“8 位浮点数的出现在处理性能和效率方面为人工智能计算带来了巨大优势”。诺尔斯还称,这是行业确定“单一开放标准”的“一个机会”,比采取多种格式相互竞争要好得多。
访谈
更多做行业赋能者 HID迎接数字化浪潮新机遇 破解新挑战
今年3月份,全球可信身份解决方案提供商HID发布了最新的《安防行业现状报告》(以下简称“报告”),该报告…
数字化浪潮下,安防厂商如何满足行业客户的定制化需求?
回顾近两年,受疫情因素影响,包括安防在内的诸多行业领域都遭受了来自市场 “不确定性”因素的冲击,市场…
博思高邓绍昌:乘产品创新及客户服务之舟,在市场变革中逆风飞扬
11月24日,由慧聪物联网、慧聪安防网、慧聪电子网主办的2022(第十九届)中国物联网产业大会暨品牌盛会,在深…