0 卖盘信息
BOM询价
您现在的位置: 首页 > 电子资讯 >技术信息 > 为人工智能应用铺平道路的技术

为人工智能应用铺平道路的技术

来源: eetasia
2022-08-31
类别:技术信息
eye 15
文章创建人 拍明芯城

原标题:为人工智能应用铺平道路的技术

  

“人工智能”这个词几乎出现在每个行业的讨论中,但谈论较少的是技术。


  在我们这个以科技为主导的世界里,“人工智能”这个词几乎出现在每个行业的讨论中。无论是汽车、云、社交媒体、医疗保健还是保险,人工智能正在产生重大影响,大大小小的公司都在进行投资。

  然而,很少有人谈论的是使我们目前对人工智能的使用变得可行并为未来的增长铺平道路的技术。毕竟,人工智能并不容易,它需要越来越大的 神经网络模型 和数据集来解决自然语言处理等最新问题。

  从 2012 年到 2019 年,随着更复杂的问题的处理,人工智能训练能力的增长增加了 30 万倍。这意味着每 3.4 个月培训能力翻一番,这是一个令人难以置信的增长率,需要对许多技术进行快速创新。世界上数字数据的绝对数量也在迅速增加——据估计,每两到三年翻一番——在许多情况下,人工智能是及时理解这一切的唯一方法。

  随着世界继续变得更加丰富的数据,以及随着基础设施和服务变得更加数据驱动,存储和移动数据的重要性正在迅速增长。在幕后,DDR 和 HBM 等内存技术的进步,以及 Compute Express Link (CXL) 等新的互连技术,正在通过使其更易于使用,为在未来计算系统中更广泛地使用 AI 铺平道路。

  这最终将带来新的机遇,尽管每个机遇也都有其自身的挑战。随着 摩尔定律的放缓,这些技术变得更加重要,特别是如果该行业希望保持我们已经习惯的进步步伐。

  DDR5

  尽管 JEDEC DDR5 规范最初于 2020 年 7 月发布,但该技术才刚刚开始在市场上推广。为了满足超大规模数据中心的需求, DDR5 在其前身 DDR4 的基础上进行了改进,将数据传输速率提高了一倍,将存储容量提高了 4 倍,并降低了功耗。DDR5 主内存将启用对数据中心人工智能和通用计算的进步至关重要的新一代服务器平台。

  为了实现更高的带宽和更大的容量,同时保持在所需的功率和散热范围内运行,DDR5 DIMM 必须“更智能”且功能更强大的内存模块。在扩展的芯片组中,SPD 集线器和温度传感器被整合到服务器 RDIMM 中,并过渡到 DDR5。

  HBM3

  由于人工智能程序和其他高强度计算应用程序的强烈需求,高带宽内存(HBM) 曾经是一种特殊的内存技术,正在成为主流。HBM 能够提供所需的巨大内存带宽,以快速有效地移动 AI 所需的越来越多的大量数据,尽管由于其 2.5D/3D 架构而增加了设计和实现的复杂性。

  今年 1 月,JEDEC 发布了 HBM3 对 HBM 标准的更新,将性能提升到了一个新的水平。当使用四个 DRAM 堆栈时,HBM3 每秒可提供 3.2 TB 的数据,与前几代 HBM 和 DDR 内存等解决方案相比,提供更好的功率和面积效率。

  GDDR6

  二十年来,GDDR 内存一直是图形行业的支柱,为 GPU 和游戏机提供更逼真的渲染所需的不断增加的带宽水平。虽然其性能和能效不如 HBM 内存高,但 GDDR 建立在与 DDR 类似的 DRAM 和封装技术上,并遵循更熟悉的设计和制造流程,从而降低了设计复杂性并使其对多种类型的 AI 应用程序具有吸引力。

  GDDR 系列的当前版本 GDDR6 可以在单个 DRAM 中提供每秒 64 GB 的内存带宽。狭窄的 16 位数据总线允许将多个 GDDR6 DRAM 连接到一个处理器,八个或更多 DRAM 通常连接到一个处理器,并能够提供 512 GB/s 或更高的内存带宽。

  计算快速链接

  CXL 是互连技术向前迈出的革命性一步,它支持数据中心的大量新用例,从内存扩展到内存池,并最终实现完全分解和可组合的计算架构。由于内存是服务器 BOM 的很大一部分,使用 CXL 互连的分解和可组合性可以更好地利用内存资源,从而提高 TCO。

  此外,处理器核心数量的持续增长速度超过了内存系统能够跟上的速度,从而导致每个核心的可用带宽和容量有随着时间推移而下降的危险。CXL 内存扩展可以提供更多带宽和容量,以保持处理器内核提供更多数据。

  最新的 CXL 规范 CXL 3.0于今年 8 月发布。该规范在 2.0 规范的基础上引入了许多改进,包括结构功能和管理、改进的内存共享和池化、增强的一致性以及对等通信。它还将数据速率翻倍至每秒 64 千兆传输,利用 PCI Express 6.0 物理层,无需任何额外延迟。

  虽然这份清单绝不是详尽无遗的,但这些技术中的每一项都有望通过显着提高计算性能和效率来为人工智能带来新的进步和用例,并且每一项都将对未来几年数据中心的发展至关重要。

  本文最初发表于 EE Times。

  Steven Woo 是 Rambus 的杰出发明家。


责任编辑:David

【免责声明】

1、本文内容、数据、图表等来源于网络引用或其他公开资料,版权归属原作者、原发表出处。若版权所有方对本文的引用持有异议,请联系拍明芯城(marketing@iczoom.com),本方将及时处理。

2、本文的引用仅供读者交流学习使用,不涉及商业目的。

3、本文内容仅代表作者观点,拍明芯城不对内容的准确性、可靠性或完整性提供明示或暗示的保证。读者阅读本文后做出的决定或行为,是基于自主意愿和独立判断做出的,请读者明确相关结果。

4、如需转载本方拥有版权的文章,请联系拍明芯城(marketing@iczoom.com)注明“转载原因”。未经允许私自转载拍明芯城将保留追究其法律责任的权利。

拍明芯城拥有对此声明的最终解释权。

下一篇: SPE重新定义PoE

相关资讯