首页 > 科技 » 正文

在中央处理器上运行人工智能和边缘工作负载

 Contributed by Intel

随着计算环境从数据中心延伸到云和边缘,工作负载变得更加分散,从AI和HPC到微服务和物联网,这些挑战变得更加严峻.

十多年来,合作伙伴内容能力和数据中心冷却一直是试图在保持成本控制的同时满足计算需求的企业面临的挑战.

人工智能的快速创新和采用--特别是在生成式人工智能(GenAI)的新时代--将产生重大影响.

2022年,美国的数据中心使用了全国约3%的电力,到本十年结束时,这一数字可能会增加两倍.

电力研究所(EPRI)5月份的一份报告预测,到2030年,通过处理人工智能工作负载,数据中心可能会消耗高达9%的美国发电量.

根据EPRI的《动力智能:分析人工智能和数据中心能源消耗报告》,人工智能查询所需的电力大约是传统互联网搜索以及音乐、照片和视频生成所需电力的10倍,而生成音乐、照片和视频所需的电力甚至更多.

相比之下,在谷歌上进行传统搜索大约需要0.

3瓦时(WH).

在OpenAI的ChatGPT上查询大约需要2.

9瓦时,超大规模云提供商将计算能力集中在庞大的数据中心,这些数据中心的耗电量可能相当于8万至80万户家庭,这加剧了这个问题.

许多大型语言模型(LLM)的培训和人工智能工作负载的处理都是在这些云数据中心进行的.

在Intel Xeon 6中,英特尔正在通过其备受尊敬的至强数据中心处理器的最新迭代来应对广泛的挑战-不仅是高端AI和HPC工作负载快速增长的计算需求,还包括对工作负载密度的要求.

这家巨型芯片制造商在4月份的Intel Vision大会上推出的是对至强处理器应该为这个快速发展的计算环境提供什么的重新想象.

这一点的核心是为该系列中的所有CPU引入了两个微体系结构,而不是一个单一核心.

Intel Xeon 6处理器现在有两种风格,一种是针对AI和HPC等计算密集型工作负载的性能核心(P-core),提供业界最佳的内存带宽和吞吐量.

另一种是效率核心(E-core)芯片,专注于高密度和横向扩展工作负载.

想想边缘和物联网设备以及云本地和超大规模工作负载.

Intel Xeon 6系列还将涵盖两个极端之间的通用用例,从建模和模拟到内存分析、非结构化数据库、横向扩展分析和5G核心.

E-core将率先推出,本周在Computex上宣布推出.

P-CORE很快就会出现.

本文标签:
欧元银行担心人工智能将增加对美国大型科技公司的依赖
挪威主权财富基金旨在推翻马斯克的巨型特斯拉薪酬协议