作为推动人工智能(AI)行业快速发展的三大要素之一,算力是 AI 发展的重要基础hg2088.com。如果算力跟不上算法、数据的发展hg2088.com,AI 行业也很难有新的颠覆性突破出现。
近日hg2088.comhg2088.com,包括 OpenAI 人员在内的 19 位业内专家在一篇最新报告中将硬件作为 AI 安全治理的重点hg2088.com。这在一定程度上表明hg2088.com,芯片在 AI 行业的发展中正起着越来越重要的作用。(点击查看详情 )
然而hg2088.com,当前用于 ChatGPThg2088.com、Sora 等模型训练的 AI 芯片大多依赖电力供能,巨大的使用需求让其成为了庞大的耗能体。
例如,作为最热门的 AI 处理器之一hg2088.com,英伟达的 AI 芯片 H100 的峰值功耗高达 700 瓦,超过了普通美国家庭的平均功耗。专家预测hg2088.com,随着大量 H100 芯片被部署hg2088.com,其总功耗将与一座美国大城市不相上下,甚至超过一些欧洲的小国家。
因此,研发节能高效的 AI 芯片已成为学界hg2088.com、业界高度关注的研究方向之一,对 AI 行业的可持续发展至关重要hg2088.com。
如今,来自美国宾夕法尼亚大学hg2088.com、诺基亚贝尔实验的研究团队提出了一种新型 AI 芯片——利用光波进行复杂数学运算,从而提升计算机处理速度并降低能耗。这一研究成果有望为解决当前芯片能耗问题带来新的可能。
该论文的通讯作者、本杰明·富兰克林奖章获得者hg2088.com、宾夕法尼亚大学 H. Nedwill Ramsey 教授 Nader Engheta 表示,由于生产芯片的商业代工厂的限制hg2088.com,这种设计已经可以用于商业应用,并有可能被改装用于图形处理器(GPU)hg2088.com。“它们可以采用硅光子公司的平台作为附加组件,这样就可以加快训练和分类的速度。”
此外hg2088.com,Engheta 教授也表示,除了速度更快、能耗更低之外,这种硅光子芯片还具有隐私方面的优势:由于许多计算可以同时进行,因此无需在计算机的工作内存中存储敏感信息,这使得未来采用这种技术的计算机几乎无法被黑客攻击。
目前hg2088.com,AI 算法呈现出复杂化和高度并行化的趋势hg2088.com,需要进行大量的数学运算,如矩阵乘法、向量运算等。而传统的计算设备往往无法满足这种高速hg2088.com、高效的计算需求。
在进行复杂数学运算时,传统计算设备往往消耗大量能源,能耗已成为制约 AI 技术发展的重要因素之一。而利用光波进行计算的新型芯片具有能耗低、高效等优点,可以有效解决能耗问题hg2088.com,推动 AI 技术的可持续发展hg2088.com。
光子学作为一门新兴的技术领域hg2088.com,在 AI 领域的应用前景广阔。利用光波进行复杂数学运算,不仅可以提高计算速度、降低能耗,还可以在硅光子平台等基础上实现更多功能,如量子计算、光学神经网络等,为 AI 技术的发展开辟新的技术可能性。
研究团队通过使用将纳米材料与硅光子平台相结合的方法,成功实现光波与物质的相互作用,从而得到高效的数学运算。这项技术的实现主要有 3 个关键点:
首先是光波计算。光波是一种电磁波,具有高速传输、高频率和低能耗的特点。通过利用光波的这些特性,可以实现高效的数学计算。
其次是纳米材料。纳米材料尺寸微小,可以在纳米尺度上进行精确控制。通过在纳米材料上施加电场或光场等外界作用hg2088.comhg2088.com,可以实现对光波的精确调控和控制。
此外,新型芯片还利用了硅光子平台。硅光子学是利用硅基材料制造光电子器件的技术hg2088.com,具有集成度高、成本低廉hg2088.com、光电转换效率高等优点。在新型芯片中,硅光子平台用于实现光波的传输、调制和探测hg2088.com。
图|基于硅光子学的逆向设计元结构,用于执行 2 × 2 和 3 × 3 矢量矩阵乘法。
硅光子平台为光波传输提供通道,经过调制的光波可以在芯片内部进行自由传输,完成各种数学运算操作。在完成数学运算后,通过在芯片中添加光波探测器,可以实现对光波的快速检测和信号读取,完成对光波的探测和检测hg2088.com,从而得到最终的计算结果。
图|模拟与实验结果比较。a)实验的显微照片,显示了几个 2 × 2 和 3 × 3 内核和各种校准结构hg2088.com,3 × 3 内核已放大显示;b、c)测量的透射率值的比较;dhg2088.com、e)分别是 2 × 2 和 3 × 3 元结构的测量透射率值(细实线D 模拟结果(粗实线)与波长的关系hg2088.com。垂直灰线 μm 处的设计波长。尽管 p2DEIA(parametric 2D electromagnetic inverse algorithm)模型存在限制且测量存在缺陷,但目标、p2DEIA、3D 和 λ0 = 1.525 μm 处的测量透射值之间的良好一致性表明 p2DEIA 作为计算工具可成功用于 3D 平面结构的逆向设计。
需要注意的是hg2088.comhg2088.com,尽管该项研究取得了一些重要的进展,并为 AI 行业提供了新的解决方案,但仍然存在一些局限性,如下:
1. 界面误差影响:该论文提到,p2DEIA 模型在处理大型结构时可能引入一些界面误差。这些误差可能源于接口处的模型不完全匹配或未考虑到的出射散射。对于更大的结构,这种误差可能会进一步增加hg2088.com,因此可能需要更复杂的接口模型来准确描述出射散射和非传播模式的存储能量。
2. 计算资源需求:虽然 p2DEIA 模型能够在处理大型结构时显著减少计算资源的需求,但对于更大的结构,仍可能需要更多的计算资源来进行模拟和优化。特别是在进行大规模逆向设计时,需要进行数百次迭代的模拟hg2088.com,这可能需要更强大的计算设施。
3. 光子集成技术限制:虽然论文中提到了将纳米材料与硅光子平台相结合的方法,但该方法仍然受到光子集成技术的一些限制hg2088.com。例如,可能存在制造纳米结构的复杂性,以及与硅光子平台的集成可能会受到材料兼容性和工艺兼容性的影响hg2088.com。
4. 应用场景适用性:虽然该项研究展示了在处理大规模数据时的潜在优势,但是在实际应用中,这些芯片的性能和适用性可能会受到特定应用场景的限制hg2088.com。不同的应用场景可能在能耗hg2088.com、速度、精度等方面有不同的要求hg2088.com,需要对芯片进行进一步的优化和定制化。
近年来,为应对 AI 算法的快速发展和应用需求,学界、业界在 AI 芯片领域已经取得了一些重要进展hg2088.com,主要集中在提升计算性能hg2088.comhg2088.com、降低能耗hg2088.com、增强硬件智能等方面。
1. 基于 GPU 的加速器:GPU 加速器已成为 AI 计算的主流选择之一。通过利用 GPU 的并行计算能力,可以大幅提升 AI 算法的运行速度。近年来,为满足人工智能应用的需求,NVIDIA 等公司不断推出性能更强大、功耗更低的 GPU 产品。
2. ASIC 芯片的发展:ASIC(专用集成电路)芯片是针对特定应用场景进行定制设计的芯片,具有性能高hg2088.com、功耗低的特点。近年来,一些公司推出了针对 AI 算法优化的 ASIC 芯片hg2088.comhg2088.com,如 Google 的 TPU(Tensor Processing Unit)和 NVIDIA 的 Tesla 系列。这些芯片在深度学习算法的训练和推理等方面表现出色,在性能上取得了显著的提升。
3. FPGA 芯片的应用:FPGA(现场可编程门阵列)芯片具有灵活性高、功耗低的特点,适合用于加速 AI 算法的运行hg2088.com。一些研究团队正在探索如何利用 FPGA 芯片实现深度学习算法的加速。通过对算法进行硬件优化和并行化设计,可以在 FPGA 芯片上实现较高的性能和能效比。
4. 神经形态芯片的研究:神经形态芯片是一种模仿生物神经网络结构和工作原理的新型芯片。它具有并行性强、能耗低的特点,适合用于实现智能感知和学习功能。一些研究机构和公司正在开展神经形态芯片的研究hg2088.com,试图实现更加智能化的 AI 计算设备hg2088.comhg2088.com。
未来,新型芯片仍需要进一步提升其计算性能和能耗效率,实现更高效的数据处理和智能计算。此外,加强新型芯片与现有计算平台和设备的兼容性,实现系统级集成hg2088.comhg2088.com。而且hg2088.com,新型芯片也需要与各个领域融合,包括自动驾驶、医疗健康、智能制造等。