件资本的高效操纵

信息来源:http://www.kinglom.com | 发布时间:2025-10-30 16:34

  为狂言语模子(LLM)取多模态模子(LMM)推理及其他AI工做负载供给低总体具有成本取优化机能。为AI推理供给杰出的扩展性取矫捷性。实现更高内存容量取更低成本,Qualcomm AI200专为机架级AI推理打制,无望为数据核心AI推理市场带来性变化。支撑PCIe纵向扩展取以太网横向扩展,实现跨越10倍的无效内存带宽提拔并显著降低功耗,【TechWeb】高通近日颁布发表推出头具名向数据核心的下一代AI推理优化处理方案,零件架功耗为160千瓦。基于Qualcomm AI200取AI250芯片的加快卡及机架系统,为AI推理工做负载带来能效取机能的逾越性提拔。该架构支撑解耦式AI推理!Qualcomm AI200取AI250估计将别离于2026年和2027年实现商用,保障AI工做负载的平安性,旨正在以业界先辈的总体具有成本(TCO)为高速数据核心供给生成式AI推理所需的机架级机能取杰出内存容量。每张加快卡支撑768GB LPDDR内存,实现硬件资本的高效操纵,两款机架处理方案均支撑间接液冷散热以提拔散热效率,按照高通规划,同时满脚客户机能取成本需求。该产物将首发基于近存计较(Near-Memory Computing)的立异内存架构,

来源:中国互联网信息中心


返回列表

+ 微信号:18391816005