近年来,随着AI应用场景的爆发式增长,AI算法对算力的需求急剧上升,这一增速已显著超越了摩尔定律所预测的硬件性能提升速度。传统的计算芯片,在计算资源、处理时延以及功耗控制方面,逐渐显现出难以满足AI高并行计算需求的局限性。
在AI计算中,显存的大小对处理大规模数据集、深度学习模型的训练和推理过程至关重要。足够的显存容量能够确保显卡在执行AI任务时能够同时存储和操作所需的数据,避免因为显存不足而导致的性能瓶颈。
几天前高通推出一款新处理器,它主要瞄准AI。不过高通新芯片针对的并不是英伟达芯片,而是想抢夺英特尔、AMD的蛋糕。
首先,光合组织领导人大会推动技术创新。百度AI技术生态副总经理周奇表示,百度AI技术生态与海光芯片已实现产品技术深度融合,落地了飞桨与海光芯片在技术适配、产品协同等合作,产出多个科学领域实践成果。同时,百度和海光也在生态方面形成全面体系合作,共同加速企业AI应用生态繁荣。
近日,在由中国电子商会、中国工业合作协会携手信息化观察网联合主办、软信信息技术研究院承办的“2024国有企业数智化转型推进大会”上,用友YonSuite凭借其在数智化转型领域的重大技术创新与卓越平台能力,荣获了“2024企业级AI最具竞争力商业创新平台”奖项。YonSuite深度融合AI技术,助力企业在发展新质生产力、迈向高质量发展的过程中阔步前行。
随AI大模型的普及度和渗透率不断提升,推理工作负载将远大于训练工作负载。火山引擎看准这一趋势,将字节跳动豆包大模型的推理输入价格降至0.8厘/千tokens,以期降低客户试错成本,繁荣AI应用生态。