硅谷的一家新创公司Cerebras设计一款有史以来最大的计算机芯片,外型像餐盘一样大,大约是典型芯片尺寸的100倍。其相信该芯片可以用于大型数据中心,并有助于加速人工智能的发展。
现今许多公司正在开发AI芯片,包括英特尔和高通等传统芯片制造商以及美国,英国和中国的其他新创企业。近期,英特尔也公布了第一款AI芯片Springhill。谷歌也已经建立了AI芯片,以应用在智能助理,以及谷歌翻译等。
由于AI系统依赖于神经网络,且需要特定的运算能力。今天,大多数公司是透过绘图处理器来进行大数据分析。
大约六年前,谷歌,脸书和微软等科技巨头在人工智能领域透过采用英伟达大量的绘图处理器进行AI研究,可是随着运算愈趋复杂,以及厂商想克服AI系统与许多芯片协同工作之时,芯片分析信息过慢的问题,谷歌开始专门为神经网络构建了一个芯片称为TPU,并引起其他厂商跟进。
Cerebras是一家拥有超过2亿美元资金且成立三年的新创公司,为了寻求将所有数据保存在一个巨大的芯片上,以便系统可以更快地运行的概念,进而与其他厂商走上不同道路,往大芯片上进行研究。同时,委托台积电(TSMC)代工。
其实,1980年IBM芯片工程师Gene Amdahl创立的一家新创公司Trilogy,在获得超过2.3亿美元的资金支持之下,也往大芯片的方向进行相关研究,但最终于五年后消失于市场之上。
历经将近35年后,Cerebras终于研发出来,并计划于2019年9月开始向少数客户送样。Cerebras声称该芯片比起传统芯片在训练AI系统上还要快上100到1,000倍。
至于最终售价,要取决于Cerebras及其制造合作伙伴台积电如何有效地制造芯片。因为制造该芯片需要更多劳动力,而且这么大的芯片将会消耗大量功率,所以,如何保持冷却将变成一种挑战。
为了能够让客户真正进行运算,Cerebras计划将该芯片与具备冷却液冷却硅的精密设备一起出售。可是这与大型科技公司和政府机构的使用习惯完全不同。这也是许多专家认为,其商业模式也是挑战之一,因为其无法与现行商业模式兼容,这可能会让许多公司却步。