图片来源:https://pixabay.com/images/id-21177/
我们的个人计算机,只要一开机就有碳足迹,以去年一名Google实习生为例,建构了一套AI神经网络,为了让图像显现细节,他不断增加神经网络的复杂度,结果所耗用的电能,足够一个家庭半年所需...
一套市面上的人工智能(AI)口语软件,经过训练了解人类的语言,成为可用的商品,在训练期间,计算机运转所花耗的电能,如果转换成二氧化碳(CO2)排放量,相当五辆汽车寿命的总和,约280吨。
计算机的电源来自电厂,电厂燃烧煤、油、天然气、或其他燃料发电,所排放CO2的重量,即是所谓的碳足迹(Carbon Footprint)。上面那套软件的碳足迹,就是280吨。
碳足迹是怎么计算出来的?当然不是在工厂烟囱外面量出来的,而是根据多年经验发展出的计算方式。每燃烧一个碳原子(C),就会产生一个二氧化碳分子(CO2),也就是除了原来的C,又增加了两个氧原子(O),C的原子量为12,O为16,所以CO2的重量为12+16X2=44,为C的3.67倍。
每一种燃料都含有碳的成份,煤的含碳量约60%至80%,无烟煤更可能到90%,汽油与柴油含碳量约86%,石油、天然气、别的燃料也都含不同的碳成份,所以:
我们的个人计算机,只要一开机就有碳足迹,以去年一名Google实习生为例,建构了一套AI神经网络,为了让图像显现细节,他不断增加神经网络的复杂度,结果所耗用的电能,足够一个家庭半年所需...
以一家燃煤电厂使用70%含碳的煤为例,燃烧100万吨的煤,也就是70万吨碳,所产生的CO2约250万吨,远大过燃料本身的重量。
有人把我们日常生活的碳足迹算出来了。一个人从旧金山飞到纽约来回,碳足迹约0.9吨;一个人平均活动一年的碳足迹约5吨;一位美国人平均活动一年的碳足迹约16吨,为别国人的三倍;一辆美国汽车总寿命的碳足迹约57吨。
我们的个人计算机,只要一开机就有碳足迹,因为耗电不多没有在意,但一旦用来训练AI就不同了。以去年一名Google实习生为例,建构了一套AI神经网络,把图片影像展现得栩栩如生,为了让图像显现细节,这名实习生不断增加神经网络的复杂度,结果所耗用的电能,足够一个家庭半年所需。
美国麻州大学(UMass)研究生Emma Strubell作博士论文时,发现所设计的算法耗用电能的碳足迹高达35吨,相当一位美国人两年的排放量,于是写了一篇论文,七月底在意大利佛罗伦萨「计算语言协会」年会上发表,论述AI的深层学习、特别是自然语言的处理,务必要考虑所花耗的能源。
自然语言处理是近年AI的一大优势,但在训练上花耗的能源,依结构的复杂、与调整的精细,有显着增加。
Transformer是两年前的协助写作软件,训练的碳足迹仅87公斤,今年初升级,用神经网络调整学习方式,不断精致写作功能(如作诗、作文),务使趋近完美。但训练所耗用的电能,却高达656,000千瓦小时(度),碳足迹也高达284吨,电费可高达300万美元之谱。
Emma Strubell特别强调,像这类AI付出的巨大代价,却与提升的质量不成比例,是否可避免,或在运算技术上大幅度提升运转效益。幸好欣见Google上月宣布投资新的机器学习模型,能源的使用效率可以增加10倍。
除了AI会使用高额度能源,所有的技术都会留下碳足迹,以目前趋势,到了2040年,全球20%碳足迹会来自技术。YouTube仅是一个播放影片的平台,大家用来观赏影视,但每年消耗能源的碳足迹却高达110万吨。数字器具虽小,庞大的数量加在一起,就了制造环保冲击。
人的脑子思考与运算,不需要那么多能源,问题是如何制造跟人脑一样的机器?