设为首页收藏本站

中国教师教育视频网

 找回密码
 注册
搜索
查看: 0|回复: 0
打印 上一主题 下一主题

解析:超出你想象!人工智能尽如此耗电! [复制链接]

Rank: 8Rank: 8

跳转到指定楼层
楼主
发表于 2024-5-3 14:57:00 |只看该作者 |倒序浏览

每当谈及未来科技,人工智能和新能源常常一起出现。久而久之,我们似乎都有种错觉,人工智能就是节能环保的。但事却非如此,人工智能虽然功能强大,科幻感十足,但却一点也不环保,甚至“污染”严重。三相继电保护测试仪的最新消息可以到我们平台网站了解一下,也可以咨询客服人员进行详细的解答!https://www.whqxdl.com/







生而畸形的AI,跳不出耗电的死胡同


尽管科技巨头不断通过一些物理和工程手段去降低数据中心等平台的能耗,但从另外一方面来讲,企业所采用的部分技术,生而不具备绿色基因。


如当前人工智能的核心驱动技术深度学习,天生需要强大算力和强大功耗支撑,而且模型训练方法异常的粗暴。


现阶段的AI,并不具备类似人类智慧一样举一反和推理的能力,它的部分智能建立在“暴力计算”的基础之上。深度学习的研究内容很简单,就是罗列大量的数字进行运算。但这种方法需通过颠覆性模式创新来现,只需要提高算力,也就是堆芯片量即可。


早在2022年,谷歌利用16000块芯片,让AI观看数百万段YT视频来识别出猫,即便如此仍错误百出,还不如人类眼睛的一瞥高效。





此外,2022年AG击败围棋冠军李世石的人机大战中,AG每局棋需消耗的电能相当于约100户家庭一天的用电量。


真正公平的人机对战,应该在能耗等客观条件对等的情况,进行比拼,否则便跟背着火箭筒的五菱宏光跑赢法拉利超跑异。


纵使机器超越了人,但显然很低效,也不绿色。


不仅仅是过往发生的事件反映了人工智能耗能巨大的问题,外国比较新的论文结果也折出相同的问题:平均一个AI大模型训练产生的能耗=五辆汽车一生排放的碳总量。


这篇新论文是马萨诸塞大学阿默斯特校区的研究人员公布的,以常见的几种大型AI模型的训练周期为例,发现该过程可排放超过626000磅二氧化碳,几乎是普通汽车寿命周期排放量的五倍(其中包括汽车本身的制造过程)。





对此结果,很多AI研究人员感到震惊。


西班牙拉科鲁尼亚大学的一位计算机科学家曾表示:“虽然我们中的很多人对此(能耗)有一个抽象的、模糊的概念,但这些数字表明事比我们想象得要严重。我或者是其他AI研究人员可能都没想过这对环境的影响如此之大。”


以自然语言处理为例,研究人员研究了该领域中性能取得比较大进步的四种模型:T、ELM、BERT和GPT-2。研究人员在单个GPU上训练了至少一天,以测量其功耗。然后,使用模型原始论文中列出的几项指标来计算整个过程消耗的总能量。


结果显示,训练的计算环境成本与模型大小成正比,然后在使用附加的调整步骤以提高模型的比较终精度时呈爆炸式增长,尤其是调整神经络体系结构以尽可能完成详尽的试验,并化模型的过程,相关成本非常高,几乎没有性能收益。


以BERT模型为例,其碳足迹约为1400磅二氧化碳,这与一个人来回坐飞机穿越美洲的排放量相当。





那么,为什么AI模型会如此耗电


因为与人类的学习方式相比,AI的训练效率非常低下。


现代AI使用人工神经络,这是模拟人脑神经元的数学计算。每两个相邻神经元的连接强度都是神经络上的一个参数,叫权重。神经络的训练则需要从随机权重开始,一遍遍地运行和调整参数,直到输出与正确答案一致为止。


常见的一种训练语言神经络的方法是,从维基百科和新闻媒体下载大量文本,然后把一些词语遮挡起来,并要求AI猜测被遮挡起来的词语。刚开始的时候,AI会全部搞错,但是,经过不断地调整后,AI会逐渐学习数据中的模式,比较终整个神经络都会变得非常准确。


例如,“BERT模型”——基于变换器的双向编码器表示技术(BERT,简称BERT),这是一项由G提出的自然语言处理(NLP)的预训练技术。该模型使用了来自维基百科和其他文章的33亿个单词,而且在整个训练期间,BERT读取了该数据集40次。相比之下,一个5岁的孩子学说话只需要听到4500万个单词,比BERT少3000倍。


之所以有以上这些强烈的对比是因为:在开发模型期间,上述训练过程需要反复多次。因为研究人员需要将神经络调整到比较,即确定神经元的个数、神经元之间的连接数以及各个权重。他们需要反复尝试很多组合,才能提高神经络的准确度。然而,人类的大脑不需要寻找比较佳结构,经过几亿年的进化,人类大脑已具备这种结构。


正是基于这样的背后复杂因素,开发先进的AI模型,才会在数据中心产生大量的电能消耗和碳排放。

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

Archiver|Jspxedu.cn.   

GMT+8, 2024-5-18 06:32 , Processed in 0.025740 second(s), 10 queries .

Powered by Discuz! X2

© 2001-2011 Comsenz Inc.

回顶部