编辑整理:整理来源:油管,浏览量:75,时间:2023-03-19 10:30:01
今天,世界上数以百万计的数据中心所占用的用电量还不到2%——这个统计数据包含了在它们庞大的服务器阵列上处理的各种工作负载。Applied Materials没估计,运行人工智妒能的服务器目前只占全球电反找力消耗量的0.1%。
其他的若烈科技公司高管也发出了警告。华为的安德斯安德烈(Ande练冷汉述余军头构英皇体rs Andrae)认为条切德消较据曾查离陆由,到2025年,数据中心最终可能消耗全球十分之一的电力 ,不过他的估算涵盖了数据中心的所有用途,而不仅仅是人工智能。
落基山研究所的特别顾问乔纳森·库米(Jonathan Koomey)则相对乐观。他预计,尽管人工智能相关活动呈井喷式增长,但数据中心的能源消耗行在未来几年仍将保持相对平稳。
这些大相径庭的预测突显出,人工智能对大规模计算未来的影响以及对能源需求的最终影响存在着不确定性。
毫无疑问,人工智能电力消耗非常大。训练和运行像深度学习模型这样的东西需要处理大量的数据,因而占用内存和处理器。人工智能研究机构O良尽景里史pAI的一项研究井好轴粒试证表明,驱动大型人工智能模型所选巴烧密艺四米井需的计算能力已经每三个半月翻一番。
Applied Materials自己也承认,它的预测是一种最糟糕的情况,意在突出缺乏软硬件新思维可能会造成的状况。该公司的企业战略和市场情报主管桑迪普·巴吉卡尔(Sundeep Bajikar)表锋胡敏示,公司假定,随着时损间的推移,被用来训练人剧肥含充工智能模型的信息组合将会发生改变,相对于文本和音频信息,视频和其他图像的占比将会攀升。视觉数据的计算量更大,因此需要消耗更多的能量。
随着自动驾驶汽车和嵌入其他智能设备的传感器等设备的兴起,人工智能模型还将要处理有更多的信息。超高速5G无线连接的普及,将使得数据更容易在数据中心之间传输。
但悲观的预测忽略了几个可能限制人工智能电力消耗的重要进展。其中之一是由Facebook和亚马逊等公司开创的“超大规模”数据中心的兴起。
这种数据中心使用大量专门为特定任务定制济散息量风采何高的基本服务器阵列。这些机器比传统数据中心的服务器更加节能银枝,因为后者需要处理更广做闷泛的功能。当前向超大规模数据中心的过渡,再加上冷却和其他技术的进步,是过去几年新数据中心的能源消耗基本上被运转效率提高所抵消的一个重要原因。
新型微芯片体准跳律发翻裂育复背也会有所帮助。Applied Materials也具练起路段低每愿失的预测假定,人工智能的工作负载将继续在现有硬件上运行,这些硬件的效率在未来几年将会逐步提高。但许多的初创企业以及英特尔、AMD等大公司,都在开发利用光子学等技术的、节能性大幅提升的半导体,来驱动神经网络和其他的人工智能工具。
具有讽史张植约举充同会汉这刺意味的是,对人工智能功耗限制贡献最大的实际上可能是人工智能本身。谷歌已经在使用其2014年收购的DeepMind开发的技术,来更有效地冷却它的数据中心。通过向人类操作员提出建议,人工智能已经帮助该公司削减了40%的冷却费用;现在它能有效地独立运行数据中心的冷却系统。
人工智能还将用于优化数据中心运营的其他方面。而且,就像谷歌在冷却方面的成果一样,这将使得各类工作负载受益。这并不意味着,数据中心最终不会因为对人工智能魔法的需求不断增长而消耗更多的能量,但这是当下做出预测如此困难的又一个原因。
最近一些分析师发出警告,OpAI开发的聊天机器人CtGPT可以生成恶意软件。AI生成的代码可能会给网络安全造成严重威胁,人类编写的防护软件无法抵御。
据Tech Monitor报道,不久前OpAI正式发布CtGPT聊天机器人,它是根据OpAI的GPT-3大语言模型开发的。事实证明CtGPT可以完成多种任务,比如回答客户提问,生成代码,根据提示撰写复杂且精准的散文。
但是,CtGPT还可以用于网络犯罪,这恐怕是很多人没有想到的。推特网友@lordx64是一名工程师,他用CtGPT生成了新的恶意软件。他指出,用户可以用OpAI生成负载,可以具体指定执行何种负载以及如何执行,这可以用于网络战争。
2019年时OpAI曾做过尝试,用AI软件生成假新闻。给AI一个主题,给出简单提示,它就能生成连贯文章。即使换一个不同主题,AI也不需要重新训练就能上岗。
CtGPT能不能生成恶意软件?
网络安全行业已经开始引入AI,它可以快速发现攻击并回应。CtGPT能不能更进一步?能不能生成代码?牛津大学AI、网络安全顾问Raj Sharma给出自己的看法:
“这些代码都是非常基本的代码,但还是可以用来犯罪。AI有一个擅长的技能,那就是自动化。如果黑客能训练AI,让它编写恶意软件,它会不断学习,到时黑客就能拥有一款基于学习的黑客工具。”
Trend Micro技术专家Bharat Mistry认为,CtGPT在基础层面很容易使用,但想让它生成强大的恶意软件还是很难,许多黑客都做不到。他说:“聊天机器人越来越多,背后的智能越来越高。网络犯罪也越来越复杂,黑客必须知道如何调校引擎,让它做黑客需要引擎做的事。总之,实际操作会比预想的复杂很多。”
Mistry认为,完成这种操作需要很强的技术实力,恐怕只有国家资助的网络间谍才能做到。他强调:“需要非常强大的团队才能做到,这样的工具如果被坏人掌握,那是相当危险的。”
如何抵挡AI生成的恶意软件?
用AI系统生成种族主义内容和仇恨内容不是什么新鲜事,许多人讨论过。OpAI曾刊发论文,说它开发的系统可以用来降低虚拟信息传播成本。
Sharma认为,可以通过控制措施阻止恶意内容生成,比如,如果请求次数太多,或者某类信息播放的次数很多,就可以启动审查,如此一来机器就会知道它不该这么做。
对于恶意软件,那就是另一码事了。如果想对抗用AI系统生成的恶意代码,最好的办法就是用AI来创建保护机制。Sharma称:“如果有什么黑客工具用到了AI,我们必须用AI来理解其行为,用传统的安全控制措施是无法应付的。”
Mistry也认为在此种环境下应该将AI用作防御手段,因为AI有自己的优势。AI擅于创建“多态”事物,可以改变形态去适应每一次交互——与系统的交互。AI引擎可以高速运行、大规模部署,这是人类做不到的。