電力不足も人材不足もやるこた同じ
「ChatGPTはGoogle検索の10倍の電力量を消費する」 (引用: EURO News ) つまり、 ・ChatGPTにクエリ―投げてレスポンスをもらうこと ・Google検索にクエリ―投げてレスポンスをもらうこと このふたつの電力消費量には10:1という大きな差(ChatGPTが約3W、Google検索は約0.3W)があるってこと。 ひぇ~っビックリ。そんなにか! なんでそんなに差が生じるんデスカ?? それは・・ChatGPTのような生成AIは膨大なデータを基に推論を行うので、Google検索のような情報取得と比較して、はるかに複雑な計算が必要だから。 ※まあ生成AIに限らず、自動運転やブロックチェーンなんかもここ十数年で急速に発展した、消費電力コントロールにおける脅威となっている技術なわけだけど、その点はさておき生成AIにフォーカス。 そして、同Newsは以下についても触れている。 ・LLMの学習と運用は、データセンターに強力に依存している ・急増する生成AIの利用ニーズに対応するためには、データセンターの拡張は必須 (実際、日本においてもGoogle、AWS、MicrosoftさらにOracleなんかも日本国内に設置するデータセンターや周辺設備に対して巨額の投資を実行・計画している) ・データセンターの拡張、これすなわちエネルギー需要の増加であり、世界の温室効果ガス排出量の増加を助長している ・マイクロソフトは、「主にChatGPT、Azure AIの利用増加に対応するためのデータセンターの拡張により、2020年以降のCO2排出量が約30%増加した」と発表 ・Googleも、「Gemini・Google Cloud AIを運用するデータセンターに関連するエネルギー需要の急増に起因し、2023年の世界の温室効果ガス排出量が2019年と比較して約50%増加した」とコメント 検索エンジン(Google AI Mode、PerplexityのCometなど)やアプリ(MSやAdobeなど)はもちろん、生成AIはあらゆるものに溶け込み始めていて、すぐそこの未来ではそれが生成AIであることなんか意識せずに、ほとんど全ての人が様々なシーンで使いまくっているビジョンが容易に想像できる。 つまり、電力消費量の大きい生成AIの利用機会は今後あらゆる形で加速度的に...