投稿

電力不足も人材不足もやるこた同じ

  「ChatGPTはGoogle検索の10倍の電力量を消費する」 (引用: EURO News ) つまり、 ・ChatGPTにクエリ―投げてレスポンスをもらうこと ・Google検索にクエリ―投げてレスポンスをもらうこと このふたつの電力消費量には10:1という大きな差(ChatGPTが約3W、Google検索は約0.3W)があるってこと。 ひぇ~っビックリ。そんなにか! なんでそんなに差が生じるんデスカ?? それは・・ChatGPTのような生成AIは膨大なデータを基に推論を行うので、Google検索のような情報取得と比較して、はるかに複雑な計算が必要だから。 ※まあ生成AIに限らず、自動運転やブロックチェーンなんかもここ十数年で急速に発展した、消費電力コントロールにおける脅威となっている技術なわけだけど、その点はさておき生成AIにフォーカス。 そして、同Newsは以下についても触れている。 ・LLMの学習と運用は、データセンターに強力に依存している ・急増する生成AIの利用ニーズに対応するためには、データセンターの拡張は必須 (実際、日本においてもGoogle、AWS、MicrosoftさらにOracleなんかも日本国内に設置するデータセンターや周辺設備に対して巨額の投資を実行・計画している) ・データセンターの拡張、これすなわちエネルギー需要の増加であり、世界の温室効果ガス排出量の増加を助長している ・マイクロソフトは、「主にChatGPT、Azure AIの利用増加に対応するためのデータセンターの拡張により、2020年以降のCO2排出量が約30%増加した」と発表 ・Googleも、「Gemini・Google Cloud AIを運用するデータセンターに関連するエネルギー需要の急増に起因し、2023年の世界の温室効果ガス排出量が2019年と比較して約50%増加した」とコメント 検索エンジン(Google AI Mode、PerplexityのCometなど)やアプリ(MSやAdobeなど)はもちろん、生成AIはあらゆるものに溶け込み始めていて、すぐそこの未来ではそれが生成AIであることなんか意識せずに、ほとんど全ての人が様々なシーンで使いまくっているビジョンが容易に想像できる。 つまり、電力消費量の大きい生成AIの利用機会は今後あらゆる形で加速度的に...

今さら聞けない「マト」と「シルベ」の使い分け

そういえば、「目的」も「目標」も「目」という漢字が頭についてる。 ドーシテ?と調べてみると; 目的: ・「目」は、「目指すところ」や「焦点」を意味する ・「的」もまた「目指す対象」を指す(そもそも「マト」だしね) ・したがって、「目的」は「目指すべき最終的な到達点」や「焦点を当てるべき最終的なありたい姿」といった意味合いを持つ 目標: ・「目」は「目的」と同様に「目指す」という方向性を示す ・「標」は「標識」や「目印」といった意味を持つ(そもそも道標の「シルベ」だしね) ・つまり、「目標」は「目指す方向にある具体的な目印」や「目的を達成するための段階的な指標」といった意味合いを持つ ということらしい。そりゃそうだ。 どちらのワードも漠然とした方向ではなく、「目」という漢字で、ある一点や方向性を「見据えて」「定める」というニュアンスを表現しているらしい。その他、「目」がつく言葉には「目安」「着目」「目次」など、何かを意識したり、見定めたりする際に使われるものが確かに多いな。 へぇ、だから「目」なのね。 この辺りの理解を踏まえて、目的と目標の定義を整理してみると以下のようになるんだろうね。 「目的」はObjectiveやPurpose: ・目指すべき最終的な到達点 ・どちらかといえば抽象的で定性的 ・長期的 「目標」はとりあえずのGoal: ・目的を達成するための段階的な指標(目指す方向にある目印) ・どちらかといえば具体的で定量的 ・短期的 つまり、「目的に紐づく複数の目標を達成しつづけることが目的の達成につながる」ってことなんだよね。だけど、この定義はまだ抽象的でこのままではどうも解像度が低い。 ハイ、ようやく本題。 みんなは目的・目標がどういう意味を持ち、どう使い分けるべきかをきちんと理解してる? ボクはそうでもなさそう。いまさら聞けない・・ってなわけで本記事では、 ・目的と目標の使い分けについての理解を深めるには ・その理解を基にしてどうやって目的と目標を設定していくのか この2点について考えてみようと思います。 ーーー まずは目的と目標をミクロな例に置き換えてみる。 目的(目指すべき最終的な到達点); 同僚からの信頼を獲得する 目標群(目的を達成するための段階的な指標); 1.メールへは24時間以内、チャットへは3時間以内に回答する(但し営業時間内) 2.毎朝...

「知っている」と「分かっている」は全く違う。

  Appleに買収される前のSiri社の共同創業者である Tom Gruber も、IDEOが運営する Creative Confidence Podcast で声高に述べているように、生成AIはあくまで人間の能力を増強(Augument)するものなのであって、人間の能力に置き換わるものではない。 少なくともそうであるべきだというのが彼の主張、それにはボクも200%同意。 過去記事「オレ流AIとの付き合い方」 でも類似することを書いた。つまり、自分で考えることを放棄すべきじゃない、と強く思ってる。 考えることをAIに委ね、自分はそれを放棄したとして、果たして自分は依然として自分なのか。 いいえ。 それは、外見は夏油傑だが実体は加茂憲倫であることと同じで、もはや自分であるはずがない。 ーーー 例えば、Geminiに、Back to the Future part1(以下BTTF)のストーリーを100文字以内にまとめてもらうとこうなる。 「高校生のマーティは、科学者ドクの作ったデロリアンで1955年にタイムスリップ。両親の出会いを邪魔してしまい、自分の存在が消滅の危機に。現代に戻るため、両親を再び結びつけ、ドクと協力して未来へ帰る。」 Back to the Future part1を観たことがない誰かにこの文章を見せたとき、その誰かの状態はその映画の内容を「知っている」となるのか「分かっている」となるのか。 まず、それぞれの定義は以下のようなものになるのだと思う。 知っている ある特定の事柄についての情報を持っている状態 持っているのは、断片的且つ表層的なもので情報の背景や関連性は限りなく曖昧 であるので、その認識に対して質問を受けたとしても、回答や説明は困難 分かっている ある特定の事柄について明瞭な理解を持っている その理解は、感情や経験が伴い理論的・感覚的にその意味や背景を実感できているもの であるので、その認識に対してどんな質問を受けたとしても、回答や説明が可能 この定義を踏まえて、BTTFの例に戻ると、上記の文章を見たとして、その映画のあらすじについて「知っている」とは言えても、キャラクターたちの飛び交う感情やその背景までを掴めている状態では絶対にない。つまり「分かっている」状態ではない。 主人公Martyの友人であるDr.Emmett Brown...