タグ

AIとCO2に関するnagggのブックマーク (3)

  • AIが吐き出す二酸化炭素、巨大データセンター持つIT大手に難題

    大手ハイテク各社は世界中に巨大データセンターを建設しているが、それによって引き起こされる二酸化炭素排出量の大幅な増加の回避にも躍起になっている。 多くの電力を消費する人工知能(AI)がクラウド化されるのに伴い、太陽光発電や風力発電に余剰がある地域をソフトウエアを使って探し出し、そこでデータセンターの運営を強化するという手法も広がりつつある。二酸化炭素排出量とコストを削減することが可能になるからだ。 クラウドコンピューティングの管理を手掛けるシーラス・ネクサスの共同創業者で最高経営責任者(CEO)を務めるクリス・ノーブル氏は「再生可能エネルギーを最大限に利用するやり方でデータセンターを運営する方法を見つけ出すことが急務だ」と語った。 AIが必要とするコンピューティングがもたらす気候変動リスクは広範に及び、化石燃料を使用する電力からクリーンな電力への大幅な転換がなければ一段と悪化する恐れがある

    AIが吐き出す二酸化炭素、巨大データセンター持つIT大手に難題
    naggg
    naggg 2024/02/26
    使いまくっている側からして、なんとかしたい。
  • 電気をバカ食いするAIは背徳、脳をまねて省エネするグーグルSwitch Transformer

    人間の脳の消費エネルギーは電力に換算するとわずか20ワットほどであり、消費電力数百ワットのGPUを何百~何千個も学習に使う最先端のAI人工知能)に比べるとはるかに省エネである。そこで脳の動きに習って、AIの省エネを図ろうとする動きが始まっている。代表例が米Googleグーグル)の言語モデルSwitch Transformerだ。 言語モデルは最近非常に注目されている自然言語処理用のAIだ。米国のOpenAI(オープンAI)財団が2020年6月に発表した言語モデルであるGPT-3は、あたかも人間が書いたような自然な文章を作ったことから大きな話題になった。しかしGPT-3は膨大なエネルギーを消費する。 GPT-3が高性能なのは、1750億個ものパラメーターを備えた機械学習モデルに45テラバイト(TB)、4100億単語からなる巨大な文書を学習させたからだ。その学習には米Microsoft(マ

    電気をバカ食いするAIは背徳、脳をまねて省エネするグーグルSwitch Transformer
    naggg
    naggg 2021/05/15
    "GPT-3など従来の言語モデルはタスクを処理する際にモデル全体を稼働させていたが、GShardやSwitch Transformerはモデルの中でもそのタスクに関連しそうな一部しか稼働させない"
  • 人間の知能と人工知能(AI)のコストパフォーマンスを比較する

    naggg
    naggg 2021/02/06
    この視点はそうだよなぁ。後学のため、あとで検算してみよう〜、っと。
  • 1