責任あるAIはグリーンAI
シェア

責任あるAIはグリーンAI

最近、私たちは責任あるAIをめぐる規格の登場を目にし始めています。米国では、大統領副補佐官兼OSTPの科学と社会担当長官代理のAlondra Nelson氏が、「AI権利章典」の青写真を打ち出しました。また最近、米国国立標準技術研究所(NIST)は、責任あるAIを開発するための指針を発表しました。NISTは、2023年1月に発表した新しい「Artificial Intelligence Risk Management framework(人工知能リスクマネジメントフレームワーク)」や、新たに立ち上げたTrustworthy and Responsible AI Reference Center(信頼でき、責任あるAIのための基準センター)において、AIによる環境への影響について言及しています:「しかしAI技術は、個人、グループ、組織、コミュニティ、社会、環境、および地球に悪影響を及ぼすリスクもはらんでいる」。 上記のような展開とは別に、環境への悪影響と社会への悪影響をより強固に結び付けることが必要です。Green Software Foundationは、責任あるAIは、AIの二酸化炭素排出量を、社会への派生的影響とともに考慮しなければならないと考えています。実践者は、AIが社会と環境に与える悪影響を軽減するために、新たな規格や研究結果に注意を払う必要があります。

多くのAI研究者が、社会正義と環境への配慮は多くの場合、関連していると指摘しています。有名な論文「Stochastic Parrots(確率論的オウム)」で、Emily Benderらは、ますます拡大する言語モデルに付随する環境と倫理の問題を検証しています。著者らは、MLが環境に与える影響を、他の倫理的意味合いと結び付けています。その中で、フィルタリングの仕組みや有害なイデオロギーを通じてLGBTQ+個人や少数民族への偏見を表すことで、MLが差別や人権侵害を助長することを記しています。MLは通常、すでに最高権力と特権を持っている人たちに利益をもたらします。上記の著者らは「研究者は弱者に不適切な悪影響を与えるような環境への悪影響や資源への不正アクセスを減らすためにもエネルギー効率やエネルギーコストを重視すべきです」と主張しています。 Mozillaの研究者は、AIが環境正義の問題に取り組んでいる事例を調査しています。彼らは「speculative friction」というコンセプトで、ワークショップの参加者に対して、AIの生産および展開を遅らせることで生まれる新しい形のガバナンスとアクセシビリティを想像するよう求めています。

SOGS調査では、責任あるAIを、グリーンソフトウェアイニシアチブと統合することの重要性に言及した回答者が複数いました。特に、ジャーナリズムや規制分野が生成型AIに注目していることを考慮すると、これらの交点(共通部分)が、ソフトウェア実践者、支援者、研究者、および政策立案者の注目分野として浮上すると思われます。

ニュースレターにサインアップしてください