「FAT」と「人間中心の社会原則」‐AI倫理

2024年10月26日

G検定はJDLA(日本ディープラーニング協会)が主催する、AI・ディープラーニングの活⽤リテラシー習得し、AIに関する様々な技術的な⼿法やビジネス活⽤のための基礎知識を有しているかどうかを確認できる試験です。

ディープラーニングやAIの技術的な側面だけでなく、社会で活用するために知らなければならないことを体系的に学ぶことができます。

その中の一つに「AI倫理」があります。

「AI倫理」とは、AIを利活用するにあたり、守らなければならない社会的な正しさのことです。

便利さや面白さが伝えられるのと同時に、AIが社会に引き起こす問題も報道されているのは事実で、そのような問題にどう対処するか?どのように考えるか?ということでもあると言えます。

総務省が発表した情報通信白書によると、日本でのAI利用率は個人で約9%、企業でも約46%と諸外国と比べると低めな数値となっています。

しかし、活用を考えている割合は7割を超えているという数値もあり、興味・関心の深さは伺えます。

一方で、企業の導入方針としては約15%と、本当に活用したいの?と思ってしまう数値となっています。

これは、既存事業で活用する方法が定まっていないことも原因と考えられますが。

ハルシネーションやAI生成コンテンツの扱いなど、問題となり得ることに対する心配も大きな要素ではないかと、自分は考えています。

これらの心配は日本国内のみではなく、諸外国でも当然有り。

「FAT」という概念で議論されています。

「FAT」とは?

「FAT」とは、公平性(Fairness)・説明責任(Accountability)・透明性(Transparency)の頭文字を取った言葉です。

AIの社会実装と運用において、AIによる公平性と透明性のある意思決定と、AIの出力にたいする説明責任を守るための設計思想とされています。

これからAIが広く社会に浸透するために必要な、信頼性を形作るための要素であり、開発者も利用者も意識しなければならないものです。

公平性(Fairness)

AIは学習データとアルゴリズムを元に、入力データに対する判断を出力します。

なので、学習データやアルゴリズムに何らかの偏りがあったり、アルゴリズムが不透明な場合、出力されるデータは不公平なものになってしまう可能性があります。

人種・性別・民族・文化等を元にあってはならない不公平や差別が生まれてしまうかもしれないのです。

そのような不公平が生まれず適正な出力がされたとしても、AIの使用を公表していない場合に不公平さを感じる人がいるかもしれません。

なので、機械学習モデルの作成段階から、そのような偏りを排除する必要がありますが。

学習データやアルゴリズムを用意する人間自身が、意識的にも無意識でも偏りを持っているので。

ただ用意するだけではなく、そこに問題意識をもち。

公平性を保てるようにしなければなりません。

説明責任(Accountability)

AIにより様々なサービスが開発され、改善されていますが。

AIが行った判断によって起きる結果について、提供者は利用しているAIについて合理的な責任を負いましょう。

というのが、説明責任です。

業務にどの様な目的でAIを利用するのかや、公平性・安全性・プライバシー等がどの様に保たれるのか。

問題がおきた場合の責任者の設定や、AIが行った意思決定の問題になった理由が明らかになるようにトレーサビリティを確保すること。

これらを行い、利用者から説明を要求された場合に、適切に対応できる状況を整えることが、提供者側に求められています。

「合理的」というのは、企業活動において開示できる情報とできない情報があるので、それを踏まえて誠実に対応し、AIとAIに利用したデータやアルゴリズムに対する信頼性を確保しましょう。

という捉え方で良いと思います。

透明性(Transparency)

現在のAIで活用されているニューラルネットワークを利用した複雑なモデルは、仕組みが十分に理解されていない場合もあります。

そのおかげでディープラーニングが発達し、AI技術が飛躍的に進歩したわけですが。

ブラックボックスと言われる、どのような根拠で判断を行ったのかが不透明な状態にもなったようです。

そのため、説明可能AIという、出力結果に至った経緯や判断の根拠も説明できるAIの開発が進められていますが。

AIに関わる提供者側も準備が必要です。

例えば、

・データやログの保存・記録
・利用しているモデルや使用した学習データなどのAIに関する提供できる情報の整理
・AIを利用したシステムやサービスを使うことのメリットやデメリット

といったことを説明できるようにです。

説明責任と関連性が深いですが、説明責任を果たすために必要な要素を用意しておく、ということでしょう。

日本のガイドライン

AI技術の進歩により、生活はどんどん便利になっていきますが。

人間に与える影響が大きいのも、AI技術の特徴です。

人間が人間らしく生き、効果的にAIと付き合っていくかにはどうすればよいかという指針を示すのは、国民を守る政府の仕事です。

それが、2019年に内閣府が公表した「人間中心のAI社会原則」というガイドラインです。

今の日本のAI政策はこの「人間中心のAI社会原則」が土台とされていて、他のガイドラインにも反映されています。

ざっくりとした「人間中心のAI社会原則」の内容

日本は目指すべき未来社会の姿として、「Society5.0」を提唱しています。

Society5.0で実現する社会とは、AI、IoT(Internet of Things)、ロボット等先端技術が社会に実装され、今までにない新たな価値を生み出し、多様な人々の多様な幸せを尊重し合い、実現でき、持続可能な人間中心の社会である。

「人間中心のAI社会原則」 P.1 はじめに 注1

日本が抱える様々な問題の解決手段の一つにAIが掲げられていて、社会に実装することでSDGsといった世界の課題の解決につなげる、というものです。

Society5.0を実現するためのAI活用の基本理念として。

①人間の尊厳が尊重される社会
②多様な背景を持つ人々が多様な幸せを追求できる社会
③持続性ある社会

の3つが掲げられています。

そのために、社会をリデザインし、AIを有効かつ安全に利用できる社会に変革された「AI-Readyな社会」を目指します。

・AIを利活用できるリテラシーを身に着けた個人
・AIの利活用を前提とした経営戦略に基づき企業が行うビジネスの展開
・あらゆる情報がAI解析可能なレベルでデジタル化、データ化され活用できるイノベーション環境

という、日本に住む全員が共同して、AI活用に対応した社会を実現するということです。

その実現のために、Aiが社会に受け入れられ適正に利用されるために、国・自治体・社会全体が考慮すべき7つの「AI社会原則」が定言されています。

①人間中心の原則
AIの利用は基本的人権を侵すものであってはならない

②教育・リテラシーの原則
AIに対する知識や理解、活用を原因とした格差や分断があってはならない

③プライバシー確保の原則
パーソナルデータは適切に扱わなければならない

④セキュリティ確保の原則
社会の安全性、持続可能性が向上するように努めなければならない

⑤公正競争確保の原則
持続的な経済成長の維持と社会課題の解決のために、公正な競争環境を維持しなければならない

⑥公平性、説明責任及び透明性の原則
人間の尊厳が確保されるとともに、AI技術の信頼性が担保されなければならない

⑦イノベーションの原則
徹底的な国際化と多様化により、継続的なイノベーションを目指さなければならない

AIやAIに利用する情報の扱い方、それを利用する社会のあり方についての原則です。

内容を見ると個別に解説されている印象が大きいですが。

基本理念を包括的に守るためのAI利用の原則として、FAT(公平性・説明責任・透明性)の原則があげられているように感じます。

AI事業者ガイドライン

「人間中心のAI社会原則」の中では。

「各団体で議論されているから、国際的な枠組みに広げられるように共有して行こう!」

・・・とされていた「AI開発利用原則」に当たるものだと思うんですが。

2024年に総務省と経済産業省が公表した「AI事業者ガイドライン」もあります。

細かく触れると、今回の記事からだいぶ外れてしまうので、すごく簡単に触れる程度にしますが。

「人間中心のAI社会原則」を土台とし、開発やサービスを提供する事業者への共通の指針に関するガイドラインとなっています。

こちらではFATがそれぞれに分解され、何を考え、実行すべきなのか書かれています。

社会により安心できる信頼性の高いAIを実装するために、また、そのようなAIになっているかを確認するために、目を通しておくと良いと思います。

AIに関わる全ての人に関係する話

AI倫理を理解するために、FATを掘り下げようとこの記事を書き始めましたが。

現代に生きる全ての人に関係する内容であるという印象を受けました。

研究開発や実証実験が進められていて、進歩し続けている最先端の技術であることもあり。

内容としては開発者や技術者向けのように感じられるかもしれません。

しかし、実際にAIを使って効果を得て。

そのフィードバックによりさらに進歩するという循環の中心にいるのは、人間です。

提供されているサービスが良く浸透していて、自分でも気が付かないところでAIの恩恵を受けている場合もあります。

その様に社会に実装されたAIを評価するのは、やはり使用する私達なのです。

私達が活用方法だけでなく、どの様に評価するべきなのかを把握し自ら利用することが、AIを効果的に活用する社会を実現する一歩となるのです。

そのためには「AI社会原則」の3つ目「教育・リテラシーの原則」が欠かせないんだなと。

改めて思いました。

学生は必修だけど社会人は自主的に

小・中・高の教育の現場では、すでに情報の授業が必修化され。

リテラシー教育の基礎ができているように感じられますが、社会人は自主的に学ぶしかありません。

自分は、ChatGPTが公開された時に少し触って興味を持ち、数冊本を読んだ程度でしたが。

体系的に勉強しようと思ったのは、G検定を受けることを決めてからでした。

というのも、段々と情報処理技術者試験でもAI関連の問題が増えてきたからなんですが。

勉強しないといけないなら、一度体系的に学んでおこうと思ったのです。

このように主体的に学ばないといけませんが、政府機関が公表するガイドラインを見ると、日本が抱える問題の危機感を肌で感じることになり。

しっかりと学ばないと行けないなと思ったわけです。

それがこの記事を書く動機にもなったんですけどね。

G検定以外にも、学び直しやリスキリングの場が多くなっているので。

自分に合った方法で少しずつリテラシーを身に着けたいものです


参考サイト

生成AI利活用について国内外で総務省が調査。日本での利用率は9%と消極的な結果に:AIsmiley編集部

G検定について:一般社団法人日本ディープラーニング協会

人間中心のAI社会原則:内閣府

AI事業者ガイドライン:経済産業省

参考書籍