1. なぜAI倫理が必要とされているのでしょうか?

持続可能で豊かな社会のために

昨今、生成AI技術の躍進などの影響もあり、世界中のあらゆる産業でAI(人工知能)ビジネスが活発化しています。AIは、社会の重要な判断を行うためにも活用できます。しかしながら、使い方を誤ったり、AIの特性をよく理解せずに使用することで、かえって社会に悪影響を及ぼすリスクがあることも事実です。実際に、多くのAIサービスが、誤った使い方により社会に悪影響を及ぼしたり、サービス停止に追い込まれたりして、AIそのものを規制しようという動きも出てきています。このような不都合を起こすことなく、AIの利便性を最大限に享受するために、AIは安全安心で信頼できるものでなければなりません。そのためには、AIに携わるすべてのステークホルダーがAI倫理を実践することが重要です。AI倫理は、いまや一部の企業だけではなく、開発者や提供者、そして利用者を含む、社会全体で取り組む必要がある分野なのです。

また、AI倫理は技術を制約するためのものではありません。むしろ、技術に対し安心して使えるという保証を与えるためのものです。AI倫理の実践は、企業の信頼獲得に大きく貢献し、ビジネスを有利に推進することにも繋がります。
富士通は、イノベーションをもたらす便利で素晴らしいAIの価値を最大化し、持続可能な社会を支え続けるため、AI倫理の実践に向けた「AI倫理ガバナンス」を着実に進めていきます。

「AI倫理のご紹介」 説明者 : Oriana Medlicott (Senior Researcher)

2. 富士通のAI倫理

AIの活用を検討している企業において、対象となる事業とAI倫理との関係は把握するのが容易でなく、実践方法も明確ではありません。
富士通は、早くからテクノロジーを人間中心に活用することを訴え、AI倫理についても早期から取り組み、ノウハウを蓄積してきました。安心安全で信頼されるAIを実現するために、私たちがユーザー企業をはじめとしたステークホルダーの皆さまとともに推進しているAI倫理の取り組みを4つのポイントからご紹介します。

歴史
10年以上掲げた「人間中心」の理念

富士通は、2009年から人を中心としたコンピュータ社会の実現を目指す「Human Centric」という考え方を発信し、テクノロジーを人間のために活用することを理念として掲げてきました。

原則
外部連携を通した客観性の確保

富士通が掲げる「富士通グループAIコミットメント」は、生命倫理原則をベースとしてAI4Peopleが提案する5原則を参考にして策定しました。また、Global Partnership on AIや、ISOをはじめとした標準化団体など、世界におけるAI倫理の議論にも積極的に参加しています。

体制
経営から現場まで取り残さないガバナンス

「AI倫理ガバナンス室」の主導のもと、研究開発、社内コンプライアンス、ユーザー実装のそれぞれの部署が連携し、社内ガバナンス体制を確立しています。また、社外の有識者で構成される「富士通グループAI倫理外部委員会」を設置し、その結果を取締役会に報告することで、AI倫理をコーポレートガバナンスの仕組みに組み込んでいます。

実践
原則にとどまらない倫理実践

事業領域ごとの特性に応じた各種ガイドラインの整備や、倫理リスクを早期に発見・対応するための社内向け相談窓口の設置やAI倫理審査プロセスの導入を進めるといった組織面と、AI倫理の実現につながる研究開発といった技術面の両面から、実践的な取り組みを推進しています。また、ユーザー企業との勉強会、産学連携や標準化活動などにより、多面的かつ多様なAI倫理の実践活動に取り組んでいます。

3. 富士通グループAIコミットメント

富士通グループが守るべき項目をお客様や社会に約束

私たちは、かねてから「Human Centric」、すなわち情報技術が人間中心に利用されるべきであることを訴えてきました。2019年3月には、近年のAI技術の急速な発展を踏まえて「富士通グループAIコミットメント」を策定、公表しました。これは、私たちのパーパスをAIの観点から具体化したものであり、AIの研究・開発・提供・運用などのビジネスに携わる企業として、幅広い社会のステークホルダーとの対話を重視しながら、AIがもたらす豊かな価値を広く社会に普及させていくことを目指して、富士通グループが守るべき項目をお客様や社会に対する約束としてまとめたものです。

「富士通グループAIコミットメント」5原則

  1. AIによってお客様と社会に価値を提供します
  2. 人を中心に考えたAIを目指します
  3. AIで持続可能な社会を目指します
  4. 人の意思決定を尊重し支援するAIを目指します
  5. 企業の社会的責任としてのAIの透明性と説明責任を重視します

「富士通グループAIコミットメント」策定の背景

2018年に、「欧州富士通研究所」がAI4Peopleへ創立メンバーとして加盟しました。AI4Peopleとは、AIの利活用による社会への影響等に知見を有する産官学の専門家グループです。 
富士通では、「富士通グループAIコミットメント」策定にあたり、必要かつ十分な原則が盛り込まれること(網羅性)と、各原則が必要となる倫理的な根拠(客観性)を確保するために、AI4Peopleと連携し、その学術的専門性を活用しました。

4. 富士通グループAI倫理外部委員会

コーポレートガバナンスの一環としての委員会活動

富士通グループでは、AIのみならず、法学、生命医学、生態学、SDGs、消費者行政など多様性に配慮した様々な分野の専門家から構成される「富士通グループAI倫理外部委員会」を設置しています。この委員会では、以下のミッションと活動テーマに基づき、AI倫理に関するさまざまな議題について、社長、副社長含めての議論を行い、その結果を取締役会に共有しています。

プレスリリース : 安心・安全なAIの社会実装に向け、「富士通グループAI倫理外部委員会」を設置

委員会による提言をまとめたホワイトペーパーの公開

富士通グループでは、本委員会の詳しい活動内容と、議論で得られた「委員会からの提言」の一部および提言をもとにした「富士通の実践例」について、AI利用企業の皆さま向けに、ホワイトペーパーとして広く公開しています。本ホワイトペーパーを、AI倫理ガバナンスにご興味のある皆さまにご活用いただくことで、安心安全なAI社会の実現に一層貢献できれば幸いです。

「富士通グループAI倫理外部委員会」による提言および富士通の実践例

富士通グループAI倫理外部委員会メンバー

辻井 潤一 委員長
Tsujii Junichi

国立研究開発法人産業技術総合研究所 人間工学領域フェロー、東京大学名誉教授、マンチェスター大学教授、他

君嶋 祐子 先生
Kimijima Yuko

慶應義塾大学 法学部・大学院法学研究科教授、 同大学グローバルリサーチインスティテュート(KGRI) 所長、弁護士、他

国谷 裕子 先生
Kuniya Hiroko

ジャーナリスト、東京藝術大学理事(SDGs推進室長)、他

武部 貴則 先生
Takebe Takanori

東京医科歯科大学 統合研究機構教授、横浜市立大学 コミュニケーション・デザイン・センターセンター長、シンシナティ小児病院 オルガノイドセンター副センター長、大阪大学大学院教授、他

板東 久美子 先生
Bando Kumiko

日本赤十字社常任理事、公益社団法人セーブ・ザ・チルドレン・ジャパン理事、他

湯本 貴和 先生
Yumoto Takakazu

京都大学名誉教授、中部大学客員教授、日本フードスタディーズカレッジ学長、きょうと生物多様性センターセンター長、他

5. ガバナンス体制

富士通グループ全従業員を巻き込んだAI倫理実践

社内体制

2022年2月に新設された「AI倫理ガバナンス室」が、「富士通グループAIコミットメント」を踏まえ、 AI倫理の戦略確立、社会浸透を主導しています。

相談体制、開発プロセスへの組み込み

事業特性に応じたAIの企画、開発・検証、導入、運用局面においては、人権・プライバシー・倫理等の分野で生じた懸念や不安について相談できる窓口を設け、社内の技術、事業、人権、法律などを含む専門部署で多角的に検討することで、AI倫理に関する問題を未然に防止する努力を重ねています。その他、国内のAIビジネスすべてを対象にしたAI倫理審査プロセスの導入やガイドラインの作成など、AIの開発から運用まで一貫して倫理を確保するプロセスを確立するためのさまざまな施策に取り組んでいます。

教育

AI倫理教育として、2019年にはAI開発者のみならず、ビジネス部門やコーポレート部門を含む国内の富士通グループ全従業員に対してeラーニングを活用した教育を実施するなど、人材育成に力をいれています。今後も継続的に実施し社内浸透の深度化を図ります。

プレスリリース : AIなど最先端テクノロジーの社会浸透・信頼確保の実現を目的とした、AI倫理ガバナンス室の新設

6. AI倫理実践に向けた技術的取り組み

信頼できるAIの設計・監査に役立てる研究開発

AI倫理を原則から実践へと推し進めていくため、富士通では技術的観点からもさまざまな取り組みを行っています。「AIトラスト研究センター」では、「AI倫理ガバナンス室」と連携しサステナブルな世界を実現するための研究開発に努めています。

AIトラスト研究センターでのAI倫理の研究活動

AIシステムの倫理上の影響を評価する方式を無償公開

「AIトラスト研究センター」では、AIの倫理的な影響を系統的かつ網羅的に評価し、AIによる倫理的な問題がどのようなシーンで起こりうるのか、潜在的な倫理リスクを洗い出す「AI倫理影響評価方式」を開発しました。社会で幅広く活用していただくため、実践ガイドと適用例を無償公開しています。

7. 社会科学などの観点も交えた産学連携

私たちが、社会ととともに取り組んでいる活動の一つとして、AI倫理の産学連携があります。教育機関・研究機関などと協同してAI倫理の産学連携を行うことで、当社AI倫理技術をさらに発展させ社会の諸問題の解決に応用したり、当社の保有する知見を学生などの若い世代に還元したりといった、大きな社会的意義が見込まれます。
私たちの産学連携の特徴として、文理の学問領域や、性別・年齢・国境などの垣根を超えた、様々なステークホルダーが関わっていることがあげられます。たとえば、技術分野の研究者だけでなく、法学・社会学といった社会科学分野の有識者も多数交えて研究を進めています。AI倫理は新しい研究分野であり、AIが提供される文化圏や人々の価値観によって、AIをどういった用途に利用すべきかという考え方は異なります。そのため、多様なバックグラウンドを持つ人々と、多角的な観点から議論を成熟させることが不可欠となるのです。

詳しくは、下記をご覧ください。お茶の水女子大学様、慶應義塾大学様、清泉女学院中学高等学校様との産学連携の事例について、ご紹介しています。

8. 信頼できるAI社会を一緒に実現しましょう

AI倫理のさらなる社会浸透に向けて 

AI倫理は、AIを開発・提供する企業の取り組みだけで実現するものではありません。AIに携わるすべての当事者が、各プロセスにおいて一貫したAI倫理の実践に取り組まなければなりません。安心安全で信頼できるAIによって、より豊かで持続可能な社会を実現するために手を取り合い、一緒に取り組みを深めていきましょう。ともに活動するパートナーとして、ぜひお気軽にお問い合わせください。

Connect with Fujitsu Research

LinkedIn
Twitter
YouTube
ページの先頭へ