AIに関わる方は必修!AI倫理を考える

第6回 <まとめ>AI活用の検討段階からリスク分析を行いましょう

2022年6月2日 掲載

こんにちは。富士通株式会社 研究本部 AI倫理研究センターの 新田 泉、大橋 恭子、志賀 聡子です。

最近、知らず知らずのうちにAIが浸透してきており、何かと「AI倫理」という言葉を耳にされている方も多いのではないでしょうか。何十年もAI研究を継続している富士通には、AI倫理について専門的に研究する組織があります。この連載では、AI技術者の視点から、「AI倫理としてどのようなことを考えていかなければならないのか」について、事例を交えながらわかりやすくお話していきます。AIを活用しサービスとして提供している方や、AIに興味を持っている方、知らずにAIを使っている方など、みなさんにぜひ知っておいていただきたいお話です。

  • 新田 泉

    新田 泉

    AIを適用した様々な事例を通して、倫理的なAIについて考えていきます

  • 大橋 恭子

    大橋 恭子

    AIの倫理性をソフトウェア工学的なアプローチで探求しています

  • 志賀 聡子

    志賀 聡子

    AIと共生する社会のために、AI倫理教育を主に担当しています

本連載では、富士通が発表している「AI倫理影響評価方式」の中の「AI倫理リスク分析」の分析結果を概要図にし、提示しています。評価手順書と適用例を無償公開しており(注1)、分析そのものを読者のみなさんご自身の手で行っていただくことが可能です。具体的な分析方法を知りたい方はぜひ、あわせてご参照ください。

第5回:AI運用時の再学習における倫理リスクでは、ローン審査AIを題材に、AIの継続運用の過程で倫理リスクが増幅することもある、という事例をご紹介しました。今回は、ショッピングモールの顔認識AIの事例をご紹介し、倫理リスクを分解して考えるメリットについてお話しします。

顔認識AIの活用事例を見てみましょう

ショッピングモールの警備支援のために、顔認識AIが採り入れられている事例を想定しましょう。たとえば、不審人物や過去にそのショッピングモールでトラブルを起こした人物がいれば早期に把握するために、モール内に設置された防犯カメラに映った人物画像を入力し、顔データベースと照合して、似ている人物の候補を出力するAIです。

類似度スコア順に、類似人物の候補が出てくるイメージです。このような警備支援の顔認識AIの倫理リスクはどこにあるのか、見てみましょう。

顔認識AIの倫理リスクを分析してみましょう

富士通のAI倫理リスク分析技術を用いて、警備支援の顔認識AIの事例を分析してみます。ステークホルダー(登場人物)とAIのインタラクションに着目し、各インタラクションにひそむ倫理リスクを示します。今回は、説明のわかりやすさのために、分析結果を考察し、「技術リスク」「運用リスク」に分類して図示します。

人マーク:ステークホルダー 矢印:ステークホルダー間およびステークホルダーとAI間のインタラクション 太い矢印:倫理リスクのあるインタラクション。なお、本記事の分析図は実際の分析図を簡略化して表現しています。

AIの中身に少し触れたことがある方はご存知の通り、AIの判定の精度は100%ではありません。間違った判定結果が出るケースはどうしてもあるのです。これまでの連載回でも繰り返し出てきましたが、たとえばAIが学習するデータに偏りがあり、それを考慮せずにAIを開発したことに起因して、特定の特徴を持つ人の判定に誤りが多くなる可能性もあります(①)。
また、AIから出力された「類似人物」が実際には防犯カメラに映った人物とは異なる人物だった場合に、もし、AIの結果を自動で警備会社に通報し、警備員が駆け付けるような仕組みにしていれば、AIによる誤った判断を信じた警備員が、来店客の行動を監視して不快な思いをさせ、トラブルになってしまうといったリスクがあります(②)。
また、顔データベースはいったいどこからくるのでしょうか。たとえば、そのショッピングモールでのクレジットカードやキャッシュレス決済などの申請に使われた顔写真(本人確認書類)の情報が流用されたらどうでしょう。顔写真を提出した市民は、そんな流用に同意しているでしょうか。また、データには氏名や住所など、顔写真以外の個人情報も含まれているかもしれません。このような情報が警備・通報目的での個人特定に用いられることが、法令違反を含めて、倫理的に問題となる恐れがあります(③)。

こうしてみると、抽出したリスクにも様々な種類があり、たとえばAIの技術的なリスクと、運用上のリスクに分けられることがわかります。運用上のリスクは、仮にAIを別のものに入れ替えても(違うベンダーの開発したAIに替えたり、もっと言うとAI部分を人間が代わりに判定するのだとしても)起こりうる、人間側の使い方に関するリスクですね。

このように、AIの利用シーンにリスクがあるのかないのか、という議論だけではなく、どこにどういうリスクがあるのか分解し、そこから、それはAI自体に由来する技術的なリスクなのか、それとも人の運用上のリスクなのかなど、明確にしていくことが大切なのです。

リスクを分解して捉えましょう

第1回~第6回のまとめ

これまで、様々な事例を通して、AI倫理の重要性・必要性をお話ししてきましたが、それは、みなさんを脅かすためではありません。AI活用の検討段階からこのような分析を行い、気づきにくいリスクも含めて洗い出すことができれば、AIをうまく活用していく道を具体的に探ることができるのではないでしょうか、とお伝えするべく、この連載記事を書いてきました。
AIはあくまで道具です。いかに使うか、その使い方を考えるのが人間の役目なのです。それは、AIを開発するベンダーだけが考えるのではなく、関係するステークホルダーがそれぞれ、いい知恵を出し合ってこそ、うまくいくのです。
この先も、AIをうまく使っていくためのAI倫理について、みなさんと一緒に考えていきたいと思っています。AI技術はどのようにあるべきなのか。そして、我々はAIをどう使うべきなのか。富士通は、信頼できるAIを作るだけではなく、AIと共生する社会についても考えていきます。

我々の研究に興味を持っていただけた方がいらっしゃいましたら、ぜひ、お気軽にお問い合わせください。

  • 注1:
    評価手順書と適用例の無償公開:
    本方式により洗い出されたもの以外にリスクがないことを保証するものではなく、具体的な事案における対応は、本方式を利用する各団体・個人の責任において判断し、実施していただく必要があります。本方式や本書に関連していかなる損害が生じた場合であっても、富士通は責任を負いません。

関連コンテンツ

本件に関するお問い合わせ

contact-aie-case-studies@cs.jp.fujitsu.com

EEA (European Economic Area) 加盟国所在の方は以下からお問い合わせください。
Ask Fujitsu
Tel: +44-12-3579-7711
http://www.fujitsu.com/uk/contact/index.html

Fujitsu, London Office
Address :22 Baker Street
London United Kingdom
W1U 3BW

Recommend

 
 

Connect with Fujitsu Research

LinkedIn
Twitter
YouTube
ページの先頭へ