人に信頼され、社会を発展させるAI

Artificial Intelligence

デジタル時代の「説明可能なAI」

機械学習のアルゴリズムの1つであるディープラーニングが原動力となり、AIが爆発的に普及しつつあります。しかし一方で、ディープラーニングは判断根拠を示さないため、信頼性や責任が求められる業務上の判断にAIを適用しにくいという根本的な課題(「AIのブラックボックス問題」)があります。AIを真に社会に普及させ、社会を発展させる役割を担うものとしていくため、富士通研究所は人に分かりやすい方法で判断根拠を示す「説明可能なAI」を世界に先駆けて開発しました。AIの判断理由や根拠を人が理解し検証可能とすることで、AIに対する人々の不安を取り除き、人に信頼されるAIを実現します。

「説明可能なAI」は例えば、がん治療などのゲノム医療においても効果を発揮します。富士通研究所の独自AI技術である「Deep Tensor」が35万件のデータを学習して推定した疾病と特定の遺伝子変異の関係に対して、約3000万件の医学論文等から100億を超える専門知識を構造化した「ナレッジグラフ」で医学的根拠を提示。これを専門医師が参考にすることで、従来2週間かかっていた遺伝子分析から個々の遺伝子異常に合わせた治療薬提示までの期間をわずか1日に短縮することが可能になります。

  • AIの活用領域を拡大する「機械学習自動化」

    AIの活用領域が画像・音声の認識などから業務の判断支援など様々な分野へ移行・拡大しています。また、オープンソースに代表されるAIツールを誰もが簡単に入手できるようになり、「AIの民主化」、すなわち専門家がいなくても誰もが業務の現場でAIを活用できる世界も近づいてきています。

    富士通研究所が開発した世界初のAI技術である「Wide Learning」は、ディープラーニングとは異なる領域のAI技術の進化により生まれたものです。データに含まれるすべての項目における組み合わせの網羅的かつ効率的な列挙により重要な仮説を見逃すことなく発見できるため、ディープラーニングの不得意な、業務の判断支援など学習データが十分にない場合も高い精度で判断を行うことができます。さらに、専門知識なしでも短期間でAIを実現するための自動・自律学習など機械学習自動化に関する研究開発にも取り組んでいます。

  • 人に信頼され、社会を発展させるAIの実現へ向けて

    AIは学習に使うデータにより動作が変化するため、学習データに偏りや誤りがあると、AIによる判断の信頼性を保つのが難しくなるだけでなく、倫理的な問題も引き起こす恐れがあります。

    2019年3月にグループで発表した「富士通グループAIコミットメント」は、私たちがAI倫理を含む価値観に基づいて守るべき項目を整理したものです。欧州委員会にAI倫理の枠組みを提言する有識者団体「AI4People」に欧州富士通研究所が設立メンバーとして加盟するなど、AI技術そのものの高度化だけでなく、AI倫理や公正な利用といった、社会の様々な場面でAIを受け入れてもらうための活動にも積極的に取り組んでいます。

    富士通研究所は、「Human Centric」という考え方のもと、人の能力がエンパワーされることを目的にし、「人に信頼され、社会を発展させるAI」の実現に取り組んでいきます。

富士通研究所についてもっと詳しく

ページの先頭へ