結果だけではなく理由と根拠(ロジック)も明示
AIの適応領域を拡大する世界初の「説明可能なAI」

ディープラーニングの実用化によって、AIの可能性は飛躍的に高まった。しかし、その判断プロセスはブラックボックスであり、これが適用可能領域を限定する要因になっていた。この問題を解決するために、富士通は世界で初めて「説明可能なAI」を開発した。具体的には、どのような手法でAIが出した回答の理由や根拠を説明できるようになったのか。最先端の研究内容を紹介しよう。

将棋や囲碁でプロ棋士を破ったことで大きな注目を集める人工知能(AI)。最近ではスマートスピーカーや自動運転など適用分野も広がっている。

ここに来てAIが飛躍的に進化した背景には、ディープラーニングの実用化がある。従来の機械学習では、学習のために着目すべき「特徴量」を人間が指定する必要があった。しかしディープラーニングではニューラルネットワークと呼ばれる人間の神経構造を模したアルゴリズムを発展させることで、特徴量を自動的に見つけ出せるようになり、特徴量を明示しにくい複雑な問題にも適用可能となったのである。

しかしこれによって、新たな問題も指摘されるようになってきた。ディープラーニングによる判断プロセスはブラックボックスであるため、専門家でもAIが出した回答の理由や根拠を説明できず、「結果を本当に信頼してもよいのか」という疑念を払拭できないでいるのだ。

例えば医療現場にAIを導入するケースを考えてみてほしい。検査結果のデータから、AIが診断や治療内容を指示したとして、あなたはその結論を100%信頼する気になれるだろうか。判断プロセスがブラックボックスの状態でいきなり結論だけが出てくるというのでは、自分の健康や生命に関わる医療分野では、多くの人が拒否感を感じてしまう。

出てきた結論に対して根拠を示してほしいと感じる領域は、何も医療だけに限らない。大きなところでは国の政策から、金融分野の投資判断、身近なところでは会社の人事評価まで、さまざまなケースが考えられる。ディープラーニングはAI活用の可能性を大きく広げたが、ブラックボックスのままでは適用可能な領域が限られるのも、また事実である。

しかしこれに対する解決策が、最近になって具現化しつつある。富士通が世界で初めて開発した「説明可能なAI」である。

ディープラーニング+ナレッジグラフで判断の根拠(ロジック)を言語化して実現

富士通は2016年9月に「Deep Tensor」という独自のディープラーニング技術を発表。これは複雑な事象も記述できるグラフ構造のデータを学習できるというもので、セキュリティ分野などで高い推定精度を達成してきた。これに「ナレッジグラフ」構築技術という技術を組み合わせることで、「説明可能なAI」を実現しつつある(図1)。

ナレッジグラフとは、実世界の様々な事象の間の「つながり(関連性)」に着目し、この関連性にもとづいて整理されたデータベースのこと。膨大なWeb情報や論文などを収集し、それをナレッジグラフ化することで、実世界の知識体系をデータベース化できるのだ。このナレッジグラフに対し、Deep Tensorの入力と推定結果を入力することで、入力から出力に至るまでに、ナレッジグラフの中の「どの関連性のパス」を通ってきたのかを示すことが可能になる。これによってAIによる判断の根拠を、実世界の知識体系をベースに「説明できる」のである。

「世の中にはディープラーニングをやっている企業も、ナレッジグラフに取り組んでいる企業もありますが、これらを組み合わせたのは富士通が初めてです」と語るのは、富士通グループでAIの研究を担当する富士通研究所 人工知能研究所 ナレッジテクノロジープロジェクトでプロジェクトディレクターを務める井形 伸之。このほかにも説明可能なAIを実現しようという取り組みは存在するが、ほとんどはディープラーニングが自動的に抽出した特徴量をハイライトする、というレベルにとどまっており、判断の根拠を言語化して示すところまでには至っていないと指摘する。

同じくナレッジテクノロジープロジェクト 主任研究員の富士 秀は「実はこれは、人間がふつうにやっていることに近いといえます」と説明する。ベテランの域に達した人は直感的に正しい判断を下すことができるが、その判断は暗黙知によって行われており、これはディープラーニングと同じようなものだと指摘。そしてその根拠を説明するときには、改めてロジックを加え、言語化することになる。この部分を担うのがナレッジグラフだというのである。

図1:富士通が提唱する「説明可能なAI」の全体像。富士通独自のディープラーニングである「Deep Tensor」に、ナレッジグラフを組み合わせることで、推定結果だけではなくその「理由」と「根拠」も示せるようになる 図1:富士通が提唱する「説明可能なAI」の全体像。
富士通独自のディープラーニングである「Deep Tensor」に、ナレッジグラフを組み合わせることで、推定結果だけではなくその「理由」と「根拠」も示せるようになる

続きは、こちらからお読みいただけます

結果だけではなく理由と根拠(ロジック)も明示 AIの適用領域を拡大する世界初の「説明可能なAI」

概要

  • ディープラーニング+ナレッジグラフで判断の根拠(ロジック)を言語化して実現
  • ゲノム医療での検証では100億を超える知識体系を構成
  • 新発見を促す効果にも期待、その蓄積が社会全体の価値に

ページの先頭へ