テクノロジー企業が信頼を獲得するためにするべきこと

情報爆発時代のAI倫理と信頼の在り方

テクノロジー企業は、AIなどの破壊的技術とともに倫理的な問題に対しても責任を問われるようになってきました。

変化の激流が押し寄せるデジタル時代。テクノロジーを開発する企業の倫理や技術そのものの社会的価値について、懸念が広まっています。この問題を考察するため、富士通は2019年3月、ロンドンのクイーンエリザベス2世カンファレンスセンターで「信頼は失われたのか?デジタル時代の権限と責任」と題する経営者フォーラムを開催しました。

登壇したのは、アマゾンのAI音声アシスト技術を開発した後にEvi社を立ち上げた、ウイリアム・タンストール・ペドウ氏、そして『Willful Blindness: Why We Ignore the Obvious at Our Peril(なぜ差し迫った危機にあえて目を閉じるのか?)』の著者であり実業家のマーガレット・ヘファーナン氏。さらに富士通で将来予測とプランニングを指揮するデイビット・ジェントルも登壇し、講演と進行役を務めました。

冒頭、挨拶に立った富士通EMEIAリージョン長のダンカン・テイトは、社会、産業、行政のいずれにおいても織り込まれている絆をつくる信頼の重要性を語りながら、富士通自身の社員への取り組みを紹介しました。いずれの企業にとっても社員との信頼関係は重要だと彼は強調します。「才能あふれる人材を雇用し、新しい発想でイノベーションを導いていくのは大事なことですが、そのためには信頼にもとづく組織文化が欠かせません」と彼は語りました。

不確実で複雑な世界における信頼 (デイビット・ジェントル)

今日は、企業の力と社会責任のバランス、そしてそれに対するテクノロジーの影響について考えてみたいと思います。出発点としてまず考えたいのが「信頼」です。人間関係ばかりでなく、ビジネスにおいても、信頼がなければなにも始まりません。しかし、なぜ今、このことについて語る必要があるのでしょう?それは、この時代の大きな変化と関係しています。

昨年、人類は静かにある節目を迎えました。ネットユーザーが世界の人口の半数を超えたのです。いまやインターネットへの接続やデジタルは常識となり、インターネットにつながっていなかったり、アナログであることは例外となっています。人々がデジタル世界にどっぷりと浸っている点は注目に値します。欧米人は起きている時間の3分の1をオンラインに費やしているといわれます。

その結果、デジタル世界におけるビジネスが急拡大しています。そこで急成長するテクノロジー企業。数千万の顧客を相手にする事業もいまや珍しくなく、その成長速度と規模、顧客情報の量は、過去に例を見ません。まさに大きな節目がやってきており、舞台でいえば第2幕がいま始まろうとしています。第1幕では興味深い出来事や新しいモノが次々と生み出されました。第2幕では、その影響が表れ、混沌としてきます。

その影響とはなんでしょう?ビジネス・リーダーを対象として最近実施した調査によれば、情報の信頼性に疑問を抱いたり、個人情報の商業利用に懸念を抱く人々が全体の7割以上いました。信頼についての著書を持つレイチェル・ボッツマンは「信頼とは、未知のものとの確固たる関係である」と述べています。世界が混沌を深めている今、私たちにとってその「確固たる関係」や「信頼」とは、なにを意味するのでしょうか?
どうすればこの混沌のなかで「信頼」を築くことができるのでしょうか?

信頼のあり方の大転換 (ウイリアム・タンストール・ペドウ)

人類の歴史の中で、信頼は常に重要なテーマでした。では、今何が新しいのでしょうか?何かが、信頼の本質を変えようとしています。それには、さまざまな要因が考えられます。ひとつは情報爆発です。人類史上これほどまで社会に情報があふれている時代は、かつてありませんでした。先ほども触れられていたように、私たちは相当の時間をオンラインに費やしています。ビジネスでもプライベートでもコミュニケーションはバーチャルになってきています。

生成されるデータの量も桁違いになっています。この2、3年で生み出されたデータは、これまで人類が誕生して以来生み出されてきたすべてのデータの量をはるかに上回っています。これほどのデータ量を前に、その真偽や信憑性をすべて判定できる技術はありません。

技術の進化によって、成長する企業も昔とは大きく異なります。現在、米国のトップ5はすべて技術系で、時代の流れにうまく乗っています。かれらはネットワーク効果で大躍進しました。

こうした潮流は、信頼のあり方をどう変えていくのでしょうか?ソーシャルメディアは特に大きな力をもっています。そこでは誰もがコンテンツを生みだし、何百万もの人々がそれを見たり読んだりしています。生活のあらゆるものが記録され、面白いことが起これば関心を惹きます。

YouTubeの動画が良い例です。本当のこと、架空のものと色々入り交じっていますが、数千万回も視聴されています。ここにさらに機械学習の問題が加わります。AIの推論が必ずしも公平でないことはよく知られています。推論に使うデータはすべて過去のものなので、もしそこに見解の偏りが忍び込んでいれば、AIはそれを学習し、その偏りを踏襲してしまいます。つまり、さまざまなかたちで社会の偏見を具現化してしまうわけです。

また、最近の機械学習の推論は、人が理解できるように、導き出された結論の理由を説明できないという問題があります。たとえばAIが銀行ローンの申請を却下した場合、なぜ却下されたのかを顧客に説明することができないのです。

ここで少し肯定的な部分もあげておきましょう。AIが信頼の醸成に役立った事例です。eBayでこれまでに10,000点の商品を販売した店舗があり、その評価を見てみると好感度99%でした。そこでわたしは30ポンドの商品を購入しましたが、ほぼ100%、期待通りの商品が届くと思っています。以前の技術ではこうした信頼を生みだすことはできませんでした。技術には問題がつきものですが、わたしは希望を持っています。現在、目にする多くの問題もいずれは解決されることでしょう。

透明性と市民参加によって信頼を取り戻す (マーガレット・フェファーマン)

今日は、信頼について先のお二人から学びました。私が問題としたいのは、信頼を生みだす要素はなにかということです。それには4つある、と考えます。すなわち、他者を想う博愛の心(benevolence)、職務の実行能力(competency)、変わらぬ一貫性(consistency)、そして良心に沿った誠実さ(integrity)です。

黎明期のAIの推論は一貫性がなく、信頼にはほど遠いものでした。調査で明らかになったAIの問題点をいくつかご紹介しましょう。

同意の問題 – 教育業界の大手企業が、教師、生徒、保護者の同意なく、自社プログラムを使って秘密裏に社会心理学的な実験をしていました。これは同社の企業理念に反し、倫理上の誠実さに欠けています。

偏見の問題 – 実業家で慈善家のマーサ・レイン・フォックスの最近の報告によれば、世界のAIプログラム96%は男性によって書かれているということです。創造されるものは当然ながら作り手の無意識を反映します。つまり、AIははじめから男性偏重という問題を孕んでいるのです。

データの問題 – イギリスの、ある警察署において顔認証で犯罪の発生を予見するAIが導入されました。感情や心理状態、性的特質、知性、小児性愛やテロリズムの可能性を顔の特徴から推定するということでしたが、データが不正確であったため、結果も不正確で時代錯誤、偏見に満ちたものとなっていました。

これらはすべて実際に起こった事例であり、ほかにも同様のことはたくさんあります。こうした事例をもっと掘り下げることもできますが、AIの分析の多くが、客観的な分析と倫理的な判断との境界を越えてしまっているといえます。誰が、何のために、どういう価値観に基づいてその判断を下しているのでしょうか。

AIが完璧に作られていれば、こうした問題は起こりません。しかし、そこに至るまでには、まだいろいろとやるべきことがあります。

まず、AIはもう誰にも止めることはできないという不可避論はいりません。それは不誠実な宣伝文句と決定論が合わさったもので、人々を惑わします。また、AIには設計図があるので、それが適法かどうか容易に調べることができます。信頼を高めるには、AIの規制に市民も参加すべきです。医療業界はすでに何十年もこれらを実践しており、医療教育や医療相談、患者との関係作りに多額の投資をしています。医療診断は大抵の場合、倫理的判断となるからです。

適切な場と情報が提供されるのであれば、一般市民でも複雑な問題を理解することができます。他人の話に耳を傾け、必要なことを自ら学ぶことができます。AIの適法性は、開発企業の広告や市場シェア、成長率やプロパガンダで決まるのではなく、市民の参加によって決まるのです。

AIは急速に進化しているので、ことは急を要しています。不当な扱いを恐れる市民、強いられた開発の責任を懸念するエンジニア、そして信頼が事業の成長と直結する企業にとって、ここでお話ししたことは喫緊の課題といえます。オランダのことわざで「信頼は得るに遅く、失うに速し」ということがあります。

パネルディスカッション 責任あるAI開発のために

正確で公平な結果をもたらすAIを開発するにはどうすべきか?懐疑的な世論からの要望に対して、テクノロジー企業はどのように応えるべきか?フォーラムの最後に、会場からの問いかけに応えるかたちで登壇者3名が議論を展開し、進行はデイビッド・ジェントルが行いました。

第1の質問は、高齢者と若い世代ではAIに対する許容度が異なるのではないかというもの。高齢者よりも、若い世代の方がAIを受け入れやすいという意見です。早い時期からテクノロジーに慣れ親しんだ人はそうでない人と比べて、新しい技術を受け入れやすい、というタンストール・ペドウ氏に対し、ヘファーナンは「そうとは限らない」と答えました。「20代の若者たちは、私たちの世代よりもテクノロジーをよくわかっています。幼い頃から慣れ親しんでいるからでしょう。私の子供たちのような年齢層は、とても目が利くので、正直なところ、情報が搾取されていると、怒っていることがしばしばあります」。

第2の質問は、学習用データの誤りや偏りを避けるため、より多くのデータを集めておくべきではないかというものです。「機械学習で大事なのは適切なデータをできるだけたくさん入手すること」とタンストール・ペドウは話します。「それは、たいていは大量の良質なデータを意味するため、これで十分というのはありません。偏りをなくすにはデータが必要です」。業界はAI開発を通じてデータの偏りなどの問題を学んでいるのかどうか、デイビッド・ジェントルが訊ねるとタンストール・ペドウはこう答えました。

「AI開発がデータ収集から始まるというのはよくある話です。最初のモデルは不完全ですが、データの助けを借りてなんとかまとめることができます。できあがったものを顧客に試してもらうことで新たにデータが集まり、さらに改良していくことができます」。開発の初めからデータに注意しなければ、劣悪なデータのせいで取り返しのつかないことになる、とダンカン・テイトは話します。「2つほど成功事例があります。シーメンスとの協業で、機械学習を活用して風力発電のタービンの安全性を高めようとしたとき、ほぼ完璧なデータがあったため、安全性を向上させ社会に影響を与えることができました。マドリードのサンカルロス病院では、患者の自殺リスクや薬物中毒、アルコール依存症を低減するために医師と協力してAIを活用しました。医療現場では利用するデータについて細心の注意が必要です。この事例では医師たちが使っているデータを活用することができました」。

第3の質問は、収集時に用途が決まっていないデータも蓄積しておくべきなのかというものでした。データはできるだけ集めるべきなのでしょうか?タンストール・ペドウ氏は「集めるべき」と答えます。「ストレージにはあまりコストがかかりません。個人情報は取り扱いに注意が必要ですが、わざわざあるものを捨ててしまうのはどうでしょうか。今後の事業に役立つかもしれません」。

ここで、そうしたデータの蓄積と倫理上の問題について質問があがりました。使用しないデータを蓄えておくことは企業や社会にとって倫理的に問題がないのでしょうか?「枠組みが必要です」とヘファーナンは答えます。「そして、そのデータによって利害が生じるさまざまな関係者を代表する人々がそこに参加すべきです」。彼女は企業に任せきりにしないことが重要だと言います。「議論に誰が加わるべきか細心の注意を持って決めなければなりません。信頼を得るには時間がかかりますが、失うのは一瞬だということについては、誰も異論の余地はないと思います」。

ページの先頭へ