AI活用の限界を乗り越える!?説明可能AI「XAI」の世界

AI活用の限界を乗り越える!?説明可能AI「XAI」の世界
Contents

「碁」の基本ルールも教えていないのに、世界最強のプロ棋士に勝利!?

「碁」をたしなまれる方もおられるでしょう。「碁」を知らなくとも、当時はかなり話題になったので、覚えてる方もおられるかもしれません。2016年3月、世界がビックリするニュースがありました。

「アルファ碁(Alpha Go)」と呼ばれるAI(人工知能)が、当時、碁の世界最強の一人と言われるプロ棋士に勝利したのです。どうして世界がビックリしたのか?

チェスや将棋などでは比較的、以前からコンピュータがプロに勝利することもありました。

しかし「碁」は非常に複雑なゲームであり、終局までの手順は何と10の360乗通りという天文学的な数字になると言われます。そのためどんなコンピュータでも人には勝てないのではないかと言われていました。それがプロ棋士にも理解できないような一手を次々と繰り出しながら、ついには勝ってしまったことで、世界に大きな驚きと衝撃を与えたのです。

しかもこの「アルファ碁」というAI、実は「碁」のルールさえ学習していなかったのです。では、それがどうして、世界最強のプロに勝てたのか。それは「ディープラーニング」の成果であると考えられています。

AI自身がデータから学習対象を抽出し、自分で学んで成長する「ディープラーニング」

「ディープラーニング」の基幹となっているのが、ニューラルネットワークです。ニューラルネットワークは、人間の神経細胞(ニューロン)の仕組みを模したもので、これを多層にすることによって情報量や情報処理量を増大させ、複雑な判断が行えるようにしたものです。

そもそもAIが判断するためには、学習が必要です。例えばリンゴとミカンを見分けさせるには、それぞれの特徴となる色や形、サイズなどを人間が定義づけAIに学習させる必要があります。これを機械学習と言います。学習データは多ければ多いほど判断材料が豊富になり、知能レベルが高まります。

ディープラーニングも機械学習の一種ですが、ディープラーニングの場合は、人が関与することなしにAIが学習データからそれぞれの特徴を抽出し、自動的に学んでいくのです。これが従来の機械学習との大きな違いとなります。

冒頭で紹介した「アルファ碁」は、ディープラーニングによって過去から現在までの10万にのぼる膨大な棋譜を読み取ることで「碁」の特性を自動的に定義付け、さらに3,000万以上の仮想対局を重ねることで、人間が「碁」の基本ルールを定義として学習させなくとも、自力でプロ最強の棋士を破るまでに成長したのです。

ここで新たな問題が浮かび上がってきました。一体どうやって、「アルファ碁」は、従来の定石を無視するかのような複雑怪奇な一手を考え出したのか、プロ棋士はもとより評論家、そして「アルファ碁」を開発した者でさえ、全く分からなかったのです。これが新たな問題、「ブラックボックス化」です。

AIが重要な判断を下すとき、理由が「分からない」では済まされない

従来のプログラムなら、プログラムコードを辿っていけばAIが下した判断のプロセスと理由がわかります。しかしディープラーニングで自己増殖的に学習したAIには、人が理解できるコードはなく、アルゴリズムは全く不明、つまり「ブラックボックス」の状態になってしまったのです。さすがにこれは、問題があるといえます。

例えば、ディープラーニングによって学習したAIの活用分野として、今注目を集めているもののひとつに「医療分野」があります。AI診療の好適例としてよく紹介されるのが、わずか10分ほどで特殊な白血病の可能性を診断し、その結果、患者が救われたというケースです。人間の生命に関わる判断を委ねるわけですから、「なぜ、そのような判断を下したか」の理由が分からないのは、非常に大きな問題となるのです。

次にAIの活用分野として導入が進んでいるのが、会社の「採用関連」です。従来では人事担当者が山のようなエントリーシートと格闘し、自社にとって適正な人材を確保しようと躍起になっていましたが、その役割をAIに任せようという試みです。これも人の人生を左右するものですので、判断理由を明確にしておく必要があります。

またアメリカでは、AIを使って犯罪者が再び犯罪を犯す危険性を10段階で割り出す再犯予測プログラム「COMPAS」が開発され、犯罪者の量刑の軽重を左右するものとして話題になるとともに、危険性も指摘されました。

このように重大な判断にAIが活用されることが増えていくなか、いつまでも判断のプロセスを「ブラックボックス」で放っておくわけにはいかなくなったのです。ではどうすればいいのでしょう。答えは簡単です。AI自身に、その結論に至ったプロセスを説明させればいいのです。

説明可能なAI「XAI」に今、大きな注目と期待が

AIの思考プロセスの「ブラックボックス」化が問題になる中、非常に注目される存在になってきた技術が、「XAI」です。「XAI」とは「Explainable AI(説明可能なAI)」の略で、「ブラックボックス」に対して「ホワイトボックスAI」と呼ばれることもあります。

XAIは文字通り、AIが下した判断に至った過程や理由を人に提示できる、いわば「説明責任」が果たせるAIのことで、アメリカの国防総省でも大きな予算を投入して研究が進められています。もちろんIT企業などでも研究開発が進められていますし、すでに商品としてリリースしている企業もあります。

将来的には、さらに高度な判断をAIに委ねることもあるかもしれませんが、その場合には「XAI」でなければ、人間は安心して任せることができなくなるでしょう。例えば「この人は有能な人かどうか?」といった判断は、人間にとっても難しいものです。なぜそう思ったのかの理由を明示してくれないと、誰も納得できないでしょう。

一方、「信号が赤に変わったので停車した」「アクセルに異常な踏み込みがあったので停車した」「商品パッケージに歪みがあったので排除した」といった判断には、説明する必要などありません。このようにAIが必要とされる局面には、まだまだブラックボックスのままでよいものもたくさんあるのです。

重要なことは、ブラックボックスAIとXAI=ホワイトボックスAIを適材適所で使い分けること。それにより人とAIのよい関係が構築でき、仕事や暮らしをもっと快適なものにできるはずです。

導入できる部分から、AIへの作業委譲を進め、XAI時代への下地づくりを

AIにどのように説明させるのかといった問題も含め、XAI技術はまだまだ発展途上にあり、課題も抱えています。しかし、現在のAI技術の進化から考えると、私たちの身の回りにXAI技術が満ち溢れる時代も、そう遠いことではありません。

例えば以前このコラムでもご紹介した、デスクワーク業務をアシストするソフトウエアRPA(Robotic Process Automation)は、当初は人間が設定した通りに動くことを主目的として開発されたため、学習機能を必要としませんでした。しかし現在ではAIと連携することで学習機能を備えることで、単純な反復作業だけでなく、ビッグデータの解析やマーケティングツールへの応用など、場合によっては人間の能力を上回る機能で、私たちのビジネスを支援するようになってきました。

このようなRPAに、さらにXAI技術が連携することで、私たちの業務にも大きな変化が起こることが予想されます。重要な営業会議にXAIを搭載したRPA(その時は、すでにRPAという名称ではないかもしれませんが)が有能な部下の一人として参加し、貴重な意見をしっかり説明しながら述べ、あなたの判断に重要な影響を及ぼす・・・そんな時代が来るかもしれません。

時代が大きく変化してから慌てるのではなく、RPAなど可能な部分からAI技術の導入を図り、XAI時代に備えておくことが必要だと言えるでしょう。

◎製品名、会社名等は、各社の商標または登録商標です。

関連サービスのご紹介

著者画像

著者 OPTAGE for Business コラム編集部

ビジネスを成功に導くICTのお役立ち情報や、話題のビジネストレンドをご紹介しています。

SNSシェア