「説明可能なAI」世界で初めて開発 北大・富士通研の共同研究で

Pocket

本学は望む結果を得るために必要な手順を自動で提示できる技術「説明可能なAI」を世界で初めて開発したと2月4日、発表した。研究は本学情報科学院情報知識ネットワーク研究室(IKN研究室)が株式会社富士通研究所(富士通研)と共同で行った。

今回開発した技術「反実仮想説明AI」は、既存のAIが出した判断結果に対し、その結果を望むものにするための手順を提示してくれるものだ。従来の技術では、例えばAIによって健康リスクが高いと診断された際に、そう診断した根拠(体重、筋肉量などのデータ)を提示することは出来た。それが「反実仮想説明AI」を活用することで、望む結果(健康リスクを低くすること)を得るためにデータをどういう手順でどう変化させればよいのか(まず筋肉量を1kg増やし、その後体重を1kg増やす)を提示できるようになった。

AIによる判断、望む結果を得るための手順を示すまでの過程

富士通研人工知能研究所の髙木拓也研究員と、IKN研究室の金森憲太朗さん(博士2年)によると「説明可能なAI」の技術は現在研究が盛んに行われている分野だという。2010年代前半にディープラーニングの技術が発展し、AIによる複雑で高精度の予測、判断が可能になった一方で、なぜそういう判断が導かれたのかが人間には分からないという問題点があった。自動運転や医療診断にAIが用いられるためには判断理由を明確にすることが倫理面などの点から不可欠であり、それを実現する技術の開発が期待されていた。

また「説明可能なAI」の開発には、AIが判断をするモデルを理解しやすい簡単なものにする方法と、ディープラーニングのような複雑なモデルから説明に関わる部分を「抽出」する方法の二通りがある。今回開発した技術は後者に含まれる。

今回の研究は、「反実仮想説明」に関心を持っていた金森さんが19年の夏にインターンシップとして富士通研で共同研究したことから始まった。髙木研究員はIKN研究室の卒業生。約2カ月のインターンシップ終了後も研究は続けられ、翌年4月に最初の論文が採択された。その時点ではデータ間の相関関係を考慮するものにとどまっていたが、その後さらに研究を進め現在の順序(因果関係)を考慮する段階にまで発展。12月に採択された論文の内容が、今回の「反実仮想説明AI」だ。

「情報系(の研究)で良い点は遠隔でもできるところ」と髙木研究員。今回の研究内容はノートPCでも出来るほどの計算で済み、研究所で顔を合わせなくても続けられた。

今後について髙木研究員は「現時点では論文を出しただけに過ぎないので、誰でも使えるような形にしていきたい」と話した。金森さんも「実際にこの技術を必要としている人の要望を聞きながら、望むような“説明”が抽出できるような技術に仕上げていきたい」と意気込んだ。