2020/02/12 説明可能なAI
こんにちは。
今日は説明可能なAIについてです。
今までは完全なブラックボックスだった
人工知能の代表的技術であるディープラーニングは画像認識などで広く応用されています。
ディープラーニングでは、教師データを大量に学習させることで、複雑な判断を通じて、自動的に正解パターンを見つけて判断してくれるというものです。
ただ、「自動的に正解パターンを見つける」ということは、裏を返すと「判断はブラックボックス」ということになります。
説明可能なAI
その中で、Googleが説明可能なAIをリリースしたという記事があり、だいぶ驚きました。
説明可能なAIとは? Googleの「Explainable AI」に触れながら解説 | Ledge.ai
画像判定の部分で、画像のどの領域を見て判断したかを可視化するというものです。
これを使って人間が検証することで、一定のリスク低減、特に医療や自動運転などの失敗が許されない分野では、活用が期待されます。
ただ、記事にも書かれていますが、あくまでも「領域」を示しているだけであり、その判断に至った経緯は今でもブラックボックスとのことで、完全に説明できているわけではないという課題があります。
とはいえ、「完全なブラックボックス」が表面的にでもわかってきたというのは大きな一歩と言えます。
では、また。