コラムバックナンバー

AIがバズワードとなってもう数年が経ちますが、この1~2年ほどは「説明可能なAI(Explainable AI )」「解釈可能なAI(Interpretable AI)」という言葉が取り沙汰されるようになってきました。

そもそもAIとは何か
ビジネスの場においてはただの機械による自動処理やルールベースの処理を「AI」と名乗っているサービス多く、「なんとなく機械がデータを元にうまく課題解決してくれるもの」と捉えている人が多く存在しています。AIの定義には色々とあり、専門家によっても人それぞれではありますが、私自身は下記の3つであると位置づけています。

1. 人が行う知的労働の「補助」あるいは「代替作業」を行うものであること
2. 扱うデータの処理が膨大で指数関数的に増加し、多様で機械でしか実現ができないものであること(いわゆるビッグデータを扱うもの、もしくはその結果得られたアルゴリズムからなる仕組み、学習済アルゴリズムを含む)
3. 統計的なデータ処理やモデリングのアプローチ、機械学習の技術が用いられていること

AIという言葉の爆発的な広がりは深層学習系の技術とセットでですが、それらのアルゴリズムはブラックボックスであることがかねてより課題視されていました。「AIはブラックボックス」も必ずセットでよく聞こえてきた話です。

ブラックボックスでありながらも予測や識別の精度の高さを求めて活用をされた頃から、本格的な適用期に入り言われ始めたのが「なぜそのような結論になるのか(説明)」と「この結果をどのように考えれば良いのか(解釈)」の2点でした。

データは何かが起きた結果として私たちのところに届きます。そして、人が何かを起こすとそれが結果としてデータに反映されます。観察した結果から何が起きたか理由を把握したいと思い、何かを起こせば結果がどのくらい変わるか知りたいというのは人の永遠のテーマであるようです。

そうであるからこそ「説明可能性」や「解釈可能性」という議論が起きていると私は思っています。また、この二つは似ているようで少し異なる立場でもあります。AIの出力結果について、
a. インプットとアウトプットの関係性や採用したモデルの観点から説明できるかどうかということ
b. AIが出力した結果を人がどのように読み解き活用するのか
いずれも原理原則を理解しているかのスキルを問われることは共通です。AIと呼ばれるものが、どのように構成されているかを把握し、理由を語るのか、解釈するのかについては実は同じスキルです。LIMEやSHAPはそのために基本として知っておくべき解決策です。

次回はその話をしてみたいと思います。

コラム担当スタッフ

菅 由紀子

株式会社Rejoui
代表取締役

2004年株式会社サイバーエージェント入社。2006年3月に株式会社ALBERTに転じ、データ分析業務を担当。顧客行動分析やDMP構築アドバイザリー等多数のプロジェクトを担当。
2016年9月にHR&Learning 分野専門の分析会社 Rejouiを設立。
アナリティクスアソシエーションプログラム委員、データサイエンティスト協会スキル委員。
株式会社Rejoui 代表取締役をつとめながら関西学院大学大学院ビジネススクールの非常勤講師としても活躍中。

一つ前のページに戻る

a2i セミナー風景イメージ

あなたも参加しませんか?

「アナリティクス アソシエーション」は、アナリティクスに取り組む皆さまの活躍をサポートします。会員登録いただいた方には、セミナー・イベント情報や業界の関連ニュースをいち早くお届けしています。

セミナー・イベント予定

予定一覧へ

コラムバックナンバー

バックナンバー一覧へ