コラムバックナンバー

AIがバズワードとなってもう数年が経ちますが、この1~2年ほどは「説明可能なAI(Explainable AI )」「解釈可能なAI(Interpretable AI)」という言葉が取り沙汰されるようになってきました。

そもそもAIとは何か
ビジネスの場においてはただの機械による自動処理やルールベースの処理を「AI」と名乗っているサービス多く、「なんとなく機械がデータを元にうまく課題解決してくれるもの」と捉えている人が多く存在しています。AIの定義には色々とあり、専門家によっても人それぞれではありますが、私自身は下記の3つであると位置づけています。

1. 人が行う知的労働の「補助」あるいは「代替作業」を行うものであること
2. 扱うデータの処理が膨大で指数関数的に増加し、多様で機械でしか実現ができないものであること(いわゆるビッグデータを扱うもの、もしくはその結果得られたアルゴリズムからなる仕組み、学習済アルゴリズムを含む)
3. 統計的なデータ処理やモデリングのアプローチ、機械学習の技術が用いられていること

AIという言葉の爆発的な広がりは深層学習系の技術とセットでですが、それらのアルゴリズムはブラックボックスであることがかねてより課題視されていました。「AIはブラックボックス」も必ずセットでよく聞こえてきた話です。

ブラックボックスでありながらも予測や識別の精度の高さを求めて活用をされた頃から、本格的な適用期に入り言われ始めたのが「なぜそのような結論になるのか(説明)」と「この結果をどのように考えれば良いのか(解釈)」の2点でした。

データは何かが起きた結果として私たちのところに届きます。そして、人が何かを起こすとそれが結果としてデータに反映されます。観察した結果から何が起きたか理由を把握したいと思い、何かを起こせば結果がどのくらい変わるか知りたいというのは人の永遠のテーマであるようです。

そうであるからこそ「説明可能性」や「解釈可能性」という議論が起きていると私は思っています。また、この二つは似ているようで少し異なる立場でもあります。AIの出力結果について、
a. インプットとアウトプットの関係性や採用したモデルの観点から説明できるかどうかということ
b. AIが出力した結果を人がどのように読み解き活用するのか
いずれも原理原則を理解しているかのスキルを問われることは共通です。AIと呼ばれるものが、どのように構成されているかを把握し、理由を語るのか、解釈するのかについては実は同じスキルです。LIMEやSHAPはそのために基本として知っておくべき解決策です。

次回はその話をしてみたいと思います。

コラム担当スタッフ

菅 由紀子

株式会社Rejoui
代表取締役

株式会社サイバーエージェント、株式会社ALBERTを経て、2016年に株式会社Rejouiを設立。DX推進支援、データ分析・利活用コンサルティング、データサイエンス教育事業などを展開。
統計ソフトRやPythonを活用した分析入門講座をはじめ、学生、企業、官公庁へ向けた統計・データサイエンス学習講座を提供。日本行動計量学会、WiDS TOKYO @ YCU、日本RNAi研究会等、数々の学会およびシンポジウムに登壇。自身がアンバサダーを務める人材育成の活動(WiDS HIROSHIMA)が評価を受け、2021年度日本統計学会統計教育賞受賞。

一つ前のページに戻る

a2i セミナー風景イメージ

あなたも参加しませんか?

「アナリティクス アソシエーション」は、アナリティクスに取り組む皆さまの活躍をサポートします。会員登録いただいた方には、セミナー・イベント情報や業界の関連ニュースをいち早くお届けしています。

セミナー・イベント予定

予定一覧へ

コラムバックナンバー

バックナンバー一覧へ