コラムバックナンバー

AI・データ活用において、公平性や倫理を求める動きが活発になっています。
2020年4月現在、世界はパンデミックにより大きな変革を遂げようとしており、AI・データの利活用はますます加速度的になるでしょう。そして、そのなかにあって忘れてはならない「公平性と倫理」について今日はお話ししてみたいと思います。

Googleフォトのゴリラ分類の話、Amazonの採用AIが女性差別をしていた、MicrosoftのAIが人種差別発言を繰り返した、など、近年「AIによる非公平性や差別」は時折問題として報じられてきました。私もPeople Analyticsの領域に携わっているので、こういったことには大変センシティブであらねばと常々思っていましたが、先日データサイエンス界隈の友人たちと、とあるユースケースで議論をした際に、自分自身もこの領域の理解、意識が不十分であると認識しました。そのユースケースとは

「あなたは顔認証技術を用いたソリューションを提供する、サンフランシスコにあるAIベンダーに勤務しています。あなたの会社に “キリスト教の教会”から、攻撃的な人を検知する入り口の防犯カメラシステムを開発してほしいという依頼がありました。あなたはどうしますか?」

というものです。
この問いかけには様々な視点、立場での正義があり、倫理があります。防犯目的は社会貢献度が高く、ビジネス的なメリットからも引き受けたい。しかし、すぐに思いつくだけでも下記のような課題があります。

– 学習データをどのように入手・作成するのか
– どのように学習データを作るのか
(攻撃的だということをどのようにAIに学習させるのか? 人が判断するのか?)
– 汎用的な機械学習アルゴリズムのライブラリは適用できるのか(利用規約はどこまで言及しているのか)
– 法的な責任範囲は引き受けた会社はどこまで背負うのか
– プロジェクトに携わった社員の法的な責任は伴うのか

多くの視点があり、ベストな解決策というのは無いのかもしれません。日本におけるビジネスとしては「依頼側と責任範囲を決め、倫理的な問題についても定義し、ステークホルダー全員で合意した上でプロジェクトを進行する。対象サービス地域のAIやデータ活用の倫理規定の法令が改正された際は再協議する」ということになるかなとぼんやり思いましたが、設定は日本ではありません。私自身も自身としてベストだと思える答えはどうだろうと、日々問いかけつつ、AIとデータの公平性について、こういった課題だけでなく自身のポリシーが持てるように、この領域の情報には敏感でありたいと思っています。

データを取り扱う際の倫理については昨年もコラムで触れました。このときは、リクルート社による学生の内定辞退の予測、そのデータ活用についてでした。

AI時代に求められるデータ利活用の倫理とは

それから半年少しですが、AIと倫理・公平性については闊達な議論が行われており、データサイエンティスト協会のスキルチェックリストにおいても公平性、倫理について新たに下記のスキルが追加されました。データサイエンス力、機械学習のカテゴリにおけるスキルで、スキルレベルは「独り立ちレベル」です。その内容とは、

“機械学習・AIの出力結果に対する集団公平性(人種などのセンシティブ属性によるグループ間で差異がない)と個人公平性(人種などのセンシティブ属性以外が似ている個人間で差異がない)の違いを説明できる“

というものです。
こういった公平性が保てる倫理を保ち、あらゆる社会の課題に向き合うことのできる人間でありたいと思います。

コラム担当スタッフ

菅 由紀子

株式会社Rejoui
代表取締役

株式会社サイバーエージェント、株式会社ALBERTを経て、2016年に株式会社Rejouiを設立。DX推進支援、データ分析・利活用コンサルティング、データサイエンス教育事業などを展開。
統計ソフトRやPythonを活用した分析入門講座をはじめ、学生、企業、官公庁へ向けた統計・データサイエンス学習講座を提供。日本行動計量学会、WiDS TOKYO @ YCU、日本RNAi研究会等、数々の学会およびシンポジウムに登壇。自身がアンバサダーを務める人材育成の活動(WiDS HIROSHIMA)が評価を受け、2021年度日本統計学会統計教育賞受賞。

一つ前のページに戻る

a2i セミナー風景イメージ

あなたも参加しませんか?

「アナリティクス アソシエーション」は、アナリティクスに取り組む皆さまの活躍をサポートします。会員登録いただいた方には、セミナー・イベント情報や業界の関連ニュースをいち早くお届けしています。

セミナー・イベント予定

予定一覧へ

コラムバックナンバー

バックナンバー一覧へ