学習させたデータから未来を予測することはAIを利用しようとする場合、簡単に考えつくことです。
そして、予測によって事前対策や業務の効率化ができるのであれば、それはとても魅力的です。
WIREDにこんな記事がありました。
人工知能の力で、Apple Watchが糖尿病を“検知”する──医療の「常識」を変えるスタートアップの挑戦
スタートアップのCardiogramは、取得した心拍数のデータを人工知能に解析させることで、かなりの確率で糖尿病のリスクを予測できるという研究結果を発表
Apple Watchなどの心拍数測定のデータによって、糖尿病の予兆を察知し、患者になる可能性のあるユーザーにアラートが出せるような、そんな機能開発でウェアラブルデバイスの更なる活用につながるのでは、という記事ですが、不安な点として以下のような記述があります。
内在するパターンの裏にあるメカニズムがわからない状態で、データを基に機械学習アルゴリズムを発展させていくと、理由がわからないまま指標が得られる場合が多い。「正直、不安にはなります。これが糖尿病の兆候を検知しているのか、あるいは別の要素からくる作用なのか、プロジェクトチームで何度も議論を重ねてきました。ですが、結論としては何も出ていません」
Cardiogramの研究についてトポルは、「ブラックボックス化されたアルゴリズムに、生物学のブラックボックス的な要素を結びつけたようなものです」と指摘する。「不確かで説得力にも欠けます。せいぜい仮説を生み出すのが精一杯ではないでしょうか」
その仮説とは、DeepHeartが糖尿病のシグナルを検出している“かもしれない”ということである。だが、何か違うものを検知している可能性もあるのだ。
Nagoya AI Blogでも以前、AIのブラックボックス問題を取り上げました。
こちらで引用したWIREDの記事を改めてご紹介します。
人工知能を「正しい道」へと導くのは誰か──学会で語られたAIの倫理への懸念
今回も同様にブラックボックス問題によって、「理由」がわからない状態でユーザーへアラートを出すことに対する不安が大きい状況です。
予測や検知などを何かのトリガーとする場合は根拠が必要です。
しかし根拠はブラックボックスなのが現状であり、この状況はなかなか改善されません。
以下のような記事があります。
AIができることとできないこと、 得意なことと不得意なことをしっかり見極めたシステムの開発が必要です。
ご相談ください。
N2iでは、企業向け人工知能・RPA・チャットボットの受託開発や ATS(採用管理システム)の自社開発を行なっています。
【ご相談・お問い合わせ】はこちら