AIの進化は日進月歩であり、誰もがAIを使って生活を便利にしたり新しい挑戦を行ったりといった事を考え実践している昨今ですが、その中でAIのブラックボックス化についての話が色々と聞こえてきています。
ブラックボックス化
例えば、2016年12月の以下の記事ではこのように述べられています。
ニューラルネットワークに代表される機械学習アルゴリズムは、例えばルールベースのシステムと比較すると透明性が低いためだ。内部の動作が常に明らかになるわけではない。ネットワーク自体を組織化させるというのは実際のところ、ネットワークに組織化を任せてしまうことに他ならない。このため、どのように組織化されたのかは必ずしも分かるわけではない
その為、AIに重要な決定をまかせる事は厳しく、もしその判断をさせるのであれば、人間との共同作業という形をとるのが現状では良いということです。
何が起こったのかを完全に理解できていない場合、さらには(ニューラル)ネットワークが誤った結果を導き出した場合であっても、致命的な問題とならないケースがある。例えば、ユーザー好みの楽曲を見つけ出してくれるシステムが誤った結果を導き出したとしても、退屈な音楽を聴かされるのが関の山だ。しかし、金銭処理が絡む顧客サービスアプリケーションや、コンピュータの支援によって臨床記録の改善を目指すアプリケーションの場合、AIを孤立させたかたちで使用するのではなく、人間との共同作業というかたちで使用するのが一般的だ
※なお、ここで述べられているAIというのは強いAIではないという部分は注意してください。
今、急速に起こっているのは、職場や家庭、世界各地で日々の生活に大きな影響を与える、ありとあらゆるプロセスにAIアルゴリズムが組み込まれていくという流れだ。
人工知能学会で語られたブラックボックス化の話
人工知能を「正しい道」へと導くのは誰か──学会で語られたAIの倫理への懸念
2017年12月上旬に開催されたNIPSカンファレンスでこの問題が取り上げられています。
現在多くのマシンラーニングシステムは、どれも基本的にブラックボックス化している。つくり手たちはAIがどう機能するのかはわかるが、それがある判断を下したときその理由までは説明できないのだ。これは、グーグルなどの企業[日本語版記事]がマシンラーニングを雇用やヘルスケアといった分野に応用したときに、さらに多くの問題を引き起こしうる。
「医療などの領域でこの技術を使う際には、何かを入れると理由もわからず何かが出てくるブラックボックスのままにしておくわけにはいかないのです」と、グーグルでマシンラーニングの研究を行っているマイトラ・ラグーは言う。
前述したように人間との共同作業を行う事で判断が勝手に進んで行く事は阻止できるかもしれません。しかし、医療の分野などで過程が重要になってくる場合、出てきた結果に対する判断だけではこのブラックボックス化の問題はクリティカルな問題となってきます。
しかしこのブラックボックス化に対するソフトウェアも同時に紹介されています。
このソフトウェアを使えば、マシンラーニングプログラムがデータのどこに目を向けているのか知ることができるという。ゆくゆくはAIの医療アシスタントが何らかの診断を下したとき、医師がそのAIがスキャンデータや病歴のどの部分を参考にその診断にたどり着いたのか、確認できるようになるかもしれない。
ブラックボックス化への対応について
以上から、ブラックボックス化は現時点においては重要な決定にAIを使う障壁となりうるものですが、将来的にはこれは解決していくのではないかと思っています。
そうなると、AIの活用の幅が広がるのではないでしょうか。
募集しています。
N2iではそんなAIを使ってのサービス開発を一緒にしてくれる方を募集しています。 主に、AIそのものを開発するというよりはAIを利用してのサービス開発がメインとなっています。
興味のある方は、以下から是非コンタクトください。