今回NVIDIAが開発したAI監視カメラの精度は、既存のどの製品よりも高いとの触れ込みです。
実際、中国政府が導入しているAI監視カメラの稼働を見てみると、
中国政府が昨年から導入しているAI監視カメラシステムは3秒以内に人々の顔を識別することが可能だが、その正確さは90%程度。
90%と聞くと精度が高いように感じますが、それが99%のカメラと言われると、どちらが良いかは一目瞭然。
群衆の中から100%に近い精度で特定の人物の顔を認識し、リアルタイムで追跡することが可能だ。
このAI監視カメラが導入されれば、以下のような用途で威力を発揮してくれます。
犯罪やテロなどを24時間体制で監視するなど、より堅固な民間防犯システムや、パブリックセキュリティーシステムの構築に活用されていくと期待されている。また銀行のATM付近に設置が可能で、オレオレ詐欺や、違法な引き出し行為を追跡する
しかも、既存製品のグラフィックチップを差し替えるだけで、追加費用があまりかからないメリットがあるそうです。
しかし、そのリスクについては様々な可能性が取り上げられており、研究の真っ只中にあります。
一般的に、顔認証プログラムの学習データをハッキングする側が知ることは困難なため、顔認証システムが悪用される可能性は極めて低いが、悪意ある第三者が顔画像を再現して安全性を脅かす可能性はゼロではない
AIの学習に使われる画像がハッキングされた場合、深刻なプライバシー侵害が生まれる可能性がある
AI監視カメラをハッキングして騙すAIが登場してくる可能性も否定できない。その際、画像データ(もしくは画像データをAIが正確に判断したという事実)を根拠に、罪のない人が冤罪に巻き込まれる危険性もある。おそらく、それは“AI冤罪”という名前で呼ばれ始めるかもしれない。
佐久間淳教授(筑波大学人工知能科学センター)のグループによる研究についてはNHKも取り上げています。
セキュリティの確保とAIのリスクについて、引き続き、今後の動向に注目したいと思います。
------------------------------------------------------------------------
N2iでは、企業向け人工知能の受託開発や
人工知能を使ったビックデータ解析を行っています。
【ご相談・お問い合わせ】はこちら
------------------------------------------------------------------------