NAGOYA AI Blog

愛知・名古屋の人工知能・AIのニュースとブログ - N2i Blog

人工知能による深い情報の理解のつらさ

f:id:n2i-y:20180129104504j:plain

2つの記事がありました。

AIの死角、感覚・常識 学びにくく

力加減まだ苦手 画像だけではわからない、力のかかり方などをロボットが把握する必要がある作業では、データを集めにくく学習が難しい。学習に人の体の役割が必要な分、技術的なハードルが高いわけだ。

状況判断難しく 言語処理でも常識の壁がある。例えば「雨が降ってきた。洗濯物を取り込まなくちゃ」という文に対し、人は家の中に取り込むことや、雨で洗濯物がぬれると着られなくなって困ることが暗示されているのを自然と認識する。 だがAIは行間を読むのが難しく、言葉通りに判断するだけだ。融通がきかないため、同様の事例を学習していない限り、対話システムではとんちんかんな応答になる可能性がある。

Twitter、投稿の画像トリミングを人工知能で従来より高速・適切に

従来は、顔認識技術を使って画像の中で最もはっきりしている顔を中心にトリミングしていた(顔が含まれない画像の場合は画像の中心を基点にしていた)。 新しい方法では、人が画像を見た時に一番初めに目がいく部分を中心にトリミングする。そのために、視覚的に目立つ部分を把握する「視覚的顕著性」の研究データを自社のニューラルネットワークやアルゴリズムに学習させた。

この2つは人工知能が現時点でできることを端的に表しています。

力加減や言葉の裏側などの深い情報をもつことを実現することは難しく、限定的な情報の範囲内であれば人間の意図する形で動いてくれます。

次に、このような記事がありました。 画像の自動生成に関連するものです。

人工知能はアートのしっぽを掴んだか

ディープラーニングで大量のイラストを学習して、萌え系のイラストを自動生成する

この機能がさらに向上しているという記事ですが(職場での閲覧注意)、 以前、実用的なパッケージデザインを人工知能で生成するのはまだ難しい可能性を言及したのですが、イラストに関してはすでに実用的なレベルになっていると感じます。

blog.n2i.jp

前述したように深い情報を持つものに対する人工知能の実用はまだ難しく、限定的な情報の範囲内で色々なことをすることは多くの可能性がみえている印象です。