2018年2月20日火曜日

AI研究における「ブラックボックス問題」とは何か

さまざまな産業やサービスにおいて実用化が進むディープラーニングにおいて、ひとつの課題が浮上している。すなわち「ブラックボックス」の問題だ。

ディープラーニングは、さまざまなビジネスプロセスを自動化してくれる人工知能AI)技術だが、機械が自ら膨大なデータを学習し"自律的"に答えを導き出すという特性上、その「思考のプロセスが人間には分からない」という問題がある。この問題がすなわちブラックボックス問題と呼ばれている。日本の著名なAI研究者のひとりは、次のように解説する。

「例えば人間が物事を思考する際、思考レベルは数次元が限界でしょう。一方で現行の人工知能は、数十~数百次元のレベルで物事を思考することができる。つまり、ディープラーニング技術を採用した機械が出した答えについて、どうしてその答えに至ったかという過程を、人間は追えないのです」

現在、検索サイトにおける画像判断サービスなど分野では「ブラックボックスが多少あってもそれほど問題にはならない」というのが、業界関係者たちの基本的な論調となっている。機械が対象を誤って判断したとして、その過程が分からなくとも、人々にとってクリティカルな状況を招く可能性が低いというのがその理由だ。

とはいえ、過去には有名IT企業のAI画像認識サービスが黒人女性の顔画像をゴリラと判断し、人権上の観点から一時稼働停止に追い込まれた例もある。実用化が比較的容易とされているサービスにおいても、ブラックボックスの問題は、企業リスクに直結しうる課題となりつつあるのだ。

0 comments:

コメントを投稿