これまで、多数の組織がインターネットに潜む性的な児童虐待画像(CSAM, child sexual abuse material)の発見と撲滅に取り組んできましたが、こうした画像を大量に審査するのは技術的に難しく、精神的にも辛いものです。Googleは、こうした作業を肩代わりできるようAIを鍛えた「Content Safety API」を開発しました。
このツールキットに含まれるディープニューラルネットワークは膨大な素材をスキャンし、CSAMである疑いがあるものにランク付けを施し、人力チェックへ回す必要があるものを選び出します。
ツールキットの導入は、人力での仕分けに比べて7倍の素材チェックを可能としつつ、作業に携わる人員の削減を可能とします。これまでにも、画像チェック作業の自動化に向けた取り組みがなかったわけではありません。ただ、自動化されたシステムでは既知のCSAM画像とのハッシュ値の比較、つまりすでに見つかっている画像のコピーを検出できるだけに過ぎませんでした。
これに対して、AIによる検出方法ではまったく未発見の(新しい)素材にもフラグを立てることができ、それは当局の犯罪者逮捕と新たな虐待の発生防止の手助けにもなります。
Content Safety APIは企業パートナーやNGO団体などに無料で提供されます。このAPIの導入がインターネット上の悪質なCSAM画像を劇的に減らすことができるかはまだわからないものの、少なくともこの作業に当たる組織が、これまでよりも少ない人員で同じ仕事量をこなせるようになることは間違いありません。…
このツールキットに含まれるディープニューラルネットワークは膨大な素材をスキャンし、CSAMである疑いがあるものにランク付けを施し、人力チェックへ回す必要があるものを選び出します。
ツールキットの導入は、人力での仕分けに比べて7倍の素材チェックを可能としつつ、作業に携わる人員の削減を可能とします。これまでにも、画像チェック作業の自動化に向けた取り組みがなかったわけではありません。ただ、自動化されたシステムでは既知のCSAM画像とのハッシュ値の比較、つまりすでに見つかっている画像のコピーを検出できるだけに過ぎませんでした。
これに対して、AIによる検出方法ではまったく未発見の(新しい)素材にもフラグを立てることができ、それは当局の犯罪者逮捕と新たな虐待の発生防止の手助けにもなります。
Content Safety APIは企業パートナーやNGO団体などに無料で提供されます。このAPIの導入がインターネット上の悪質なCSAM画像を劇的に減らすことができるかはまだわからないものの、少なくともこの作業に当たる組織が、これまでよりも少ない人員で同じ仕事量をこなせるようになることは間違いありません。…
0 comments:
コメントを投稿