イギリスなどでテロ事件が相次ぐ中、過激な思想に染まるきっかけになっているとして、ソーシャルメディアへの批判が強まっていることを受けて、アメリカのフェイスブックは人工知能を導入して問題のある投稿ができないようにする取り組みを発表しました。
テロ事件が相次いだイギリスでは、テロの容疑者が過激な思想に染まるきっかけになっているとして、メイ首相がソーシャルメディアを批判し、サイトを運営する企業に対策を求める声が強まっています。
これを受けて世界最大の交流サイトを運営するアメリカのフェイスブックは15日、対策に人工知能を導入すると発表しました。
具体的には、画像の認識技術でテロの容疑者の写真や動画を特定したり、テロを呼びかける内容をしゅん別したりする技術を取り入れ、こうした内容を含む投稿ができないようにします。
さらに、30近い言語に通じた、合わせて150人以上の専門員を配置し、テロに関する投稿を監視するとしています。
フェイスブックはこれとは別に犯罪行為など不適切な映像の拡散を防ぐため、来年にかけて監視する態勢を7500人に増やすとしていますが、世界でおよそ20億人が利用する巨大サイトだけに、徹底した監視は難しいのが実情です。
-- NHK NEWS WEB