特定の人の顔を認識するという人工知能=AIの技術は、ロックの解除などさまざまなところで活用が広がっています。ところが、第三者が別のAIを悪用すると顔のデータを再現できてしまうおそれがあるとする実験結果を筑波大学の研究グループがまとめ、なりすましなどへのセキュリティーのあり方に一石を投じています。
AIをめぐっては、特定の人の顔を見分ける顔認証の技術が急速に進歩していて、コンピューターのロックなどに導入されているほか、将来的にはさまざまな本人確認などへの応用も検討されています。
これに対し、筑波大学人工知能科学センターの佐久間淳教授の研究グループは、特定の人の顔を学習したAIを別のAIに攻撃させ、学習した顔を類推させる実験を行いました。
攻撃側のAIは、まず適当な画像を作り出して攻撃対象のAIに見せます。そして、学習した人の顔とどれくらい似ていると攻撃対象が識別したかを読み取ります。そのうえで、得られた結果をもとに顔を類推し、より似せた画像を作るという作業を高速で繰り返しました。
その結果、攻撃側が作った画像は初めは意味をなさないものでしたが、学習した人の顔に急速に似ていき、2日後には攻撃対象のAIも本人と認識するレベルになったということです。
通常はAIのプログラムを攻撃側が読み込むことは難しいため、直ちに悪用されるわけではありませんが、研究グループでは、何者かがAIをハッキングすれば本人の顔を再現できてしまうほか、将来的には顔認証が突破されるリスクも懸念されるとしています。
佐久間教授は「これまでAIの開発では学習データが第三者に見られることは想定していなかった。データの中には企業の非公表の情報や個人の顔などもあり、情報が漏えいするリスクへの対応が必要だ」と話しています。
-- NHK NEWS WEB