プライバシーテック研究所

人の「顔」を簡単に生成できる時代に!?合成データが作る“安全な”世界とは

2022.06.08

はじめに

顔認識AIは、もはや誰もが利用する身近な存在になりつつある。

iPhoneユーザーの方であれば、毎日何十回も顔認証システムを利用しているはずだ。オフィスの入社時に顔認証システムを用いている人もいるかもしれない。そしてそんな顔認識AIの普及の裏側には、もとのデータから生成する「合成データ」が活躍しているのをご存じだろうか。

本記事では、合成データの中でも、顔画像の合成データにフォーカスして執筆してみた。顔画像の合成データがどれほどの実用性を持っているのか、そして顔画像の合成データが作り出す世界とはどのようなものなのか、考察していこうと思う。

そもそも合成データとは何か?

合成データとは、「コンピューターのアルゴリズムによって生成された、限りなく実際のデータに近い人工データ」のことを指す。詳しくは以下の記事を参照してみてほしい。

現代は、ビッグデータが重要な存在となっている時代だ。理由は様々だが、特に注目されているのは、やはりAIを用いたディープラーニングだろう。AIの精度を高めるためには、圧倒的な量のデータが必要だからだ。

そして多くのテック企業が、データを蓄積するために、様々な分野でデータを収集している。その中には当然、個人のデータも含まれており、プライバシーが筒抜けになってしまっているケースも見受けられる。

そこで合成データの登場だ。「実際の個人のデータに限りなく近いデータ」を活用することで、プライバシーを保護しつつ、データを蓄積することが可能になる。つまり、ビッグデータが重要になる現代において、合成データはプライバシーテックだという見方ができると言える。

合成データの利活用シーン

合成データの利活用シーンは様々だが、大きく分けて2つの用途がある。

1つめの用途は、フェイクだ。例えば、データセットの中に合成データをランダムに忍ばせておく。そうすることで、データセットで侵害が発生した場合でも、フェイクデータが混ざっているため、データ保護が期待できる。

2つめの用途は、先ほども述べた通り、データの蓄積だ。例としては、自動運転におけるシミュレーションが挙げられる。現在、自動運転の開発現場では、大量の走行データが求められている。大量の走行データを集めるには、たくさんの走行テストを実施しなければならない。しかし、法律上の観点から、公道で走行データを大量に集めるのは厳しい。そこで、合成データの出番だ。アルゴリズムによって生成された仮想空間上で大量の走行シミュレーションを実施し、大量の走行データ(合成データ)を生成する。そしてそれを基に、自動運転技術を発展させているのだ。

顔画像の合成データの現状

合成データの中でも、特にプライバシーテックの要素が強い顔画像の合成データの現状はどのようになっているのだろうか。

Microsoftが発表した3Dフェイス生成技術が凄い

2021年10月、コンピュータービジョン分野における世界最高峰の国際会議の一つである「ICCV(International Conference on Computer Vision)」で、Microsoftが「合成データのみで顔認識AIを教育できることを実証したこと」を発表した。

従来より「顔認識AIを教育するためには、合成データが必要になる」という見方が強かった。それはもちろん、倫理的な理由からだ。しかし、合成データのみで教育すると、顔認識AIの精度はどうしても落ちる。その問題をMicrosoftは、合成データのクオリティを高めることで解決した。実際に動画が公開されているが、本物の人間とほとんど見分けがつかないレベルの3Dフェイスが生成されている。

では、これほどのクオリティの3Dフェイスをどのように大量生成しているのだろうか。

発表内容によればMicrosoftは、1つのテンプレートを基準に、そのテンプレートを少しずつ変形させる手法で大量の3Dフェイスモデルを生成したという。具体的には、1つのベースに個性、表情、スキン、頭髪、衣服、背景の順番で情報を付加し、これによってリアルな3Dフェイスを生成することができるようだ。

また、3Dフェイスモデルで教育された顔認識AIは、特定の人種にバイアスがかかることなく、公平に判定されることも証明された。従来の顔認識AIは、人種や性別によって顔認識の精度が異なっていた。理由は明らかになっていないが、マイノリティの顔画像データが少なかったことと、エンジニアの多くが白人男性であり、無意識的に白人男性優位のバイアスがかかったシステム設計になってしまったことが考えられている。

しかし、Microsoftはこの問題をクリアすることができた。ここからは推測だが、Microsoftが開発した3Dフェイスモデルの大量生成技術によって、人種関係なく同じ量のデータを生成できたことが要因なのではないだろうか。

どちらにせよ、顔認識AIの課題だった人種バイアスの問題が解消されてきたのは、大きな一歩だろう。

そして素晴らしいことに、Microsoftは3DフェイスモデルをGitHubに公開している。公開されているモデルの数は10万で、それぞれのモデルに70のアノテーションが付加されているようだ。研究者は、このモデルを利用することで、倫理的に顔認識AIを開発できるようになる

顔写真の生データを大量収集したClearview AI

その一方で、顔写真の生データの大量収集に動いている企業がある。Clearview AI(ニューヨーク州)だ。

Clearview AIは、顔認識AIを開発するために、SNSなどのオープンなサービスから顔写真をスクレイピングしていた。その数は30億枚を超え、世界最大規模の顔写真データベースを構築している。そしてこれらのデータベースは、司法機関向けに販売されており、犯罪捜査などで活用されている。

だがもちろん、至るところから抗議の声が挙げられた。現在は世界各国が、Clearview AIに対する規制を強めている状況だ。

顔認識AIで精神状態も読み取れる

現在、合成データは顔認識AIの強化に用いられている。そして顔認識AIは、個人を識別するだけでなく、表情を通じて精神状態などを判別できるという。

実際に、スタートアップのMindtech(英シェフィールド市)は、試験における不正行為を検出するソリューションを提供していたそうだ。受験者の目線や手の動きなどで、不正行為の兆候を察知することができるのだという。また、MindtechのCEOのスティーブ・ハリス氏によると「顧客は合成データを使って、公共の場所で使用するAIを構築することに興味を持っている」とのことだ。例えば、駅構内の酔っ払いが怪我をしないように、AIを役立てたいのだという。

それ以外にも、物流業界では、ドライバーモニタリングが話題になっている。ドライバーの表情をAIが読み取り、居眠り運転や集中力の低下をアラートで知らせてくれるのだ。

もちろんこの機能は、物流業界以外にも応用できる。例えばオフィス内で用いれば、従業員の集中力を測定することが可能になる。また、Zoomアプリの中に感情AIが搭載される可能性もあるそうだ。これが実現されれば、オンライン会議の生産性を数値化することも可能になるかもしれない。

このようにして、顔認識AIは感情AIに進化しつつある。現段階では、感情AIの教育に合成データが活用されている事例が少ないようなので、ポテンシャルはまだまだある領域だと言える。

顔画像の合成データの悪用例

もちろん、顔画像の合成データは、悪用されやすい領域でもある。具体的には、ディープフェイクが問題となっている。

ディープフェイクとは、ディープラーニング技術を活用して作成された合成メディアのことを指す。例えば、あるスピーチ動画の顔だけを、別の人の顔に置き換えることが可能となる。それも、人間には判別できないほどのクオリティでだ。

具体的な悪用例としては、選挙戦での情報撹乱で採用されるケースが挙げられる。例えば、米国の選挙戦。共和党のドナルド・トランプ氏が超強烈な発言をする…というようなフェイク動画を作成することが、ディープフェイクによって可能になる。文章で説明しても分からないと思うので、以下の動画を参考にしてみてほしい。

また、「AV女優の顔を有名アイドルに置き換える」といったケースも発生しているようだ。もちろん、本人の同意はない。

ただし、ディープフェイクを絶対悪として扱うのは難しい。なぜならディープフェイクはエンタメ領域で大きな可能性を秘めているからだ。

例えば、3DCGアニメーションを展開するディスニーやピクサーの映画と、ディープフェイクは相性がいい。また、2019年には、NHKがAI技術を活用し、美空ひばりの歌声を復活させたことで話題になった。

[NHKスペシャル] AIでよみがえる美空ひばり | 新曲 あれから | NHK

故人の歌声をディープフェイクで復活させることに関しては、常に倫理的な問題がつきまとうだろう。だが、ディープフェイクを活用することによって、クリエイティブの可能性が広がることは間違いない。

顔画像の合成データはどこへ向かう?

ここまで顔画像の合成データの現状について解説してきた。AI教育やプライバシーの領域で大きな可能性を秘めている一方で、ディープフェイクの悪用問題も課題となっている。

では、顔画像の合成データはどこへ向かっていくのだろうか。やはり、顔認識AIの教育で活用されるのが王道ルートだろう。顔認識AIの教育で顔画像の合成データが活用されれば、生の顔画像を収集する必要が薄れる。これは、プライバシー保護の観点では大きな要素になるだろう。

しかし、プライバシー保護の観点で考察を進めると、「顔画像の合成データが活用された顔認識AIが、どこで用いられるのか」という問いが待ち受ける。その答えは、顔認証システムはもちろんのこと、監視カメラ・ドローンを用いた犯罪捜査及びデータ収集なのではないだろうか。つまり、少し短絡的な考えになるかもしれないが、顔画像の合成データが活用されるようになるにつれ、超監視社会の実現が近づくことになるのだ。

もちろん、超監視社会が完全に悪いわけではない。ビッグデータの活用によって素晴らしいサービスができるかもしれないし、超監視社会だからできる効率的な政治もあるだろう。だが、プライバシーが完全に筒抜けになるのは間違いない。少なくとも現段階では、超監視社会とプライバシー保護を両立させる方法は、秘密計算を始めとするプライバシーテックしかないように思える。

まとめ

  • 顔画像の合成データだけで、高精度な顔認識AIを教育できる
  • 顔画像の合成データは、ディープフェイクなどで悪用されることもある
  • 顔画像の合成データの発展で、超監視社会に近づく

参考文献

顔認識の「人種バイアス問題」、なぜ解決が困難なのか

ディズニーパークやピクサー映画で活用が進むAI技術

「ディープフェイク」とは何か?AI技術やフェイクポルノとはどう関係しているのか?