1.はじめに

近年、街中で防犯カメラや検温カメラを見かける機会が急激に増えたと思いませんか。このような画像取得可能なセンサーの普及により、昨今では画像データの活用ニーズが高まってきています。
一方で、画像データ活用ビジネスにおいては、取得したデータに含まれる個人情報を正しく扱う必要があります。画像データ活用が発展している中国では利用者の同意を得ないまま顔情報を取得したり活用する事例が度々問題視されており、技術の発展に追いつくような個人情報保護法の制定が急がれています(※1)。
そこで、本記事では個人情報を含んだ画像を扱う際に注意することや、最新の顔検出技術による個人情報保護のための技術検証結果をご紹介します。

(※1) 中国人が顔データの「無断収集」に激怒するワケ | 中国・台湾 | 東洋経済オンライン | 社会をよくする経済ニュース (toyokeizai.net)

(注)本稿の技術検証の対象となる画像データ活用先は、顔認証をはじめとした顔からの個人特定・識別を目的としないものを対象とします。

2. 顔を含む画像データを安全に扱うためには

総務省・経済産業省が提供しているカメラ画像利活用ガイドブック(※2)を参考にすると、カメラ画像の利活用においては①事前告知時、②取得時、③取扱い時、④管理時の4段階での配慮が重要となってきます。本記事では、②で取得した個人情報として顔を含む画像データ(顔画像)を③、④で安全に扱っていく方法として顔検出AIを活用した対策をご紹介します。

2.1 カメラで取得した画像の利用について

まず、前提として個人情報を保持または利用する場合には、ポスターなどでその利用目的や期間を公表・通知する必要があります(a)。例えば、防犯目的で取得した顔画像を改めて別の画像解析AIの学習データとして利用したいという場合には、被撮影者から再び活用の同意を取得する必要があります(b)。しかし、これを実施するのはかなり骨が折れることでしょう。一方で、マスキング処理(モザイク・ぼかし加工など顔が判別できないような処理)をした顔画像は、個人情報ではないので(c)、画像データの保管や活用のハードルが下がるといえます。

来場者数分析など「個人」を特定する必要がない活用ケースにおいては、画像データにあえて個人情報を含める必要はありません。そこで、顔検出AIにより自動でマスキング処理をした状態で画像データを保管すれば、個人情報ではない画像データとして扱えます。しかし、いくら高性能な顔検出AIでもマスキング精度を100%にすることは難しく、ごく僅かな検出漏れリスクへの対策も併せて検討しておくことが大切です(d)

2.2 対策をしない場合のリスク

個人情報保護対策をとらない場合、例えば「プライバシーに配慮していないのではないか?」という指摘により企業の評判が悪化するリスクや、プライバシー侵害を訴える被撮影者とのトラブル発生のリスクが考えられます。とくに「顔認識技術」による不審者特定など個人と行動の対応付けが必要な活用ケースを想定した場合、正しい公表・通知を行わないことで不信感やトラブルにつながる可能性があります(※3)。
したがって、運用実施主体を明確に定め、データの処理方法、保持されるデータから個人が特定できるのかどうか、データ保管期間などについて、被撮影者からの問い合わせに対応できるようにすることが重要です。また、個人情報を伴わないようマスキング処理をする場合も、万が一AIに検出漏れがあった場合に被撮影者から削除依頼があれば是正できるよう体制を整えることが大切です。

2.3 取得したデータを安全に活用する体制

以上より、顔画像を個人情報ではないデータに処理し安全に利用する場合、「顔画像をマスキング処理する」「データの流出リスクを防ぐようなセキュアな開発・保管環境を構築する」「被撮影者への対応体制を整える」のように複数対策を重ねていくことで、安全性が担保された運用になります。
顔画像については、マスキング処理した画像のみ保管し、元画像は破棄するなど、処理済み画像から顔画像の紐づけや復元ができないように保管する必要があります。

(※2) 出典:「カメラ画像利活用ガイドブック 」(総務省・経済産業省)(soumu.go.jp)

(a) 事業者は、顔等により特定の個人の識別が可能な状態でカメラ画像を取得する場合、個人情報保護法に基づく利用目的の通知・公表等の対応(場合によっては、開示請求等への対応)を行う必要がある。まず、カメラ画像がそこに写る顔等により特定の個人を識別できるものであれば「個人情報」に該当する。(略)また、写り込みに関しても同様に、特定の個人を識別できるものであれば「個人情報」に該当するため、個人情報保護法に遵守した対応が必要となる。(p10,3.2 (1)より)

(b)既設のカメラにより撮影・保存済みの画像データを新たな目的で利活用する場合については、当該画像データに写る生活者から改めて同意を取得する必要がある点に留意が必要である。(p22、4.3⑤より)

(c)⑤処理済データカメラ画像にモザイク処理等を施し、特定の個人が識別できないように加工したデータ。特定の個人が識別できないため、「個人情報」ではない。しかしながら、不十分な処理や復元加工を行うことによって「個人情報」となるケースも考えられ、実際の加工にあたっては特定の個人の識別が技術的に困難であるよう十分な留意が必要である。(p15、3.2(2)⑤より)

(d)⑧カメラ画像から利活用に必要となるデータを生成または抽出等した後、元となるカメラ画像は速やかに破棄する。また、生成したデータについても、個人の特定に繋がる場合は、利活用目的を達成した後、速やかに破棄する。 ⑨カメラ画像の処理方法を明確にし、処理後のデータによる個人の再特定のリスクについてあらかじめ分析を行う。 ⑩処理後のデータを保存する場合、保存後のデータを用いた個人の特定が不可能となるような加工が必要である(統計処理等)(p224.4より)

(※3) 他人事ではないJR東日本の監視カメラ問題、多様化する「顔認識技術」導入リスク | 日経クロステック(xTECH) (nikkei.com)

3. 最新の顔検出AIによる検証結果

現実世界の画像はノイズが多く、想定よりもAIの検出精度が揮わない可能性があります。そこで、本章では顔検出AIにより自動でマスキング処理をするという対策がどの程度現実的であるのかを判断するために、画像データを様々な観点で分類し、顔検出AIモデルの得意・不得意を分析しました。
最新の顔検出AIモデルである”RetinaFace”と”YOLOv5”(※4)について、人物が映った画像を大量に収集したデータ群である”WIDER FACEデータセット”(※5)を対象に精度を評価しました。今回は、個人情報保護の観点から、検出率(Recall、要は検出漏れの少なさ)が高いほど良いAIモデルとして評価しています。

3.1. 顔サイズが小さい場合は検出漏れを起こしやすい

画像に映った顔領域のサイズ別に検出率を評価しました。結果、顔サイズが小さいほど検出率が低く、検出漏れリスクが上がるということが分かりました。これより、高解像度な画像を用いる方が検出漏れは起きにくいと分かります。

ここで、顔検出AIの検出事例をご紹介いたします(※6)。画像中の赤枠は検出した顔領域を示し、この領域にモザイクやぼかしの処理を施すことで、マスキング処理ができます。また、顔の中にある5つの点は両目・鼻・口角の位置を示しています。この点の位置は個人識別符号として個人情報にあたるため、今回のケースでは保管データには含めません。

座席後方に行くにつれ人物の顔が小さくなり検出率が低下
座席後方に行くにつれ人物の顔が小さくなり検出率が低下

上の画像では、座席後方に行くにつれ人物の顔が小さくなり検出率が低下しています。しかし、検出漏れしている後方の人物の映りは鮮明でなく、個人特定は難しいのではないでしょうか。

画像中央の人物は最も大きく映っているものの顔検出されない
画像中央の人物は最も大きく映っているものの顔検出されない

画像中央の人物は最も大きく映っているものの顔検出されていません。しかし、大きな帽子で顔が覆われているため、「検出漏れしている個人情報」として扱うべきかはプロジェクトで判断する必要があるでしょう。

以上より、検出率をパーセンテージだけで判断するのではなく、具体的な検出漏れの事例の傾向についてお客様と認識を合わせることができれば現行技術は顔画像のマスキングに利用可能であると考えられます。

3.2撮影ロケーションの特性による得意・不得意がある

評価した画像データ群にはパレード、ミーティング、ダンス等、様々なロケーションで撮影された画像が含まれています。例えば、スポーツ観戦、マーチングバンドなどは、群衆を遠くから撮影した画像で、他に比べて人同士が重なり合い検出率が低くなる傾向にあります。また、被写体の特徴として、フェイスペイント、ゴーグル、帽子など顔が一部隠れるような場合も若干検出率が低下する可能性があります。

マスク着用は、ほとんど検出できる
マスク着用は、ほとんど検出できる

昨今ニーズが増えているであろうマスク着用は、ほとんど検出できていました。

サングラス着用や、多少顔がボケていても検出できる
サングラス着用や、多少顔がボケていても検出できる

サングラスをつけていたり、多少顔がボケていても検出できています。

3.3 AIモデルごとに検出結果は若干異なる

実験に用いた2種類の顔検出AIモデルRetinaFace、YOLOv5を比較すると、3.1、3.2で紹介した苦手な画像の傾向は似ていました。顔サイズが小さく人物のポーズが複雑な画像の場合はYOLOv5の方が比較的得意で、見切れるほど大きな顔やフェイスペイントなどの特徴についてはRetinaFaceの方が柔軟な検出ができている例があり、モデルごとに若干の特性の差がありました。
以上より、検出要件を事前に確認し、適切なAIモデルを選択するのが大切です。しかし、いずれにせよ人間には簡単に判断できるような画像でも、ボケが強かったり顔の上下が反転していたりすると、検出漏れしてしまう場合もあるため、2.3で述べたような対策は必須です。

(※4) 実験に用いたAIモデルは以下の2つです。
RetinaFace
論文:[1905.00641] RetinaFace: Single-stage Dense Face Localisation in the Wild (arxiv.org)
実装:GitHub – biubug6/Pytorch_Retinaface: Retinaface get 80.99% in widerface hard val using mobilenet0.25.

YOLOv5
論文:[1506.02640] You Only Look Once: Unified, Real-Time Object Detection (arxiv.org)
論文:[2105.12931]YOLO5Face: Why Reinventing a Face Detector (arxiv.org)
実装:https://github.com/deepcam-cn/yolov5-face

(※5) 実験に用いたデータセットは以下です。
WIDER Faceデータセット
WIDER FACE: A Face Detection Benchmark (shuoyang1213.me)

(※6) 本記事中に掲載している画像は全てunsplash(https://unsplash.com/)のPublic Domain Dedication (CC0)の画像を用いています。

まとめ

今回は、個人情報保護を達成する画像データ活用という観点で、顔画像の扱い方や対策、最新の技術検証結果をご紹介しました。 
画像活用サービスを検討するときは、まず初めに実現したいサービスに必要な画像データには個人情報を含める必要があるのかどうかを見極めることが大切です。保管データに個人情報を含まないような対策をすることで、画像データの活用ハードルは下がり、できることが広がります。対策の際には、対象画像の事例の整理をしたうえで顔検出AIモデルや運用方法の選定を実施するとより安全に活用できます。 

実運用を考えると「AIの検出精度が〇〇%です」という数字だけからAI技術の良し悪しを判断するのは難しいです。
そこで、本記事でご紹介した技術検証のように観点別の分析により「AIで達成できること」「AIでは達成できないことと、そのときの対策」を明確にすることで、技術評価がしやすくなります。 画像データの活用ニーズに合わせた分析を実施することで、より適切な対策が選択できるようになります。