トロント大学の研究者が顔認識システムを撃退できるAIを開発

顔認識システムは、最も少ないと言えば、議論の余地があります。 Amazonは先週の見出しを上回った 供給法執行機関 顔をスキャンする技術で。 中国の学校では、顔認識カメラを使って 学生を監視する 。 そして 研究 一部の顔認識アルゴリズムには、特定の民族に対してバイアスが組み込まれていることが示されています。

AI駆動の監視システムを侵害することに対する懸念は、トロントの研究者に彼らに対する盾を開発する動機となった。 トロント大学のParham Aarabi教授と大学院生Avishek Boseは、光の変換を画像に適用することで、動的に顔認識システムを動的に混乱させるアルゴリズムを作成しました。

Aarabi氏は、「顔の認識が良くなり、より良いものになるにつれて、個人のプライバシーも問題になる」と述べた。 「これは有益な顔認識システムがその能力と戦う方法の1つです」

顔認識を無効にすることを目的とした製品やソフトウェアは、まったく新しいものではありません。 2016年11月の調査では、カーネギーメロンの研究者 設計 眼鏡フレームは、誤った人物にシステムを騙す可能性があります。 2017年11月、MITと九州大学の専門家 だまされた 単一のピクセルを変更することによって、3Dプリントされたカメの絵をライフルとしてラベリングするアルゴリズム。

顔認識アルゴリズム

上:研究者の反顔認識システムの動作

イメージクレジット:トロント大学

しかし、これはAIを使用する最初のソリューションの1つです、BoseとAarabiによると。

600人の顔のデータセットで訓練された彼らのアルゴリズムは、どの画像にも適用できるリアルタイムフィルタを吐き出します。 画像内の非常に特殊な個々のピクセルを対象としているため、人間の目にはほとんど感知できません。

2人の研究者は、データからの出力を生成する「ジェネレータ」と、ジェネレータによって作成された偽のデータを検出する「弁別器」という2つのニューラルネットワークで構成されたAIの一種である、敵対的トレーニングを利用してネットワークをトレーニングしました。 AarabiとBoseのシステムでは、ジェネレータを使用して顔や識別器を識別し、顔認識を中断します。

BoseとAarabiは、マルチメディア信号処理に関する2018 IEEE国際ワークショップで発表される予定の研究論文では、顔認識システムで検出された顔の割合を0.5%に減らし、他のシステムを打ち負かすことができると主張している 画像ベースの検索、感情の検出、および民族性の識別が含まれます。

彼らは、ニューラルネットワークをアプリやウェブサイトで利用できるようにしたいと考えています。

「10年前、これらのアルゴリズムは人間が定義する必要がありましたが、今ではニューラルネット自体が学習します。トレーニングデータ以外には何も提供する必要はありません」とAarabi氏は言います。 「結局彼らは本当にすばらしいことをすることができます。 フィールドでは魅力的な時間だ、巨大な可能性がある」

シェアする

  • このエントリーをはてなブックマークに追加

フォローする