別のケンブリッジアナリストがそこにいて、私たちはそれを戦う準備ができていません

FacebookはCambridge Analyticaの違反に対して多くの批判を受けていました.Zuckerbergはユーザーのプライバシーをより良く保護することを誓いました。 フルページ広告 。 しかし、政治的キャンペーンがソーシャルメディアユーザーデータを使用したのはこれが初めてではない 選挙中 – 唯一の違いは、何百万人ものユーザーが、プラットフォームがデータを収穫していて、それを政治的目的のために使用することを知っていないことさえありました。

より大きな問題は、Facebookに起こったことが避けられないということです。 確かに、閉鎖されたシステムとしてのFacebookは特に有害である。 あなたの現在のやりとりを見ることができ、あなたに表示されるコンテンツを制御し、それらの結果を測定することができるシステムは、 人間行動最適化

私が言っていることは、たとえケンブリッジアナリストのスキャンダルがなかったとしても、ソーシャルチャネルがデータを収穫しているという事実が残っているということです。 例えば、Twitterを取る。 人々が持っている好きなやりとりを簡単に見ることができます。そのデータはすべての人に公開されています。 Twitter APIを使用すると、そのコレクションを自動化できます。 IBM Watsonまたはその他のエンタープライズ・サービスに接続すると、数千(数百万ではありませんが)のレコードに即座にアクセスできます。 そしてこのデータは決してプライベートではありません。

巧妙なアイデアは、ユーザーの「好き」に基づいて心理的なプロファイルを構築し、対象とする相手とその対象を学習することです。 このプロファイルを作成したら、それを好きなように使用できます。

このサイクルはFacebookに根付く必要はありません。Twitterデータからプロファイルを作成し、Facebook広告で使用することができます。 あなたはAIを訓練するためのプロファイルしか必要とせず、訓練したら、どのプラットフォームでもその魔法を使うことができます。

AIはより積極的になっている

AIがよりインテリジェントになるにつれて、異種のソースからのデータを読み取り、分析することができます。 ノイズからの信号をスキャンして抽出するために、一様なデータや数十の演算子を必要としません。 たとえば、何千ものレコードを数分でスキャンして結果を返すAIテクノロジがあります。 これは、AIが単一のプライバシー法を犯すことなく、ウェブサイト、ファイル、文書をスキャンし、私たちの完全なプロフィールを形成できることを意味します。

この情報は一般の人々には無料で公開されています。機械学習エンジンがすべてを通過し、1か所でデータを収集し、それに基づいてプロファイルを作成し、それに応じてギャップを埋めます。

ケンブリッジ・アナリティッカのスキャンダルに続いて、多くのユーザーがFacebookによって操作されているように感じました。 これは、会社が使用したデータを取得する方法に疑問を呈するようになってきました。 しかし、間もなく、CAのような企業は、Facebookがなくても、そのデータをとにかく持っています。 この瞬間でも、同じことが再び起こっていないことは確かではありません。 さらに、上記のように、会社は完全な法的手段によってこの情報を収集することができます。

問題はFacebookではない。 問題は、私たちが私たちを囲む脅威のために準備されていないということです。

本当の脅威

AIは職場の人を置き換えるか、人を全滅させる可能性が最も懸念されています。 しかし、AIは実際に創造的になることはできません。 特定の分野では多くの人よりも優れた仕事をしていますが、代替心配につながる一方、AIは新しい機会を創造します。 さらに、テスラのような大手企業の自動化の試みは、 AIの最適化を過度に行うことは実用的ではない – 少なくともまだ。

AIの就職や人間の脅威は、技術を悪意のある目的で使用している人間の脅威ほど緊急ではありません。 それは本当の脅威を引き起こすAIを使用する方法です。 たとえば、NetflixやFacebookなどの企業では、心理的プロファイルを使用して、興味のある新しい友達を見つけたり、問題のないテレビ番組に合わせて調整したりすることができます。 しかし、Cambridge Analyticaの場合、会社はこれらのプロファイルを使用して、その知識なしにターゲットから特定の動作を引き出すことができました。これは正当な理由でアラームを発することになります。

技術のより深刻な可能性は、あなたのアイデアをシフトするためにあなたのコンテンツと接続を使用している企業が関与します。 たとえば、システムからあなたを魅了したいアイデアが含まれているコンテンツを公開すると、反対意見を持つユーザーとだけ共有し、多数の否定的なレビューや誰もあなたと同意しないという印象を作り出すことができます。 同様に、あなたの作品にあなたが保持したい、または強化したいと思う問題が含まれている場合、それは同じ考え方の人々とだけ共有することができ、肯定的なフィードバックを受けるだけです。

これをさらに進歩させると、政府は潜在的にこの技術を国民に利用することができます。 例えば、中国の検閲は、この種の操作に完全に脆弱な閉じたシステムを効果的に作り出します。 Edward Snowdenによって明らかにされたようなセキュリティ機関でさえ、ルータレベルでのトラフィックを制御できます。

自分を守る方法

AIは消えません。 私たちの情報はそこにあり、私たちは私たちを守るための規制だけに依存することはできません。 賢明な人たちは、行動を変えるための新しい方法を絶えず作り出して、規制を上回っています。 すべてを隠してスタンプするためにブロックチェーンのルートをとるかもしれませんが、誰もがブロックチェーン上の100%ではないので、まだデータ漏れがあります。 これが、私がAlan Turingのアプローチが、マシンだけが別のマシンを倒すことができると信じている理由です。 したがって、私たちは自分のAIツールを武器にして追いつく必要があります。

ユーザの利益を保護するAIアシスタントは、実現可能な解決策になる可能性があります。 このAIは透明で分散されている必要があるため、舞台裏の他の関係者には役立たないと確信できるでしょう。 そのようなAIは「ループを壊す」可能性があります。例えば、行動最適化のパターンを検出し、出版物があなたにしていることを理解し、それに対して警告することができます。 この技術は、そのような試みを中和するためにコンテンツを変更したり、その一部をブロックすることさえできます。 チャネル化されたトラフィックの場合、そのようなパターンを検出し、その結果をユーザーに返送しながら、単一のプラットフォームを超えてコンテンツを自動的に共有することで、AIアシスタントが役立ちます。

私たちがAIについて考えたことの多くは起こっておらず、起こりそうにないと思っていたことがたくさんあります。 最終的に、私たちが本当に対抗しているのは、マシンそのものではなく、マシンの背後にいる人間です。

David Peterssonは、開発者でハイテクライターであり、Hacker Noonに貢献しています。

シェアする

  • このエントリーをはてなブックマークに追加

フォローする