あなたのデータを収集していないと思っていたAIツール?もう一度考えてください

生成的人工知能の急速な上昇は、OpenAIのChatGPT、Dall-E、Lensaなどのユーザーに焦点を当てた製品のおかげで、技術的な感覚を作り出しました。しかし、ユーザーにとって使いやすいAIのブームは、これらのプロジェクトによって課せられるプライバシーのリスクを無視するか、暗黙のうちに残しているように見えます。

しかし、このような中で、国際政府や主要なテック関係者は警鐘を鳴らし始めています。イタリアは、プライバシーやセキュリティ上の懸念を理由にChatGPTに一時的な禁止を課し、ドイツでも同様のブロックを引き起こす可能性があります。民間部門では、Elon MuskやSteve Wozniakを含む数百人のAI研究者やテックリーダーが署名した公開書簡によって、GPT-4の範囲を超えたAI開発に対する6ヶ月間のモラトリアムを求めています。

無責任なAI開発を抑制しようとする相対的に迅速な行動は称賛に値しますが、AIがデータプライバシーとセキュリティに対する脅威をもたらす広い景色は、1つのモデルや開発者を超えています。AIのパラダイムシフトを行う能力のパレードを雨で濡らす人は誰もいませんが、今すぐその欠点に直面することは、その結果が壊滅的になるのを避けるために必要です。

AIのデータプライバシーの嵐

OpenAIやその他のビッグテックによるAIプロジェクトだけが、AIのデータプライバシーの問題に責任があると言うのは簡単ですが、それはメインストリームに入る前から議論されていました。AIにおけるデータプライバシーのスキャンダルは、ChatGPTに対するこの取り締まりより前に起こっていたのです。

たとえば、政府や法執行機関によって使用され、一般的にはほとんど知られていないとされるAIベースの顔認識企業Clearview AIは、昨年、米国の民間企業に顔認識技術を販売することを禁止されました。Clearviewは、イギリスでの違法な顔認識データベースに対して940万ドルの罰金を課せられました。Midjourneyなどの消費者向けのビジュアルAIプロジェクトが同様の目的に使用されないとは誰も言えません。

顔認識テクノロジーのClearview AIは、私の顔が彼らのデータベースにあることを確認しました。私は自分の顔写真を送り、彼らはこれらの写真と、Insta Stalkerというサイトを含む、写真を取得した場所へのリンクを返信しました。 pic.twitter.com/ff5ajAFlg0

— Thomas Daigle (@thomasdaigle) June 9, 2020

問題は、すでに使われていることです。消費者レベルのAI製品を介して作成されたポルノグラフィーやフェイクニュースに関する最近のディープフェイクのスキャンダルは、悪意のあるAIの使用からユーザーを保護する緊急性を高めるだけでした。デジタル模倣の仮説的概念を実際の脅威に変え、一般の人々や有力な公的人物に対する脅威になります。

関連記事:Elizabeth Warren wants the police at your door in 2024

生成AIモデルは、その機能性と使いやすさを構築および強化するために新しいデータと既存のデータに基づいています。これがChatGPTが非常に印象的な理由の一部です。しかし、新しいデータ入力に依存するモデルは、そのデータを取得する場所が必要であり、その一部は、必然的にそれを使用する人々の個人データを含むことになります。そして、その量のデータは、中央集権的なエンティティ、政府、またはハッカーがそれを手に入れた場合、簡単に誤用される可能性があります。

したがって、包括的な規制の範囲が限られており、AI開発についての意見が対立しているため、これらの製品を使用する企業やユーザーは今何ができるでしょうか?

企業とユーザーができること

政府やその他の開発者が今AIについて警告していることは、Web2アプリケーションや暗号通貨の規制の氷河期のペースから進歩していることを示しています。しかし、警告を発することと監視することは同じことではないため、過剰反応にならないように緊急性を維持することが、手遅れになる前に効果的な規制を作り出すために不可欠です。

イタリアのChatGPT禁止は、政府がAIに対して取った最初の打撃ではありません。EUやブラジルは、特定の種類のAIの使用と開発を制裁する法律を制定しています。同様に、生成AIがデータ侵害を行う可能性があるため、カナダ政府から早期の立法措置が取られました。

AIのデータ侵害の問題は、OpenAIさえも介入するほど深刻でした。数週間前にChatGPTを開いた場合、チャット履歴機能がオフになっていることに気づいたかもしれません。OpenAIは、知らない人のプロンプトが公開され、支払い情報が明らかになるという深刻なプライバシー問題があったため、一時的に機能を停止しました。

関連記事:Don’t be surprised if AI tries to sabotage your crypto

OpenAIがこの問題を効果的に解決しましたが、AI倫理チームを削減して事前に適切なことをすることを主導するWeb2の巨人によって牽引されるプログラムを信頼するのは難しい場合があります。

業界全体レベルでは、フェデレーテッド機械学習に重点を置いたAI開発戦略はデータプライバシーを向上させます。フェデレーテッド学習は、誰もがデータにアクセスせずにAIモデルをトレーニングする協調型AI技術であり、複数の独立したソースを利用してアルゴリズムをそれぞれのデータセットでトレーニングします。

ユーザー側では、AIルディートとなってこれらのプログラムを完全に使用しないことは不必要であり、まもなく不可能になる可能性があります。しかし、日常生活でどの生成AIにアクセスを許可するかについてより賢くなる方法があります。企業や小規模ビジネスが自社の運営にAI製品を組み込む場合、アルゴリズムに供給するデータに注意を払うことがさらに重要になります。

無料の製品を使用するときは、あなたの個人情報が製品であるという常に言われています。AIにもそれが当てはまります。それを念頭に置くと、使用するAIプロジェクトを再考し、実際にそのために使用するものを考え直すことがあります。自分自身の写真を怪しいAIパワードのウェブサイトにフィードするすべてのソーシャルメディアトレンドに参加したことがある場合は、それをスキップすることを検討してください。

ChatGPTは、ローンチからわずか2か月で1億人のユーザーに到達しました。これは明らかに、私たちのデジタル未来がAIを利用することを示しています。しかし、これらの数字にもかかわらず、AIはまだ普及していません。規制当局や企業は、コントロールできなくなった後にプロジェクトを追跡するのではなく、責任ある安全なAI開発の枠組みを積極的に作成するために、これを自分たちの利益に活用するべきです。現在のところ、生成AIの開発は保護と進歩のバランスが取れていませんが、ユーザー情報とプライバシーが最優先されるようにするための正しい道を見つける時間はまだあります。

We will continue to update Kocoo; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

観点

ビットコインをフェンタニル取引に結びつけることで、エリザベス・ウォーレンは革新に対する懸念すべき偏見を示しています

ビットコインが不正行為に果たす役割を過大評価することについて、エリザベス・ウォーレン上院議員は政策立案者の教育の必要...

ブロックチェーン

「Redditは、Polygon上でGen 4のコレクタブルなアバターをリリースする準備をしています」

ソーシャルメディアプラットフォームのRedditは、7月26日に次のシリーズのPolygonベースのコレクタブルなアバターをリリース...

ブロックチェーン

「CBDCは誤ってお金と国家の分離原則を崩壊させる」

「金融システムを通じて市民を統制することを追求してこなかった国々は、中央銀行デジタル通貨によるこの危険な道を歩むべき...

ブロックチェーン

リップルは、閉鎖的なシステムを修正する機会に直面しています

「Ripple LabsはそのXRPトークンを中央集権的なシステム上に構築しましたしかし、Rippleへの法的措置が終了に近づくことで、...

ブロックチェーン

いいえ、サム・バンクマン・フリードは民主党によって救済されていません

「司法省は、おそらく再び戻ってくるであろうFTX創業者に対する選挙資金の告発を取り下げましたこの問題は手続き上の問題であ...

ブロックチェーン

「プライバシーポリシーの更新後、Xはユーザーの生体認証データを収集する」

イーロン・マスク所有のXプラットフォームは、プライバシーポリシーを更新し、ユーザーの生体情報を収集することを開始する予...