あなたのデータを収集していないと思っていたAIツール?もう一度考えてください

生成的人工知能の急速な上昇は、OpenAIのChatGPT、Dall-E、Lensaなどのユーザーに焦点を当てた製品のおかげで、技術的な感覚を作り出しました。しかし、ユーザーにとって使いやすいAIのブームは、これらのプロジェクトによって課せられるプライバシーのリスクを無視するか、暗黙のうちに残しているように見えます。

しかし、このような中で、国際政府や主要なテック関係者は警鐘を鳴らし始めています。イタリアは、プライバシーやセキュリティ上の懸念を理由にChatGPTに一時的な禁止を課し、ドイツでも同様のブロックを引き起こす可能性があります。民間部門では、Elon MuskやSteve Wozniakを含む数百人のAI研究者やテックリーダーが署名した公開書簡によって、GPT-4の範囲を超えたAI開発に対する6ヶ月間のモラトリアムを求めています。

無責任なAI開発を抑制しようとする相対的に迅速な行動は称賛に値しますが、AIがデータプライバシーとセキュリティに対する脅威をもたらす広い景色は、1つのモデルや開発者を超えています。AIのパラダイムシフトを行う能力のパレードを雨で濡らす人は誰もいませんが、今すぐその欠点に直面することは、その結果が壊滅的になるのを避けるために必要です。

AIのデータプライバシーの嵐

OpenAIやその他のビッグテックによるAIプロジェクトだけが、AIのデータプライバシーの問題に責任があると言うのは簡単ですが、それはメインストリームに入る前から議論されていました。AIにおけるデータプライバシーのスキャンダルは、ChatGPTに対するこの取り締まりより前に起こっていたのです。

たとえば、政府や法執行機関によって使用され、一般的にはほとんど知られていないとされるAIベースの顔認識企業Clearview AIは、昨年、米国の民間企業に顔認識技術を販売することを禁止されました。Clearviewは、イギリスでの違法な顔認識データベースに対して940万ドルの罰金を課せられました。Midjourneyなどの消費者向けのビジュアルAIプロジェクトが同様の目的に使用されないとは誰も言えません。

顔認識テクノロジーのClearview AIは、私の顔が彼らのデータベースにあることを確認しました。私は自分の顔写真を送り、彼らはこれらの写真と、Insta Stalkerというサイトを含む、写真を取得した場所へのリンクを返信しました。 pic.twitter.com/ff5ajAFlg0

— Thomas Daigle (@thomasdaigle) June 9, 2020

問題は、すでに使われていることです。消費者レベルのAI製品を介して作成されたポルノグラフィーやフェイクニュースに関する最近のディープフェイクのスキャンダルは、悪意のあるAIの使用からユーザーを保護する緊急性を高めるだけでした。デジタル模倣の仮説的概念を実際の脅威に変え、一般の人々や有力な公的人物に対する脅威になります。

関連記事:Elizabeth Warren wants the police at your door in 2024

生成AIモデルは、その機能性と使いやすさを構築および強化するために新しいデータと既存のデータに基づいています。これがChatGPTが非常に印象的な理由の一部です。しかし、新しいデータ入力に依存するモデルは、そのデータを取得する場所が必要であり、その一部は、必然的にそれを使用する人々の個人データを含むことになります。そして、その量のデータは、中央集権的なエンティティ、政府、またはハッカーがそれを手に入れた場合、簡単に誤用される可能性があります。

したがって、包括的な規制の範囲が限られており、AI開発についての意見が対立しているため、これらの製品を使用する企業やユーザーは今何ができるでしょうか?

企業とユーザーができること

政府やその他の開発者が今AIについて警告していることは、Web2アプリケーションや暗号通貨の規制の氷河期のペースから進歩していることを示しています。しかし、警告を発することと監視することは同じことではないため、過剰反応にならないように緊急性を維持することが、手遅れになる前に効果的な規制を作り出すために不可欠です。

イタリアのChatGPT禁止は、政府がAIに対して取った最初の打撃ではありません。EUやブラジルは、特定の種類のAIの使用と開発を制裁する法律を制定しています。同様に、生成AIがデータ侵害を行う可能性があるため、カナダ政府から早期の立法措置が取られました。

AIのデータ侵害の問題は、OpenAIさえも介入するほど深刻でした。数週間前にChatGPTを開いた場合、チャット履歴機能がオフになっていることに気づいたかもしれません。OpenAIは、知らない人のプロンプトが公開され、支払い情報が明らかになるという深刻なプライバシー問題があったため、一時的に機能を停止しました。

関連記事:Don’t be surprised if AI tries to sabotage your crypto

OpenAIがこの問題を効果的に解決しましたが、AI倫理チームを削減して事前に適切なことをすることを主導するWeb2の巨人によって牽引されるプログラムを信頼するのは難しい場合があります。

業界全体レベルでは、フェデレーテッド機械学習に重点を置いたAI開発戦略はデータプライバシーを向上させます。フェデレーテッド学習は、誰もがデータにアクセスせずにAIモデルをトレーニングする協調型AI技術であり、複数の独立したソースを利用してアルゴリズムをそれぞれのデータセットでトレーニングします。

ユーザー側では、AIルディートとなってこれらのプログラムを完全に使用しないことは不必要であり、まもなく不可能になる可能性があります。しかし、日常生活でどの生成AIにアクセスを許可するかについてより賢くなる方法があります。企業や小規模ビジネスが自社の運営にAI製品を組み込む場合、アルゴリズムに供給するデータに注意を払うことがさらに重要になります。

無料の製品を使用するときは、あなたの個人情報が製品であるという常に言われています。AIにもそれが当てはまります。それを念頭に置くと、使用するAIプロジェクトを再考し、実際にそのために使用するものを考え直すことがあります。自分自身の写真を怪しいAIパワードのウェブサイトにフィードするすべてのソーシャルメディアトレンドに参加したことがある場合は、それをスキップすることを検討してください。

ChatGPTは、ローンチからわずか2か月で1億人のユーザーに到達しました。これは明らかに、私たちのデジタル未来がAIを利用することを示しています。しかし、これらの数字にもかかわらず、AIはまだ普及していません。規制当局や企業は、コントロールできなくなった後にプロジェクトを追跡するのではなく、責任ある安全なAI開発の枠組みを積極的に作成するために、これを自分たちの利益に活用するべきです。現在のところ、生成AIの開発は保護と進歩のバランスが取れていませんが、ユーザー情報とプライバシーが最優先されるようにするための正しい道を見つける時間はまだあります。

We will continue to update Kocoo; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

ブロックチェーン

イーロン・マスクのXは、データ巨大企業のパートナーを探し、アプリ内株式取引サービス「Semafor」を構築することを目指しています

「マスク氏のデジタルアセットへの愛着を考えると、この潜在的なサービスにはおそらく仮想通貨の取引も含まれるでしょう」

ブロックチェーン

「私たちが心配していること」

「サム・バンクマン・フリードに敬意を表して、CoinDeskのスタッフは恐怖、不安、失望をクラウドソーシングし、皆さんにお楽...

ブロックチェーン

「イーロン・マスクがTwitterをXにブランド変更し、数多くのトークン志望者を刺激する」

データによると、関連プロジェクトが5月に終了したにも関わらず、1つのトークンは1,200%増加しました

ブロックチェーン

『Redditが最大の第4世代コレクタブルNFTアバターシリーズ「Retro Reimagined」を導入、象徴的なSnooキャラクター』

「Redditは、Gen 4 Collectible Avatarシリーズをリリースしましたこれは、これまでの限定版非交換可能トークン(NFT)コレク...

ブロックチェーン

「暗号通貨と「過激主義」の真の意味」

「ブロックチェーン社会主義者」としても知られるジョシュア・ダビラの新しい書籍によれば、暗号通貨を形成した右派経済学は...

ブロックチェーン

すべての暗号資産の保管方法は同じではありません:Crypto Long & Short

「FTX、Celsius、およびBlockFiは、暗号資産保管サービスに新たな視点をもたらしました」