最初の生成型人工知能 (AI) ツールがテクノロジーシーンに爆発的に登場して以来、彼らがデータをどこから取得しているのか、製品をトレーニングするために個人データを収集しているのかどうかについて疑問が生じてきました。さて、 ChatGPT メーカーである OpenAI は、まさにこれらの理由で窮地に立たされている可能性があります。
TechCrunch によると 、ChatGPT が欧州連合の一般データ保護規則 (GDPR) にある多数の規則に違反しているとして、ポーランドの個人データ保護局に苦情が提出されたとのことです。これは、OpenAI のツールがあらゆる種類の疑わしい方法でユーザーデータを収集していることを示唆しています。
訴状では、OpenAIが法的根拠、透明性、公平性、データアクセス権、プライバシーに関するGDPRのルールを設計上破っているとしている。
これらは重大な容疑であると思われる。結局のところ、原告は、OpenAI が単に 1 つまたは 2 つのルールに違反したと主張しているのではなく、人々の個人データが許可なく使用され悪用されるのを防ぐために設計された多数の保護に違反したと主張しているのです。ある見方をすると、これは何百万人ものユーザーのプライバシーを保護する規則をほぼ組織的に無視したものと受け取られるかもしれません。
射撃ラインに並ぶチャットボット
OpenAIが標的にされるのはこれが初めてではない。 2023 年 3 月にイタリアの規制当局に違反し、ChatGPT はユーザーのプライバシーを侵害したとして イタリアで禁止されまし た。 Google Bard のようなライバルが猛威を振るう中、ウイルス生成型AIチャットボットにとってこれもまた頭の痛い問題だ。
また、プライバシーに関する懸念を提起しているチャットボット メーカーは OpenAI だけではありません。 2023 年 8 月初め、 所有者である Meta は、 独自のチャットボットの作成を 開始すると発表しました。これにより、プライバシー擁護派の間で、プライバシーを嫌悪することで悪名高いこの企業によってどのような個人データが収集されるのかとの懸念が生じました。
GDPRの違反は、罰則を受けた企業に世界の年間売上高の最大4%の罰金を科す可能性があり、施行されればOpenAIが巨額の罰金を科される可能性がある。規制当局が OpenAI に反すると判断した場合、イタリアのツールで起こったように、ルールに準拠するまで ChatGPT を修正しなければならない可能性があります。
巨額の罰金が科せられる可能性がある
ポーランドのこの訴状は、Lukasz Olejnikという名前のセキュリティとプライバシーの研究者によって提起されたもので、彼が最初に懸念を抱いたのは、ChatGPTを使用して自分の伝記を作成したときで、その中に事実上不正確な主張や情報がたくさん含まれていることが判明したという。
その後、彼は OpenAI に連絡し、不正確な点を修正するよう求め、また OpenAI が彼に関して収集したデータに関する情報の送信も要求しました。しかし、同氏は、OpenAI は GDPR に基づいて必要とされるすべての情報を提供できなかったと述べ、透明性も公平性も欠如していることを示唆しています。
GDPR では、企業が保持している情報が不正確な場合、ユーザーはその情報を修正できるようにしなければならないとも規定されています。しかし、Olejnik氏がChatGPTが彼について書いた誤った伝記を訂正するようOpenAIに求めたところ、OpenAIはそれができないと主張したという。訴状では、これはGDPRのルールがOpenAIによって「実際には完全に無視されている」ことを示唆していると主張している。
OpenAI は EU の重要な法律の多数の条項に違反しているようであり、これは好ましいことではありません。何百万もの人々に影響を与える可能性があるため、罰則は確かに非常に厳しいものになる可能性があります。 ChatGPTだけでなくAIチャットボット全般に大きな変化をもたらす可能性があるため、これがどう展開するか注目してください。

