ユーロポールは今週、犯罪者が高度なAIチャットボットの新たな波に対処する際にもたらすリスクを強調する厳しい警告を発した。
今週オンラインで共有された 投稿 の中で、欧州の法執行機関は、OpenAIのChatGPTや GPT-4 、 GoogleのBard などのツールが、一般人を騙す新たな方法を模索する犯罪者らによってどのように利用されることが増えるかを説明した。
最も懸念される 3 つの具体的な領域が特定されました。
まず、詐欺とソーシャル エンジニアリングです。これは、マルウェアに感染したファイルをダウンロードさせたり、同様に危険な Web サイトに誘導するリンクをクリックさせたりすることを目的として、電子メールがターゲットに送信されます。
フィッシングメールは、知られているように、通常、文法上の間違いやスペルミスが多く、最終的には迷惑フォルダーに振り分けられます。受信箱に届いたメールでも、あまりにも恐ろしい内容が書かれているため、受信者は何も考えずにすぐに破棄してしまう可能性があります。
しかし、AI チャットボットは、ずさんな間違いのないよく書かれたメッセージを作成できるため、犯罪者が説得力のあるメールを送信できるため、受信者はメッセージをチェックする際に特別な注意を払う必要があります。
ユーロポールは、高度なチャットボットは「特定の個人やグループの話し方になりすますために使用できる言語パターンを再現する」ことができると述べ、そのような機能は「潜在的な被害者を誤解させて信頼を委ねるよう大規模に悪用される可能性がある」と付け加えた。犯罪者たちよ。」
より説得力のある形式の偽情報も急増する見通しで、チャットボットの新しい波は、スピードとスケールで本物に聞こえるテキストを作成することに優れているとユーロポールは述べ、次のように付け加えた。「このモデルは、プロパガンダや偽情報の目的に最適です。ユーザーは、比較的少ない労力で、特定の物語を反映したメッセージを生成し、広めることができます。」
第三に、ユーロポールは、サイバー犯罪者が悪意のあるソフトウェアを作成するために利用している新たな分野としてコーディングを挙げています。 「 人間に似た言語を生成することに加えて、ChatGPT は さまざまなプログラミング言語でコードを生成することができます」と同庁は指摘した。 「技術的な知識がほとんどない潜在的な犯罪者にとって、これは悪意のあるコードを作成するための貴重なリソースです。」
オンラインでの不正行為の検出が難しくなっていることから、この状況は法の右側にいる人々に「厳しい見通しを与えている」と述べた。
AI チャットボットのブームは、Microsoft が支援する OpenAI が印象的な ChatGPT ツールをリリースした 2022 年 11 月に始まりました。改良版 GPT-4 がつい最近リリースされました が、Google も同様の Bard という独自のツールを発表しました。この 3 つはいずれも、ほんの数回のプロンプトで自然な響きのテキストを作成する優れた能力で知られており、このテクノロジーは今後数年間で さまざまな仕事を支援したり、代替したりする 可能性があります。
他の同様の AI ベースのテクノロジーでは、いくつかのテキスト プロンプトだけでオリジナルの画像、ビデオ、オーディオを作成できます。これは、テクノロジーが向上し続けるにつれて、どのような形式のメディアも AI の影響から逃れられないことを強調しています。
一部の主要な声は、その急速な台頭に対して当然の懸念を抱いており、 イーロン・マスク氏、アップル共同創設者スティーブ・ウォズニアック氏、およびさまざまな専門家が署名した最近の公開書簡 では、人間と競争する知性を備えたAIシステムは「社会と人類に深刻なリスク」をもたらす可能性があると主張している。書簡は、高度なツールの安全プロトコルの作成と実装を可能にするために6か月の一時停止を求め、適切に対処されれば「人類はAIによって繁栄する未来を享受できる」と付け加えた。

