FBIは、ハッカーが ChatGPT のような生成型人工知能(AI)ツールを悪用し、悪意のあるコードを迅速に作成し、以前であればはるかに手間がかかったであろうサイバー犯罪行為を開始していると警告した。
FBIはジャーナリストとの電話会談で懸念を詳細に説明し、AIチャットボットがテクニックを磨き上げる詐欺師や詐欺師から、より有害な化学攻撃を行う方法についてツールを相談するテロリストに至るまで、あらゆる種類の違法行為を助長していると説明した。
FBI の上級職員 ( Tom’s Hardware 経由) によると、「AI モデルの採用と民主化が進むにつれ、時間の経過とともに、こうした傾向はさらに高まると予想されます。」さらに、悪者は通常の犯罪行為を補うためにAIを利用しており、その中には愛する人や高齢者をだますために AI音声生成器を 使用して信頼できる人になりすますことも含まれていると彼らは続けた。
ハッカーが ChatGPT のようなツールを取得し、それを改変して危険なマルウェアを作成するのを目撃したのはこれが初めてではありません。 2023 年 2 月、セキュリティ企業チェックポイントの研究者 は 、悪意のある攻撃者がチャットボットの API を変更してマルウェア コードを生成できるようにし、ハッカー志望のほぼすべての人が簡単にウイルスを作成できるようにしていることを発見しました。
ChatGPT はセキュリティ上の脅威ですか?
FBI は、2023 年 5 月に 私たちが話を聞いた一部のサイバー専門家とはまったく異なるスタンスをとっていました。FBI は、AI チャットボットによる脅威は大部分が誇張されており、ほとんどのハッカーはより従来型のデータ漏洩やオープンソースからより優れたコードのエクスプロイトを見つけていると語っ た。研究。
たとえば、Bitdefender のテクニカル ソリューション ディレクターである Martin Zugec 氏は、「初心者のマルウェア作成者の大部分は、チャットボットのマルウェア対策ガードレールを回避するために必要なスキルを持っていない可能性が高い」と説明しました。それに加えて、「チャットボットによって生成されるマルウェア コードの品質は低い傾向にある」とズジェック氏は説明しました。
これはFBIの主張に対する反論となるが、どちらの主張が正しいのかを見極める必要がある。しかし、ChatGPT メーカーの OpenAI が、 チャットボットによる盗作を検出する ために設計された独自のツールを中止したため、最近のニュースは明るいものではありません。 FBI の判断が正しければ、ハッカーやチャットボットを利用したマルウェアへの攻撃との戦いは厳しい状況に陥る可能性があります。

