アメリカの成人のほとんどが ChatGPT のような人工知能(AI)ツールを信頼しておらず、悪用される可能性を心配していることが 新たな調査 で判明した。これは、 AI が作成したマルウェア や偽情報を巡るスキャンダルが頻繁に発生し、その被害が拡大しており、一般の人々が AI 規制の考え方をますます受け入れやすくなっている可能性があることを示唆しています。
MITRE CorporationとHarris Pollの調査によると、調査対象となった米国成人2,063人のうち、今日のAI技術が「安全で確実」だと信じているのはわずか39%で、両社が前回調査を行った2022年11月と比べて9%減少した。
具体的な懸念に関しては、82% の人がディープフェイクや「その他の人工的に操作されたコンテンツ」について心配しており、80% の人がこのテクノロジーがマルウェア攻撃にどのように使用されるかを懸念しています。回答者の大多数は、個人情報の盗難、個人データの収集、 職場での人間の代替 などにおける AI の使用を懸念しています。
実際、この調査は、人々がさまざまな人口グループにわたって AI の影響に対して警戒を強めていることを示しています。団塊の世代の 90% がディープフェイクの影響を心配している一方で、Z 世代の 72% も同じ話題を心配しています。
若年層はAIに対してそれほど疑念を抱いておらず、日常生活でAIを使用する可能性が高いが、業界は公衆を保護するためにもっと取り組むべきかどうか、AIを規制すべきかどうかなど、多くの分野で懸念が依然として高い。
規制に対する強力な支持
AI ツールへのサポートの低下は、おそらく、生成 AI ツールに関するニュースで数か月間否定的な記事が報道されたことや、 ChatGPT、Bing Chat、その他の製品が直面している論争 によって引き起こされたと考えられます。誤った情報、データ侵害、マルウェアの話が増えるにつれ、一般の人々は差し迫った AI の未来に順応しなくなってきているようです。
MITRE-Harris世論調査で政府がAIの規制に介入すべきかどうか尋ねたところ、回答者の85%がこの考えに賛成であり、前回より3%増加した。同 85% が「AI を安全かつ安全に公共利用できるようにするには、産業界、政府機関、学界を超えた全国的な取り組みが必要である」という意見に同意し、72% が「連邦政府は AI にもっと時間と資金を集中すべきだ」と感じています。セキュリティの研究開発。」
マルウェア攻撃を改善するために AI が使用されることに対する不安が広がっていることは興味深いです。私たちは最近、まさにこのテーマについて サイバーセキュリティ専門家のグループと話をしましたが 、AI はマルウェアに使用できるものの、現時点ではそれほど強力なツールではないというのがコンセンサスのようです。一部の専門家は、効果的なマルウェア コードを作成する能力が不十分であると感じていましたが、他の専門家は、ハッカーは AI に助けを求めるよりも公開リポジトリでより優れたエクスプロイトを見つける可能性が高いと説明しました。
それでも、AI 全般に対する懐疑的な見方が強まることで、最終的には業界の取り組みが形作られる可能性があり、OpenAI のような企業は、自社がリリースする製品から 一般の人々を守るため に、より多くの資金を投資するようになる可能性があります。そして、このような圧倒的な支持があれば、政府が遅かれ早かれ AI 規制 を制定し始めても驚かないでください。

