ChatGPT は人々の注目を集め、ワークフローを変え、オンラインで情報を入手する方法を変えました。試したことのない人でも、人工知能 (AI) チャットボットが将来にどのような影響を与えるかについては興味があります。
サイバー犯罪者は、この現象を利用する方法を模索してきました。 FraudGPT はその最近の例の 1 つです。
FraudGPT はダーク Web および Telegram で販売されている製品で、ChatGPT と同様に機能しますが、サイバー攻撃を促進するコンテンツを作成します。 Netenrich の脅威調査チームのメンバー
さらに詳しい情報によると、このツールは 1 ~ 2 週間ごとに更新され、内部にはさまざまな AI モデルが搭載されています。 FraudGPT にはサブスクリプションベースの価格モデルもあります。毎月 200 ドルを支払うか、1 年間で 1,700 ドルを支払うことができます。
Netenrich チームは FraudGPT を購入してテストしました。インターフェイスは ChatGPT に似ており、ユーザーの以前のリクエストの記録が左側のサイドバーに表示され、チャット ウィンドウが画面の大部分を占めます。 [質問] ウィンドウに入力して Enter キーを押すだけで応答が生成されます。
テスト プロンプトの 1 つは、銀行関連のフィッシング メールを作成するようツールに要求しました。ユーザーは銀行名を含めるように質問をフォーマットするだけでよく、残りは FraudGPT が行います。さらに、コンテンツ内のどこに悪意のあるリンクを挿入すべきかについても示唆しました。 FraudGPT は、訪問者に情報の提供を促す詐欺的なランディング ページを作成することでさらに前進する可能性があります。
他のプロンプトでは、FraudGPT に対して、最も標的とされている、または最も使用されているサイトまたはサービスをリストするよう求められました。この情報は、ハッカーが将来の攻撃を計画するのに役立つ可能性があります。この製品のダークウェブ広告では、悪意のあるコードの作成、検出不可能なマルウェアの構築、脆弱性の発見、ターゲットの特定などの可能性があると述べられていました。
Netenrich チームはまた、FraudGPT の販売者が以前にハッカー派遣サービスを提供していた人物であることも特定しました。さらに、同じ個人を WormGPT と呼ばれる同様のツールにリンクしました。
SlashNextの研究者らは、このツールのアルゴリズムは
これらのツールの証拠は、サイバー犯罪者が攻撃をますます成功させるために進化し続けていることを証明しています。テクノロジーの専門家や愛好家は安全を保つために何ができるでしょうか?
FraudGPT の調査により、引き続き警戒する必要があることが浮き彫りになりました。これらのツールは新しいため、ハッカーがいつそれらを使用してこれまでに見たことのない脅威を作成するか、あるいはすでに使用しているかどうかを判断するのは時期尚早です。ただし、悪意のある目的で使用される FraudGPT やその他の製品は、ハッカーの時間を節約するのに役立つ可能性があります。フィッシングメールを数秒で作成したり、ランディング ページ全体をほぼ同じスピードで作成したりすることもできます。
つまり、人々は個人情報の要求を常に疑うなど、サイバーセキュリティのベストプラクティスに従い続ける必要があります。サイバーセキュリティの役割を担う人は、脅威検出ツールを更新し、悪意のある者が FraudGPT などのツールを使用してオンライン インフラストラクチャを直接標的にして侵入する可能性があることを知っておく必要があります。
仕事で ChatGPT を使用する労働者が増えていますが、それは必ずしもサイバーセキュリティにとって良いことではありません。従業員が会社の機密情報を ChatGPT に貼り付けることで、意図せず漏洩する可能性があります。 Apple や Samsung を含む企業は、
ある研究によると、
そうした不安は杞憂ではない。 2023 年 3 月の ChatGPT のバグにより、ツールを使用した人の支払い詳細が漏洩しました
作業者が ChatGPT から得た情報がすべて正しいと想定した場合にも、問題が発生する可能性があります。プログラミングやコーディング作業にツールを使用している人々は次のように警告しています。
パデュー大学の 2023 年 8 月の研究論文では、プログラミングに関する質問に対して ChatGPT をテストすることでその主張が確認されました。驚くべき結論がツールを発見
認識すべき重要な点は、ハッカーは FraudGPT のような製品にお金を払わなくても、異常な損害を与えることができるということです。サイバーセキュリティ研究者らは、ChatGPT の無料版でも同じことが多くできることをすでに指摘しています。このツールに組み込まれている保護機能により、望ましい結果をすぐに得ることが難しくなる可能性があります。ただし、犯罪者は創造性を発揮する方法を知っています。これには、ChatGPT を操作して思い通りに動作させることが含まれる場合があります。
AIは最終的には
もう 1 つの可能性は、人々が本物の ChatGPT アプリだと信じているアプリをダウンロードし、代わりにマルウェアを受け取る可能性があることです。それほど時間はかかりませんでした
ハッカーは通常、一見正当なアプリにマルウェアを埋め込みます。 ChatGPT の人気をそのように利用することも人々に期待すべきです。
FraudGPT の研究は、サイバー犯罪者が最大限の影響を与えるためにどのように手法を変更し続けるかを思い出させる思い出深いものです。ただし、無料で利用できるツールにはサイバーセキュリティのリスクも伴います。インターネットを使用している人、またはオンライン インフラストラクチャのセキュリティ保護に取り組んでいる人は、常に新しいテクノロジーとそのリスクを把握しておく必要があります。重要なのは、潜在的な害を認識しながら、ChatGPT のようなツールを責任を持って使用することです。