Skip to main content Skip to footer

知見

レジリエンスの再定義:生成AI時代のサイバーセキュリティ

5分(読了目安時間)

2024/05/02

概略

  • サイバー犯罪者は組織に対して、ランサムウェアやフィッシングなど、生成AIを用いた攻撃を増加させています。
  • 高度なテクノロジー環境は複雑な攻撃に対して脆弱であるため、特定の産業においては、より狙われやすくなっています。
  • これらのリスクに対処するため、組織はセキュリティ体制をアップデートし、設計段階から生成AIの導入過程全体にセキュリティを組み込む必要があります。

生成AIを安全に保つ

生成AIやサイバーセキュリティにおいて、攻撃側と防御側とでは果たしてどちらが有利でしょうか?

生成AIが脅威に対して与える影響

サイバー犯罪者は、生成AIの積極活用を進めており、生成AIを利用したサイバー攻撃は増加しています。その影響で、ランサムウェア攻撃も増加しているのです。

これらの攻撃は、生成AIを利用したフィッシングを通じて始まることが多く、地方自治体や教育機関、製造業や医療機関にも影響を及ぼしています。また、経営幹部を模倣した音声ディープフェイクが増加しており、不正に資金送金を承認させる事例も見られます。

脅威者たちはダークLLMを使ってPythonベースのランサムウェアを作成する実験を行っており、高度に難読化されたランサムウェアを配布することで成功確度を高めています。金融サービス、政府、エネルギーなどの一部の業界は、生成AIによる攻撃の標的になりやすいことがわかっています。これらの業界はより高度な技術を使用する傾向があり、高度な攻撃に対してより脆弱です。

56%

の経営幹部が、今後2年間で攻撃側が防御側よりも優位に立つと考えています。

76%

ChatGPT のリリース以来、ランサムウェア攻撃が増加しました。

1,265%

過去18ヶ月間でフィッシング攻撃が増加しました。

生成AIの脆弱性

生成AIにより、組織はこれまでよりも広範囲な脅威や、より高度な攻撃者、新しい攻撃の対象になる可能性が高まります。組織がテストケースや個別のユースケースから、より大規模な生成AI実装に移行するにつれて、導入の規模と複雑さが増し、リスクも増大します。このような脆弱性は新しいものであり、ほとんどの組織は対処する準備ができていません。

これらの新しいリスクを適切に軽減するためには、シャドーAIの検出、LLMプロンプトおよび応答フィルタリング、特殊なAIワークロード統合テストなどの新しい機能が必要となります。AIを利用した攻撃に対抗する場合でも、自社のAI環境を保護する場合でも、組織はセキュリティ体制を迅速にアップデートする必要があります。優位に立つための鍵は、設計段階でセキュリティを組み込むことです。

安全な生成AI導入プロセス

大規模な生成AIの導入を加速し、生成AIの環境を保護する方法:

生成AIのセキュリティはGRCの不可欠な部分であり、明確なガバナンスフレームワーク、ポリシー、プロセスを確立する必要があります。

サイバーインテリジェンスに基づく包括的なセキュリティ評価を実施し、生成AI環境内における現在のセキュリティ成熟度を把握します。生成AIアーキテクチャを評価し、業界のベストプラクティスとの整合性を確保します。

組織は、データ層、基盤モデル、生成AIアプリケーション、さらにはIDアクセスとそのコントロールを含む生成AIスタック全体のセキュリティ保護に重点を置く必要があります。

生成AIでサイバーレジリエンスを改革

生成AIは、サイバーディフェンスとサイバーセキュリティの改革の機会をもたらします。生成AIを最大限に活用することで、組織は潜在的な攻撃者に対抗し、サイバーディフェンス能力を強化することができます。

組織はAIを活用した防御テクノロジーを採用し、脅威者たちが組織に対して使用する可能性のある生成AIテクノロジーを使用してテストをする必要があります。例として、AIを活用したレッドチーミングやペネトレーションテストがあります。これらは、生成AIの規制が進化するにつれ、組織にとって必須となるでしょう。

多くのプラットフォーム企業やハイパースケーラーは、自社の環境だけでなく、より広範な利用のためにAIセキュリティ機能をリリースしています。さらには、環境を保護するために生成AIセキュリティ固有のソリューションをゼロから作成した新しいプレーヤーもこの分野に参入しています。