サイバーセキュリティにおける生成AIの約束と危険性

Generating AI Promises and Dangers in Cybersecurity

2023年のBlack Hatで行われたパネルディスカッション「Generative AI: Security Friend or Foe?」は、ChatGPTなどの生成型AIモデルがセキュリティチームに与える影響についての洞察を提供しました。Dark Readingの編集長であるKelly Jacksonが、Palo Alto NetworksのJosh Zelonis、DeVry UniversityのFred Kwong、OmdiaのアナリストであるCurt Franklinというサイバーセキュリティのリーダーたちと共にラウンドテーブルをモデレートしました。生成型AIの急速な台頭は、セキュリティ専門家にとって機会とリスクの両方をもたらします。

利点としては、生成型モデルは繰り返しのタスクを自動化し、セキュリティアナリストの効率を高めることができます。Zelonisは、AIが環境がより複雑になる中でスケールで対応するために不可欠であると説明しました。Kwongは、脅威の研究や教育における利点を強調しました – AIは大量のデータを素早く要約してスキルの開発を加速させることができます。Franklinは、狭く特化した「ドメインエキスパート」AIが現在の一般的な知能よりも現実的であると警告しました。

自然言語のクエリやレポートの生成は、重要な応用例とされました。これにより、アナリストは一貫して質問を表現し、信頼できる回答を得ることができます。しかし、Franklinは、効果的なAIクエリのプレイブックを構築するためにクエリエンジニアリングのスキルが必要となると指摘しました。Kwongも、基本的な活動ログの収集など、日常的なSOCタスクの自動化の可能性を指摘しました。

パネリストたちは、生成型AIが人間の能力を高める可能性があるが、セキュリティチームを完全に置き換えることはできないと一致しました。Kwongは、従業員に適切で倫理的なAIの使用方法を教育することの重要性を強調しました。組織は、他のどの技術能力と同様に、AIに対してポリシーとガバナンスを必要とするでしょう。

リスクの側面では、パネルはソーシャルエンジニアリングとフィッシングキャンペーンの高度化に注目しました。攻撃者は今や、ターゲットに合わせた非常に信憑性の高いスピアフィッシングのコンテンツを生成することができます。Kwongは、サイバー犯罪者が公共の録音からクローンされた音声の合成を作成してヴィッシング詐欺を行っていると述べました。

Zelonisは、生成型モデルが攻撃者により多くの弾薬を提供すると説明しましたが、ゼロトラストのようなセキュリティの基本原則は依然として重要です。内部の脅威や機密性の高いトレーニングデータへのアクセスの誤用によるAIの兵器化の潜在的なリスクもあります。Kwongは、セキュリティチームが顧客データがAIモデルのトレーニングにどのように使用されるかについてベンダーに問い合わせることを推奨しました。

他の課題には、セキュリティ製品におけるAIの「ハイプと現実」があります。Zelonisは、組織は採用するのが早すぎるかどうかを評価する必要があると指摘しました。AIの透明性や商業オファリングの倫理観も検討する必要があります。

全体的に、パネルはAIは今後も存在し続け、セキュリティチームがそれを受け入れる必要があることを明確にしました。強力なデータガバナンス、トレーニングの監視、そして人間中心のユースケースへの焦点を当てることにより、生成型AIは脅威検知とアナリストの生産性を向上させることができます。しかし、ボイススプーフィングやディープフェイクなどのリスクには継続的な教育が必要です。AIセキュリティポリシーは継続的な適応が必要です。魔法の弾丸ではないものの、慎重なAIの導入は利益をもたらすことができます。ただし、技術はセキュリティリーダーが予測する必要がある新たな脅威をもたらします。

キーポイント

以下は、生成型AIセキュリティディスカッションのキーポイントです:

  • 生成型AIは、セキュリティチームをより効率的かつ迅速にするために、アナリストの繰り返しタスクを自動化することができます。
  • 適切に実装されれば、クエリやレポートのための自然言語生成は近い将来の有望な応用です。
  • しかし、AIは魔法の解決策ではありません-人間の能力を補完するものであり、セキュリティ専門家を置き換えるものではありません。
  • 強力なデータガバナンス、トレーニングの監視、ポリシーは、AIツールの展開時に重要です。
  • 倫理的なAIの使用に関する教育は重要であり、ベンダーからの透明性も必要です。
  • 合成コンテンツや音声を使用したソーシャルエンジニアリングは、新たな生成型AIの脅威です。
  • 組織は、AIセキュリティ製品の採用時にハイプと現実を評価し、戦略的な価値を追加する機能のみを統合する必要があります。
  • AIの進歩にもかかわらず、ゼロトラストやセキュリティトレーニングなどの基本原則は依然として重要です。
  • 内部の脅威やトレーニングデータの悪用などのリスクに対しては、AIシステムのための緩和策が必要です。
  • 生成型AIは利点と新たな脅威をもたらします-利益を最大化し、リスクを最小限に抑えるためには、計画的なAIの導入が重要です。

要約すると、パネルは生成型AIがセキュリティにおける約束を強調しましたが、価値を得るための責任ある採用、教育、スマートな実装が重要であると強調しました。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「トリントの創設者兼CEO、ジェフ・コフマンへのインタビューシリーズ」

ジェフ・コーフマンは、ABC、CBS、CBCニュースで30年のキャリアを持った後、Trintの創設者兼CEOとなりましたジェフは手作業の...

人工知能

「ジャスティン・マクギル、Content at Scaleの創設者兼CEO - インタビューシリーズ」

ジャスティンは2008年以来、起業家、イノベーター、マーケターとして活動しています彼は15年以上にわたりSEOマーケティングを...

人工知能

キャルレールの最高製品責任者、ライアン・ジョンソンへのインタビューシリーズ

ライアンは、初期のスタートアップからフォーチュン100の組織まで、多様なテクノロジーと製品開発のリーダーシップ経験を15年...

人工知能

「マーク・A・レムリー教授による生成AIと法律について」

データサイエンス内で新しい分野が現れ、研究内容が理解しにくい場合は、専門家やパイオニアと話すことが最善です最近、私た...

人工知能

「クリス・サレンス氏、CentralReachのCEO - インタビューシリーズ」

クリス・サレンズはCentralReachの最高経営責任者であり、同社を率いて、自閉症や関連する障害を持つ人々のために優れたクラ...

人工知能

ムーバブルインクのCEO兼共同創設者であるヴィヴェク・シャルマ氏についてのインタビュー・シリーズ

ビヴェクは2010年にムーバブルインクを共同設立し、急速な成長を遂げながら、600人以上の従業員を擁し、世界有数の革新的なブ...