「あなたのLLMアプリを守る必読です!」

Essential reading to protect your LLM app!

LLMの展開における潜在的なセキュリティリスクについての教育を目指して

OWASP Top 10 for Large Language Model Applicationsプロジェクトは、開発者、デザイナー、アーキテクト、マネージャー、組織に、大規模言語モデル(LLM)を展開・管理する際の潜在的なセキュリティリスクについて教育することを目指しています。このプロジェクトでは、LLMアプリケーションでよく見られる上位10の重要な脆弱性をリストアップし、それらの潜在的な影響、悪用の容易さ、および実世界のアプリケーションでの普及を強調しています。

GuerrillaBuzzによる写真

LLMの展開時に考慮すべき以下の10の重要なセキュリティリスク:

プロンプトインジェクション

攻撃者は、クラフトされた入力を通じてLLMを操作し、攻撃者の意図を実行させることができます。これは、直接的にシステムのプロンプトを攻撃的に操作することや、間接的に外部の入力を操作することによって行われる可能性があり、データの漏洩、ソーシャルエンジニアリング、その他の問題を引き起こす可能性があります。

* ダイレクトプロンプトインジェクションはシステムのプロンプトを上書きする* インダイレクトプロンプトインジェクションは会話のコンテキストを乗っ取る* ユーザーがインダイレクトプロンプトインジェクションを含むウェブページを要約するためにLLMを使用する。

予防

* LLMがバックエンドシステムへのアクセスに特権制御を強制する* 拡張機能のための人間をループに組み込む* 外部コンテンツをユーザープロンプトから分離する* LLM、外部ソース、および拡張機能の間に信頼境界を確立する。

攻撃シナリオ

* 攻撃者がLLMベースのサポートチャットボットに直接的なプロンプトインジェクションを提供する* 攻撃者がウェブページに間接的なプロンプトインジェクションを埋め込む* ユーザーがインダイレクトプロンプトインジェクションを含むウェブページを要約するためにLLMを使用する。

セキュリティの甘い出力処理

セキュリティの甘い出力処理は、ダウンストリームのコンポーネントが適切な検査なしに大規模言語モデル(LLM)の出力を盲目的に受け入れる場合に発生する脆弱性です。これはXSSや…につながる可能性があります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

Q&A:ブラジルの政治、アマゾンの人権、AIについてのGabriela Sá Pessoaの見解

ブラジルの社会正義のジャーナリストは、MIT国際研究センターのフェローです

データサイエンス

「3つの質問:ロボットの認識とマッピングの研磨」

MIT LIDSのLuca CarloneさんとJonathan Howさんは、将来のロボットが環境をどのように知覚し、相互作用するかについて議論し...

機械学習

3つの質問:大規模言語モデルについて、Jacob Andreasに聞く

CSAILの科学者は、最新の機械学習モデルを通じた自然言語処理の研究と、言語が他の種類の人工知能をどのように高めるかの調査...

人工知能

「aiOlaのCEO兼共同創設者、アミール・ハラマティによるインタビューシリーズ」

アミール・ハラマティは、aiOlaのCEO兼共同創業者であり、スピーチを作業可能にし、どこでも完全な正確さで業界固有のプロセ...

人工知能

Diginiのスマートセンスの社長、ガイ・イエヒアブによるインタビューシリーズ

ガイ・イハイアヴ氏は、ビジネスの成功に最も重要な資産を保護するためにインターネット・オブ・シングス(IoT)の力を活用す...

データサイエンス

アステラソフトウェアのCOO、ジェイ・ミシュラ - インタビューシリーズ

ジェイ・ミシュラは、急速に成長しているエンタープライズ向けデータソリューションの提供企業であるAstera Softwareの最高執...