『ChatGPTや他のチャットボットの安全コントロールに研究者が問題点を指摘』

研究者がChatGPTや他のチャットボットの安全コントロールの問題点を指摘

カーネギーメロン大学のZico Kolter氏(右)とAndy Zou氏は、全ての主要なチャットボットプラットフォームの安全対策を回避する方法を見つけた研究者の一員でした。 ¶ クレジット:マルコ・ガルシア/ニューヨークタイムズ

人工知能の企業がChatGPT、Claude、Google Bardなどのオンラインチャットボットを構築する際、彼らはシステムがヘイトスピーチ、ディスインフォメーション、その他の有害な情報を生成しないようにするためのガードレールを数ヶ月かけて追加しています。

しかし、これらの安全対策システムに簡単に穴を開ける方法が存在するようになりました。

ピッツバーグのカーネギーメロン大学とサンフランシスコのA.I.セーフティセンターの研究者たちは、木曜日に発表されたレポートで、誰でもA.I.の安全対策を回避し、主要なチャットボットのいずれかを使ってほぼ無制限の量の有害情報を生成することができることを示しました。

彼らの研究は、新しいチャットボットが、作成者の努力にもかかわらず、偽情報や危険な情報でインターネットを氾濫させる可能性が増していることを強調しました。また、主要なA.I.企業間の意見の相違が、技術に対して予測不可能な環境を作り出していることも示しました。

ニューヨークタイムズより全文記事をご覧ください

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

メタリサーチは、システム2アテンション(S2A)を導入します:入力コンテキストの重要な部分を決定するためのAI技術で、優れた応答を生成する能力がございます

大型言語モデル(LLM)は、さまざまな言語タスクにおいて非常に優れた能力を示していますが、非常に単純なミスを犯すことがあ...

AIニュース

「AIに友達になる」

「人工知能に基づくコンパニオンやチャットボットは、長期間の対話を通じて人々が深いつながりを築くことを可能にします」

AI研究

DeepMindの研究者が、成長するバッチ強化学習(RL)に触発されて、人間の好みに合わせたLLMを整列させるためのシンプルなアルゴリズムであるReinforced Self-Training(ReST)を提案しました

大規模言語モデル(LLM)は、優れた文章を生成し、さまざまな言語的な問題を解決するのに優れています。これらのモデルは、膨...

人工知能

GPT4Allは、あなたのドキュメント用のローカルChatGPTであり、無料です!

あなたのラップトップにGPT4Allをインストールし、AIにあなた自身のドメイン知識(あなたのドキュメント)について尋ねる方法...

AI研究

AIシステムは、構造設計のターゲットを満たす新しいタンパク質を生成することができます

これらの調整可能なタンパク質は、強靭性や柔軟性など、特定の機械的特性を持つ新しい材料を作成するために使用することがで...