『ChatGPTや他のチャットボットの安全コントロールに研究者が問題点を指摘』

研究者がChatGPTや他のチャットボットの安全コントロールの問題点を指摘

カーネギーメロン大学のZico Kolter氏(右)とAndy Zou氏は、全ての主要なチャットボットプラットフォームの安全対策を回避する方法を見つけた研究者の一員でした。 ¶ クレジット:マルコ・ガルシア/ニューヨークタイムズ

人工知能の企業がChatGPT、Claude、Google Bardなどのオンラインチャットボットを構築する際、彼らはシステムがヘイトスピーチ、ディスインフォメーション、その他の有害な情報を生成しないようにするためのガードレールを数ヶ月かけて追加しています。

しかし、これらの安全対策システムに簡単に穴を開ける方法が存在するようになりました。

ピッツバーグのカーネギーメロン大学とサンフランシスコのA.I.セーフティセンターの研究者たちは、木曜日に発表されたレポートで、誰でもA.I.の安全対策を回避し、主要なチャットボットのいずれかを使ってほぼ無制限の量の有害情報を生成することができることを示しました。

彼らの研究は、新しいチャットボットが、作成者の努力にもかかわらず、偽情報や危険な情報でインターネットを氾濫させる可能性が増していることを強調しました。また、主要なA.I.企業間の意見の相違が、技術に対して予測不可能な環境を作り出していることも示しました。

ニューヨークタイムズより全文記事をご覧ください

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

NumpyとPandasを超えて:知られざるPythonライブラリの潜在能力の解放

Pythonでのデータ操作と計算について話すとき、一般的にはPandasとNumpyを思い浮かべます他にも3つの強力なライブラリを見つ...

AI研究

このAI研究では、「RAFA」という、証明可能なサンプル効率を持つ独立型LLMエージェントのための原則的な人工知能フレームワークを紹介します

LLMの推論能力は優れていますが、それらの能力を実践的な状況で適用するためには改善が必要です。特に、外部の世界との最小限...

機械学習

DiffCompleteとは、不完全な形状から3Dオブジェクトを完成させることができる興味深いAIメソッドです

3D範囲スキャンの形状補完は、不完全または部分的な入力データから完全な3D形状を推測する難しい課題です。この分野の以前の...

機械学習

鑑識分類器をだます:敵対的な顔生成における生成モデルの力

ディープラーニング(DL)の最近の進歩、特に生成的対抗ネットワーク(GAN)の領域では、存在しない高度にリアルかつ多様な人...

AI研究

「MITとNVIDIAの研究者が、要求の厳しい機械学習タスクの速度とパフォーマンスを劇的に向上させることができる、2つの補完的な技術を開発しました」

MITとNVIDIAの研究者は、スパーステンソルの処理を加速する2つの技術を開発しました(テンソルは、機械学習モデルにおいて基...

AI研究

UC Berkeleyの研究者がゴーストバスターを導入:LLM生成テキストの検出のための最先端AIメソッド

ChatGPTは、さまざまなトピックにわたって、流暢なテキストを簡単に生成する能力を革新しました。しかし、実際にはどれほど優...