『ChatGPTや他のチャットボットの安全コントロールに研究者が問題点を指摘』

研究者がChatGPTや他のチャットボットの安全コントロールの問題点を指摘

カーネギーメロン大学のZico Kolter氏(右)とAndy Zou氏は、全ての主要なチャットボットプラットフォームの安全対策を回避する方法を見つけた研究者の一員でした。 ¶ クレジット:マルコ・ガルシア/ニューヨークタイムズ

人工知能の企業がChatGPT、Claude、Google Bardなどのオンラインチャットボットを構築する際、彼らはシステムがヘイトスピーチ、ディスインフォメーション、その他の有害な情報を生成しないようにするためのガードレールを数ヶ月かけて追加しています。

しかし、これらの安全対策システムに簡単に穴を開ける方法が存在するようになりました。

ピッツバーグのカーネギーメロン大学とサンフランシスコのA.I.セーフティセンターの研究者たちは、木曜日に発表されたレポートで、誰でもA.I.の安全対策を回避し、主要なチャットボットのいずれかを使ってほぼ無制限の量の有害情報を生成することができることを示しました。

彼らの研究は、新しいチャットボットが、作成者の努力にもかかわらず、偽情報や危険な情報でインターネットを氾濫させる可能性が増していることを強調しました。また、主要なA.I.企業間の意見の相違が、技術に対して予測不可能な環境を作り出していることも示しました。

ニューヨークタイムズより全文記事をご覧ください

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

カルテックとETHチューリッヒの研究者が画期的な拡散モデルを導入:最先端のビジュアルタスクと異なるドメインへの適応を実現するためのテキストキャプションの活用

拡散モデルは、テキストから画像の生成を革新し、古典的な機械学習のタスクにおいて新たな可能性を解き放っています。しかし...

機械学習

「WebAgentに会いましょう:DeepMindの新しいLLM、ウェブサイト上での指示に従ってタスクを完了する」

大規模言語モデル(LLM)とウェブサイトの統合は、新たな波のLLMを活用したアプリケーションを可能にする領域の一つですLLMは...

データサイエンス

Python から Julia へ:特徴量エンジニアリングと機械学習

これは、応用データサイエンスのためのJuliaの始め方に関する私の2部作の第2部です最初の記事では、単純なデータ操作や実施例...

AI研究

MITの研究者は、ディープラーニングと物理学を組み合わせて、動きによって損傷を受けたMRIスキャンを修正する方法を開発しました

「この課題は、ぼやけたJPEG画像以上のものです医療画像の動きのアーティファクトを修正するには、より高度なアプローチが必...

AI研究

コンピュータビジョンシステムは、画像認識と生成を結びつけたものです

MAGEは、通常は別々に訓練される画像生成と認識の2つの主要なタスクを1つのシステムに統合します

機械学習

「新しいAIの研究が、化学的な匂いを説明する能力において、機械学習モデルが人間レベルのスキルを達成することを示している」という

神経科学における基本的な課題は、刺激の物理的特性と知覚的特性の関連性を理解することです。視覚の色や聴覚の音高のように...