研究者たちは、AIシステムを取り巻くガードレールはあまり堅牢ではないと述べています

『AIシステムのガードレールは不十分であると研究者らが指摘』

左から時計回りに、Ruoxi Jia、Tinghao Xie、Prateek Mittal、Yi Zeng。人工知能システムの新たな欠陥を明らかにしたチームの一部であります。資料:The New York Times、エリアス・ウィリアムズ

昨年、サンフランシスコのスタートアップ企業OpenAIは、A.I.チャットボットChatGPTをリリースする前に、憎悪表現やディスインフォメーションを生成するなどの不適切な行動を防ぐためのデジタルな庇護装置を装着しました。GoogleもそのBardチャットボットに同様のことをしました。

しかし、プリンストン大学、バージニア工科大学、スタンフォード大学、IBMの研究者からなるチームが発表した論文によると、これらの庇護装置はA.I.開発者が考えているほど堅固ではないとのことです。

この新たな研究は、企業がA.I.の誤用を抑制しようとしている一方で、それが依然として有害なコンテンツを生成する方法を見落としているという広範な懸念に迫っています。新しいチャットボットの基盤となる技術は非常に複雑であり、これらのシステムにより多くのことが要求されるにつれて、その振る舞いを制御することはますます困難になっています。

記事全文はThe New York Timesのこちらをご覧ください

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

深層学習フレームワークの比較

「開発者に最適なトップのディープラーニングフレームワークを見つけてください機能、パフォーマンス、使いやすさを比較して...

機械学習

このAI論文では、Complexity-Impacted Reasoning Score(CIRS)を紹介していますこれは、大規模な言語モデルの推論能力を向上させるためのコードの複雑さの役割を評価するものです

大規模言語モデル(LLM)は、具現化された人工知能の問題解決における汎用的なアプローチとなっています。効率的な制御のため...

データサイエンス

「グーグルのAI研究によると、グラフデータのエンコーディングが言語モデルのパフォーマンスを複雑なタスクに向上させることが明らかになりました」

近年、大型言語モデル(LLM)の研究と応用は著しく進歩しています。これらの生成モデルは人工知能コミュニティを魅了し、様々...

AIニュース

MicrosoftエンジニアのAIイノベーションとリーダーシップへのガイド

「マイクロソフトのシニアソフトウェアエンジニア、マナス・ジョシとともにAIイノベーションの洞察に飛び込もう:次世代のた...

機械学習

「AnyLocによる最新のビジュアル位置認識(VPR)の汎用方法について紹介します」

人工知能の分野は常に進化しており、ロボット工学などのさまざまな用途に取り入れられています。ビジュアルプレースリコグニ...