「責任ある生成AIのための3つの新興プラクティス」

3 Emerging Practices for Responsible AI Generation

GoogleのAIに関する取り組みは、Google検索、翻訳、マップなど、億単位の人々が毎日使用しているツールを支えています。私たちが最も興奮しているのは、洪水の予測や炭素削減、医療の改善など、AIを使って重要な社会的課題を解決することです。AIには、世界中の誰もが直面するグローバルな危機に大きな影響を与える潜在能力があることを学びました。同時に、既存のイノベーションの利益を世界中の人々に広げることもできます。

これがなぜAIを責任を持って開発する必要があるのか、それは公平性、プライバシー、安全性などの明確な懸念を解決する方法であり、AIエコシステム全体の協力を通じて行われるべきです。そして、2017年に「AIファースト」の企業であることを発表した後、私たちはAIの原則を共有し、広範なAIの原則のガバナンス構造と拡張可能で繰り返し可能な倫理審査プロセスを構築しました。他の人々が責任を持ってAIを開発するのを助けるために、私たちは成長し続ける責任あるAIのツールキットも開発しました。

私たちは、リスク評価、倫理審査、技術改善のプロセスに関する詳細な報告書を毎年公開しており、産業全体で見られる動向をカバーする半年ごとの簡単な進捗状況も補完しています。

今年は、生成型AIが私たちの生涯で他のいかなる新興技術よりも公に注目され、議論され、共同で興味を持たれています。それは素晴らしいことです。この共同の精神は、AIの責任ある開発の目標にのみ利益をもたらすことができます。例えば、小規模企業が魅力的な広告キャンペーンを作成するのを支援したり、コードを書かずに新しいAIアプリケーションのプロトタイプを作成するのを可能にしたりすることです。

私たちの役割として、AIの原則と倫理審査プロセスを自社の製品開発にも適用しています。生成型AIも例外ではありません。過去6ヶ月間の調査で、不公平なバイアスや事実性といった生成型AIの懸念に対して、安全かつ社会的に有益な実践を促進する明確な方法があることがわかりました。私たちは倫理的な考慮事項を設計・開発プロセスの早い段階で積極的に統合し、生成型AIプロジェクトに関するガイダンスに重点を置いて、初期段階のAIの取り組みの審査を大幅に拡大しました。

半年ごとの進捗報告では、このガイダンスと私たちが事前の設計、審査、生成型AIの開発において行ったことに基づいて、私たちのベストプラクティスの3つを共有したいと思います。

1. 責任ある設計。

まずは潜在的な損害を特定し、それらの損害に対処するために責任あるデータセット、分類器、フィルターを使用して生成型AIの製品開発プロセスを開始することが重要です。その基礎から以下のことも行っています:

  • 研究コミュニティとのワークショップに参加し、信頼できるAIを構築する包括的な方法を特定するために協力しています。最近では、Ethical Considerations in Creative Applications of Computer VisionやCross-Cultural Considerations in NLPなどのフォーラムをサポートし、進めてきました。
  • リリース前に早期の段階で特定された損害に基づいて禁止使用ポリシーを策定します。そのポリシーに違反する出力をフラグ付けし、フィルタリングするための分類器やその他のツールなどの技術的なアプローチを使用し、責任あるAIのツールキットには、モデルのデバッグや理解をサポートするLearning Interpretability Tool (LIT)の新しいバージョンや包括的なモンクスキントーン(MST)スケールを使用するためのMonk Skin Tone Examples (MST-E)データセットなども追加しました。
  • 生成型AIのプロジェクトに関するガイダンスを重視し、法律や教育の分野など、さまざまな分野の外部の専門家グループを集めて、公正な製品の結果について徹底的な議論を行っています。例えば、私たちのEquitable AI Research Roundtable(EARR)は、AIのリーダーシップポジションにおいて歴史的に代表されていないコミュニティを代表する思想リーダーとの会議を続けており、生成型AIのトピックに焦点を当てています。
  • 信頼できるテスターに対して実験的な段階的リリースを行い、フィードバックを収集します。
  • 政策立案者、プライバシー規制機関、グローバルな専門家と継続的に協力し、広範なリリースのための情報を提供しています。例えば、Bardを40の言語と国際観客に拡大する前に行ったように。

2. アドバーサリーテストを実施する。

開発者は、生成型AIモデルを内部でストレステストし、リリース前や継続的なリリース前に潜在的なリスクを特定し、軽減することができます。例えば、Bardという私たちの実験では、人間のように解釈される可能性のある出力をテストし、誤解につながる潜在的なリスクを制限するために「私」の表現の使用を制限するセーフガードを作成しました。また、以下のことも行っています:

  • 研究開発の早い段階でコミュニティの意見を求め、社会的な文脈を理解することで、徹底的なストレステストを行うことができます。例えば、私たちは最近、MLCommonsとKaggleと提携して、テキストから画像へのモデルのストレステストのためのアドバーサリアルニブラーという公開のAIコンテストを開催し、画像生成モデルの評価における見落とされたギャップや「未知の未知」を特定することを目指しています。
  • 内部的かつ包括的なテストを行います。Bardをリリースする前に、バックグラウンドや文化的な経験の幅広いGoogle社員のグループから選ばれた数百人のボランティアが、私たちのポリシーに意図的に違反するために利用することを許可し、サービスをテストしました。私たちは、これらの内部的なアドバーサリーテストを続けており、Bardの拡張と機能のリリースに関する情報を得るために行っています。
  • 生成型AI固有の懸念に対応するために、アドバーサリーセキュリティテストを調整して適用します。例えば、私たちは「赤チームテスト」という脆弱性を特定するストレステスト手法を進化させ、AIシステムを「倫理的にハッキング」し、新しいセキュアAIフレームワークをサポートしています。さらに、今年のDEFCONカンファレンスでは、公開の赤チーミングのための大規模な言語モデルを共有することで、生成型AIに対する倫理的なハッキングアプローチをさらに拡大します。

関連記事

GoogleのAI Red Team: AIをより安全にする倫理的なハッカー

今日、GoogleのAI Red Teamに関する情報を初めて公開します。

記事を読む

3. わかりやすく役立つ説明を伝える。

リリース時には、生成的AIの使用方法やタイミングについて明確なコミュニケーションを提供することを目指しています。人々がフィードバックを提供し、自分たちがコントロールしている方法を示すことを目指しています。たとえば、Bardの場合、以下のような説明の実践が含まれます:

  • 「Googleで検索」ボタンは、事実に基づく質問を検証するための関連する検索クエリを提供します。
  • フィードバックチャネルとしての「いいね」と「よくないね」のアイコン
  • 問題を報告し、ユーザーフィードバックに迅速に対応するための操作サポートを提供するリンク
  • Bardのアクティビティの保存または削除に対するユーザーのコントロール

また、ユーザーが実験的な生成的AI技術と関わっているときには、そのことを明確に伝えることも心掛けています。たとえば、NotebookLMなどのLabsリリースは「実験」という大きなラベルが付けられ、早期アクセス期間中に使用できる機能の制限に関する具体的な詳細も表示されます。

他の説明の実践としては、生成的AIサービスや製品の動作方法に関する詳細なドキュメント作成があります。Bardの場合、これには品質、精度の確保、潜在的な個人化の防止などについての制限された対話数に関する包括的な概要、およびBardがデータをどのように処理するかについてのプライバシー通知も含まれています。

透明性を維持することも重要です。Bardをパワーする現在のモデルであるPaLM-2に関する詳細な技術レポートも公開し、内部評価の詳細情報やモデルの責任ある使用に関するAI研究者や開発者へのガイダンスも提供しています。

上記の3つの観察に加えて、画像の起源などの懸念事項に対処する際には、新しい生成的AI技術にも同様に革新的なガードレールを設けることに広く取り組んでいます。私たちの取り組みには、Google AIツールが生成する画像にウォーターマークを付ける(Virtual Try OnやDa Vinci Stickiesなど)ことや、画像がAIで生成されたことを示すための画像マークアップの提供などが含まれます。

大胆さと責任感は相いれないものではありません – 実際には、新しい技術の受容、採用、および役立ちにおいては互いに補完的な役割を果たします。今月初めには、ウェブパブリッシャー、市民社会、学界、AIコミュニティから、生成的AIの時代にインターネットの将来の開発をサポートするためのプロトコルに対するアプローチに関する意見を募集する公開討論会を開催しました。今後も、責任ある生成的AIの開発と透明性の実践をどのように適用しているかを、年末に行われるAI原則の進捗報告で共有し続けます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

Q&A:ブラジルの政治、アマゾンの人権、AIについてのGabriela Sá Pessoaの見解

ブラジルの社会正義のジャーナリストは、MIT国際研究センターのフェローです

人工知能

キャルレールの最高製品責任者、ライアン・ジョンソンへのインタビューシリーズ

ライアンは、初期のスタートアップからフォーチュン100の組織まで、多様なテクノロジーと製品開発のリーダーシップ経験を15年...

人工知能

「Zenの共同創設者兼CTO、イオン・アレクサンドル・セカラ氏によるインタビューシリーズ」

創業者兼CTOであるIon-Alexandru Secaraは、Zen(PostureHealth Inc.)の開発を牽引しており、画期的な姿勢矯正ソフトウェア...

機械学習

3つの質問:大規模言語モデルについて、Jacob Andreasに聞く

CSAILの科学者は、最新の機械学習モデルを通じた自然言語処理の研究と、言語が他の種類の人工知能をどのように高めるかの調査...

データサイエンス

「David Smith、TheVentureCityの最高データオフィサー- インタビューシリーズ」

デビッド・スミス(別名「デビッド・データ」)は、TheVentureCityのチーフデータオフィサーであり、ソフトウェア駆動型のス...

人工知能

ファイデムのチーフ・プロダクト・オフィサー、アルパー・テキン-インタビューシリーズ

アルパー・テキンは、FindemというAI人材の獲得と管理プラットフォームの最高製品責任者(CPO)ですFindemのTalent Data Clou...