新しい人工知能(AI)の研究アプローチは、統計的な視点からアルゴリズム学習の問題として、プロンプトベースのコンテキスト学習を提示します

新しいAIの研究アプローチは、統計的な視点からアルゴリズム学習の問題を取り扱い、プロンプトベースのコンテキスト学習を提案しています

インコンテキスト学習は、最近のパラダイムであり、大規模言語モデル(LLM)がテストインスタンスと数少ないトレーニング例を入力として観察し、パラメータの更新なしに直接出力をデコードする方法です。この暗黙のトレーニングは、通常のトレーニングとは異なり、例に基づいて重みが変更されることと対照的です。 

出典: https://arxiv.org/pdf/2301.07067.pdf

なぜインコンテキスト学習が有益であるのかという問題が生じます。2つの回帰タスクをモデル化したいと仮定できますが、制限は1つのモデルしか使用できないということです。ここでインコンテキスト学習は便利であり、タスクごとに回帰アルゴリズムを学習することができます。つまり、モデルは異なる入力のセットに対して別々に適合した回帰を使用します。 

論文 「Transformers as Algorithms: Generalization and Implicit Model Selection in In-context Learning」では、インコンテキスト学習の問題をアルゴリズム学習の問題として形式化しています。彼らは学習アルゴリズムとしてトランスフォーマーを使用し、推論時に別のターゲットアルゴリズムを実装するためにトレーニングして特化できると述べています。この論文では、トランスフォーマーを介したインコンテキスト学習の統計的側面を探求し、理論的予測を検証するために数値評価を行いました。

この研究では、2つのシナリオを調査しました。最初のシナリオでは、プロンプトはi.i.d(入力、ラベル)のペアのシーケンスで構成されています。もう一つのシナリオでは、シーケンスは動的システムの軌跡です(次の状態は前の状態に依存します:xm+1 = f(xm) + ノイズ)。  

では、このようなモデルをどのようにトレーニングするのでしょうか?

ICLのトレーニングフェーズでは、T個のタスクがデータ分布 {Dt}t=1Tに関連付けられます。各タスクに対して、対応する分布からトレーニングシーケンスStを独立してサンプリングします。その後、Stの部分シーケンスとシーケンスStから値xを渡して、xに対して予測を行います。ここではメタラーニングのフレームワークのようです。予測後、損失を最小化します。ICLトレーニングの背後にある直感は、対象のタスクに最適なアルゴリズムを探し出すことです。

次に、ICLの汎化境界を得るために、アルゴリズムの安定性の文献からいくつかの安定性条件を借用しました。ICLでは、プロンプトのトレーニング例はそのポイント以降のアルゴリズムの将来の決定に影響を与えます。そのため、入力に対していくつかの条件を課す必要がありました。詳細については、[論文]をお読みください。図7 は、学習アルゴリズム(ここではトランスフォーマー)の安定性を評価するために実施された実験の結果を示しています。

出典: https://arxiv.org/pdf/2301.07067.pdf

RMTL はマルチタスク学習におけるリスク(誤差)です。導出されたバウンドから得られるインサイトの一つは、ICLの一般化エラーはサンプルサイズnまたはタスクごとのシーケンスの数Mを増やすことによって排除されることです。同様の結果は、安定な動的システムにも拡張できます。

出典: https://arxiv.org/pdf/2301.07067.pdf
出典: https://arxiv.org/pdf/2301.07067.pdf

これらのバウンドの検証を数値評価で見てみましょう。

すべての実験には、GPT-2アーキテクチャが使用されており、12層、8つのアテンションヘッド、256次元の埋め込みを持っています。実験は回帰と線形ダイナミクスで行われます。

  1. 線形回帰:図2(a)と2(b)の両方で、インコンテキスト学習の結果(赤)は最小二乗法の結果(緑)を上回り、最適なリッジ/重み付きソリューション(黒点線)と完全に一致します。これは、トランスフォーマーの自動モデル選択能力によるタスクの事前学習を示す証拠となります。
  2. 部分的に観測された動的システム:図(2(c))と(6)では、インコンテキスト学習がほぼすべてのオーダーH=1,2,3,4(ここでHは入力状態列にスライドするウィンドウサイズで、モデルに入力を生成するためのものです)の最小二乗法の結果を上回ることが示されています。

結論として、実験結果が理論的な予測と一致することが成功裏に示されました。そして今後の研究の方向として、いくつかの興味深い問題を探求する価値があります。

(1) 提案されたバウンドはMTLリスクのためのものです。個々のタスクのバウンドをどのように制御できるでしょうか?

(2) 完全に観測された動的システムから得られる同様の結果は、強化学習のようなより一般的な動的システムにも拡張できるでしょうか?

(3) 観察から、転送リスクはMTLタスクとその複雑さにのみ依存し、モデルの複雑さには依存しないと結論付けられたので、この帰納バイアスを特徴付け、トランスフォーマーによって学習されるアルゴリズムの種類を調べることは興味深いでしょう。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

ケンブリッジ大学の研究者が50,000枚の合成された写真リアルな足のイメージデータセットと新しいAIライブラリを紹介

健康、ファッション、フィットネス産業は、写真から人体の3Dモデルを復元する難しいコンピュータビジョンの課題に非常に興味...

AIニュース

「声AIがLLVCを発表:効率と速度に優れた画期的なリアルタイム音声変換モデル」

Koe AIの研究チームが、リアルタイムの任意の1つの声変換を可能にする、ultra-low latencyとminimal resource consumptionを...

AI研究

新しいAI研究が、転移学習のためのマルチタスクプロンプトチューニング(MPT)を紹介します

事前学習済み言語モデル(PLMs)は、フィネチューニングにより多くの下位NLPタスクで大幅に改善されています。現在のPLMsは数...

人工知能

「人工知能 vs 人間の知能:トップ7の違い」

はじめに 人工知能は、架空のAIキャラクターJARVISから現実のChatGPTまで、長い道のりを経て進化してきました。しかしながら...

データサイエンス

Pythonを使用したデータのスケーリング

モデル構築に適したデータをスケーリングする方法

機械学習

安定した拡散 コミュニティのAI

「ステーブルディフュージョンAIは、革新的な技術により芸術界を革命化し、創造性を高め、芸術の評価を変えています」