新しい人工知能(AI)の研究アプローチは、統計的な視点からアルゴリズム学習の問題として、プロンプトベースのコンテキスト学習を提示します

新しいAIの研究アプローチは、統計的な視点からアルゴリズム学習の問題を取り扱い、プロンプトベースのコンテキスト学習を提案しています

インコンテキスト学習は、最近のパラダイムであり、大規模言語モデル(LLM)がテストインスタンスと数少ないトレーニング例を入力として観察し、パラメータの更新なしに直接出力をデコードする方法です。この暗黙のトレーニングは、通常のトレーニングとは異なり、例に基づいて重みが変更されることと対照的です。 

出典: https://arxiv.org/pdf/2301.07067.pdf

なぜインコンテキスト学習が有益であるのかという問題が生じます。2つの回帰タスクをモデル化したいと仮定できますが、制限は1つのモデルしか使用できないということです。ここでインコンテキスト学習は便利であり、タスクごとに回帰アルゴリズムを学習することができます。つまり、モデルは異なる入力のセットに対して別々に適合した回帰を使用します。 

論文 「Transformers as Algorithms: Generalization and Implicit Model Selection in In-context Learning」では、インコンテキスト学習の問題をアルゴリズム学習の問題として形式化しています。彼らは学習アルゴリズムとしてトランスフォーマーを使用し、推論時に別のターゲットアルゴリズムを実装するためにトレーニングして特化できると述べています。この論文では、トランスフォーマーを介したインコンテキスト学習の統計的側面を探求し、理論的予測を検証するために数値評価を行いました。

この研究では、2つのシナリオを調査しました。最初のシナリオでは、プロンプトはi.i.d(入力、ラベル)のペアのシーケンスで構成されています。もう一つのシナリオでは、シーケンスは動的システムの軌跡です(次の状態は前の状態に依存します:xm+1 = f(xm) + ノイズ)。  

では、このようなモデルをどのようにトレーニングするのでしょうか?

ICLのトレーニングフェーズでは、T個のタスクがデータ分布 {Dt}t=1Tに関連付けられます。各タスクに対して、対応する分布からトレーニングシーケンスStを独立してサンプリングします。その後、Stの部分シーケンスとシーケンスStから値xを渡して、xに対して予測を行います。ここではメタラーニングのフレームワークのようです。予測後、損失を最小化します。ICLトレーニングの背後にある直感は、対象のタスクに最適なアルゴリズムを探し出すことです。

次に、ICLの汎化境界を得るために、アルゴリズムの安定性の文献からいくつかの安定性条件を借用しました。ICLでは、プロンプトのトレーニング例はそのポイント以降のアルゴリズムの将来の決定に影響を与えます。そのため、入力に対していくつかの条件を課す必要がありました。詳細については、[論文]をお読みください。図7 は、学習アルゴリズム(ここではトランスフォーマー)の安定性を評価するために実施された実験の結果を示しています。

出典: https://arxiv.org/pdf/2301.07067.pdf

RMTL はマルチタスク学習におけるリスク(誤差)です。導出されたバウンドから得られるインサイトの一つは、ICLの一般化エラーはサンプルサイズnまたはタスクごとのシーケンスの数Mを増やすことによって排除されることです。同様の結果は、安定な動的システムにも拡張できます。

出典: https://arxiv.org/pdf/2301.07067.pdf
出典: https://arxiv.org/pdf/2301.07067.pdf

これらのバウンドの検証を数値評価で見てみましょう。

すべての実験には、GPT-2アーキテクチャが使用されており、12層、8つのアテンションヘッド、256次元の埋め込みを持っています。実験は回帰と線形ダイナミクスで行われます。

  1. 線形回帰:図2(a)と2(b)の両方で、インコンテキスト学習の結果(赤)は最小二乗法の結果(緑)を上回り、最適なリッジ/重み付きソリューション(黒点線)と完全に一致します。これは、トランスフォーマーの自動モデル選択能力によるタスクの事前学習を示す証拠となります。
  2. 部分的に観測された動的システム:図(2(c))と(6)では、インコンテキスト学習がほぼすべてのオーダーH=1,2,3,4(ここでHは入力状態列にスライドするウィンドウサイズで、モデルに入力を生成するためのものです)の最小二乗法の結果を上回ることが示されています。

結論として、実験結果が理論的な予測と一致することが成功裏に示されました。そして今後の研究の方向として、いくつかの興味深い問題を探求する価値があります。

(1) 提案されたバウンドはMTLリスクのためのものです。個々のタスクのバウンドをどのように制御できるでしょうか?

(2) 完全に観測された動的システムから得られる同様の結果は、強化学習のようなより一般的な動的システムにも拡張できるでしょうか?

(3) 観察から、転送リスクはMTLタスクとその複雑さにのみ依存し、モデルの複雑さには依存しないと結論付けられたので、この帰納バイアスを特徴付け、トランスフォーマーによって学習されるアルゴリズムの種類を調べることは興味深いでしょう。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

K-平均クラスタリングのためのワンストップショップ

K-Meansクラスタリングは、非監視学習アルゴリズムであり、私たちが似たようなデータポイントをクラスターにまとめるのを助け...

AI研究

ジョンズ・ホプキンス大学とUCサンタクルーズ校の研究者が、画像ベースのAI学習の画期的な進歩であるD-iGPTを発表しました

“` 自然言語処理(NLP)は、GPTシリーズなどの大規模言語モデル(LLMs)の導入により、さまざまな言語的なタスクに対し...

機械学習

3つの質問:大規模言語モデルについて、Jacob Andreasに聞く

CSAILの科学者は、最新の機械学習モデルを通じた自然言語処理の研究と、言語が他の種類の人工知能をどのように高めるかの調査...

機械学習

「グラフ彩色の魅力的な世界を探索する」

この記事では、グラフ塗り分けの複雑さに深く入り込み、その実用的な応用事例を探求し、いくつかの注目すべきアルゴリズムに...

AI研究

初心者のための2023年の機械学習論文の読み方

「私は数十の機械学習の論文を読み、論文の勉強方法がだいたい分かってきました まず最初に、特定の論文を読む目的を理解する...

AI研究

「MITの研究者が深層学習と物理学を使用して、動きによって損傷を受けたMRIスキャンを修正する」

MRI(磁気共鳴画像)スキャンは、大型磁石、電波、およびコンピュータを使用して体内の構造を明確に映し出すテストです。医療...