「LLMに対する連鎖思考の促進」

Promoting LLM's chain of thought

LLMとの「推論」のための実用的でシンプルなアプローチ

(Matthew Lancaster氏による写真、Unsplashより)

大規模言語モデル(LLM)の成功は、大量のテキストコーパスを用いた事前学習(言語モデリング目的)を通じて、デコーダー専用のトランスフォーマーモデルをトレーニングできることに由来しています。十分に大きなモデルを事前学習することで、LLMは非常に能力のある少数の学習者になります。つまり、わずかな正しい出力の例を含むテキストのプロンプトを作成し、LLMに正しい答えを生成させることで、さまざまな問題(例:翻訳、文の分類、要約など)を解決できるということです。

LLMの能力にもかかわらず、これらのモデルが一貫して解決に苦しむ問題もあります。特に、推論問題(例:算術または常識的な推論)は非常に難しいものです。この問題を解決するための最初の試みでは、さまざまな推論問題の解決策と説明の教師付きデータセットを用いて、LLMのファインチューニングとタスク固有の検証モジュールを試しました[3, 4]。しかし、最近の研究では、少数の学習を活用することでより簡単な解決策を見つけることができることがわかりました。

「この論文の目標は、言語モデルに思考の連鎖を生成する能力を与えることです – 問題の最終答えに至る一貫した中間推論ステップの連鎖です。」- [1]より引用

特に、連鎖思考(CoT)プロンプティング[1]は、少数の学習を通じて推論ベースのタスクでのLLMのパフォーマンスを向上させる最近提案された技術です。一般的なプロンプティング技術と同様に、CoTプロンプティングは、いくつかの推論問題の解決策の例をLLMのプロンプトに挿入します。そして、それぞれの例には、問題を解決するための中間推論ステップの連鎖がペアで付属します。LLMは、推論問題を解決する際に類似の連鎖思考を生成することを(少数の学習を通じて)学習します。このようなアプローチは最小限のデータ(つまり、プロンプティングのためのわずかな例)を使用し、タスク固有のファインチューニングを必要とせず、特に大規模なモデルにおいて推論ベースのベンチマークのLLMのパフォーマンスを大幅に向上させます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「マーク・A・レムリー教授による生成AIと法律について」

データサイエンス内で新しい分野が現れ、研究内容が理解しにくい場合は、専門家やパイオニアと話すことが最善です最近、私た...

人工知能

Diginiのスマートセンスの社長、ガイ・イエヒアブによるインタビューシリーズ

ガイ・イハイアヴ氏は、ビジネスの成功に最も重要な資産を保護するためにインターネット・オブ・シングス(IoT)の力を活用す...

人工知能

エンテラソリューションズの創設者兼CEO、スティーブン・デアンジェリス- インタビューシリーズ

スティーブン・デアンジェリスは、エンタラソリューションズの創設者兼CEOであり、自律的な意思決定科学(ADS®)技術を用いて...

人工知能

『ジュリエット・パウエル&アート・クライナー、The AI Dilemma – インタビューシリーズの著者』

『AIのジレンマ』は、ジュリエット・パウエルとアート・クライナーによって書かれましたジュリエット・パウエルは、著者であ...

人工知能

「ジャスティン・マクギル、Content at Scaleの創設者兼CEO - インタビューシリーズ」

ジャスティンは2008年以来、起業家、イノベーター、マーケターとして活動しています彼は15年以上にわたりSEOマーケティングを...

人工知能

「アナコンダのCEO兼共同創業者、ピーターウォングによるインタビューシリーズ」

ピーター・ワンはAnacondaのCEO兼共同創設者ですAnaconda(以前はContinuum Analyticsとして知られる)を設立する前は、ピー...