「xTuringに会ってください:たった3行のコードで自分自身の大規模言語モデル(LLM)を作成できるオープンソースツール」

Meet xTuring An open-source tool for creating your own large-scale language model (LLM) in just 3 lines of code.

特定のアプリケーションのための大規模な言語モデル(LLM)の実用的な実装は、現在のところ、ほとんどの個人にとって困難です。特定のドメイン向けに高い精度と速度でコンテンツを生成したり、作文スタイルを模倣したりするためには、時間と専門知識が必要です。

Stochasticは、LLMの最適化と高速化に特化した明るいMLエンジニア、ポストドク、およびハーバード大学の卒業生のチームを持っています。彼らはxTuringというオープンソースのソリューションを紹介しており、ユーザーはたった3行のコードで独自のLLMを作成することができます。

自動テキストデリバリー、チャットボット、言語翻訳、コンテンツ制作などのアプリケーションは、これらの概念を活用して新しいアプリケーションを開発・作成しようとする人々の関心の対象です。これらのモデルをトレーニングや微調整することは、時間と費用がかかることがありますが、xTuringを使用すると、LLaMA、GPT-J、GPT-2、または他の手法を使用して、モデルの最適化を簡単かつ迅速に行うことができます。

xTuringの単一GPUまたはマルチGPUトレーニングフレームワークとしての汎用性により、ユーザーは特定のハードウェア構成にモデルを合わせることができます。メモリ効率の高い微調整手法(LoRAなど)をxTuringは使用しており、学習プロセスを高速化し、ハードウェアの費用を最大90%削減します。メモリの使用量を減らすことにより、LoRAはより迅速かつ効果的なモデルトレーニングを容易にします。

xTuringの微調整能力を評価するために、LLaMA 7Bモデルがベンチマークとして使用され、xTuringを他の微調整手法と比較したチームがあります。データセットは52Kの命令で構成され、335GBのCPUメモリと4つのA100 GPUが使用されました。

結果は、DeepSpeed + CPUオフロードを使用して、LLaMA 7Bモデルを1エポックあたり21時間トレーニングした場合、GPUの使用量は33.5GB、CPUの使用量は190GBでした。一方、LoRA + DeepSpeedまたはLoRA + DeepSpeed + CPUオフロードを使用して微調整する場合、メモリ使用量はそれぞれ23.7GBと21.9GBに劇的に減少しました。CPUによって使用されるRAMの量は14.9GBから10.2GBに減少しました。さらに、LoRA + DeepSpeedまたはLoRA + DeepSpeed + CPUオフロードを使用すると、トレーニング時間は1エポックあたり40分から20分に短縮されました。

xTuringを始めるのは簡単です。ツールのユーザーインターフェースは直感的に学習し使用できるように設計されています。ユーザーはマウスクリック数回でモデルを微調整し、xTuringが残りの作業を行います。使いやすさから、xTuringはLLMに初めて取り組む人や経験豊富な人にとっても優れた選択肢です。

チームによると、xTuringは大規模な言語モデルの微調整に最適なオプションであり、単一およびマルチGPUトレーニングが可能であり、LoRAのようなメモリ効率の高い手法を使用しており、直感的なインターフェースを備えています。

詳細については、Githubプロジェクト、および参考文献をご覧ください。この研究に関するすべてのクレジットは、このプロジェクトの研究者に帰属します。また、最新のAI研究ニュース、クールなAIプロジェクトなどを共有している17,000人以上のML SubRedditDiscordチャンネル、およびメールニュースレターにぜひご参加ください。

この記事はMarkTechPostによるものです。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

AIを使って若返る方法:新しい抗加齢薬が発見される

AIアルゴリズムが突破口を開き、老化や年齢関連疾患と戦う可能性のある潜在的な薬剤を特定するのに重要な役割を果たしました...

人工知能

「生成型AIのGPT-3.5からGPT-4への移行の道程」

導入 生成型人工知能(AI)領域におけるGPT-3.5からGPT-4への移行は、言語生成と理解の分野での飛躍的な進化を示しています。...

機械学習

レオナルドAI:Midjourneyの新たな競合相手

レオナルドAIは、ミッドジャーニーがこれまで築いてきた地位に挑戦する注目すべき代替手段として徐々に浮上しています

AIニュース

大ニュース:Google、ジェミニAIモデルのローンチを延期

予想外の展開となり、Googleは最先端のAIモデル「Gemini」の高い期待を集めるローンチを来年の1月まで延期することを選びまし...

機械学習

「メタのMusicGenを使用してColabで音楽を生成する」

「ColabでMusicGenをセットアップする方法を学びましょうこの先進のテキストから音楽へ変換するモデルは、人工知能アルゴリズ...

AI研究

タイタン向けのOpenAIのミニAIコマンド:スーパーアライメントの解読!

AI(人工知能)の超人型人工知能(AI)への迫り来る課題に取り組むため、OpenAIが画期的な研究方向、つまり弱から強の汎化を...