Gradient Checkpointing、LoRA、およびQuantizationを使用して、単一のGPUにLLMをフィットさせてください

Gradient Checkpointing、LoRA、Quantizationを使って、単一のGPUにLLMをフィットさせてください

大規模な言語モデルの微調整を試みたことがある人は、GPUメモリを扱うのがいかに困難かを知っています。

「ランタイムエラー:CUDAエラー:メモリ不足」

このエラーメッセージは私の夜を悩ませています。

3B、7B、または13Bのパラメータモデルは大きく、微調整は時間がかかります。トレーニング中にメモリが不足すると、イライラする上にコストがかかることもあります。

しかし、心配しないでください、私が手助けします!

この記事では、次の3つのテクニックを使って、知っておく必要があるか、既に使っているかもしれない方法について説明します:Gradient Checkpointing、Low-Rank Adapters、およびQuantization

これらは、トレーニング中にメモリが不足するのを防ぎ、多くの時間を節約するのに役立ちます。

もしLLMの微調整に慣れていない場合は、私がBloom-3Bを「指輪物語」の本に対して微調整する過程を解説した記事があります。

個人データでLLMを微調整:「指輪物語」のストーリーテラーを作ろう

個人データでLLMを微調整できるようになりました。個人情報を管理しながらコントロールを維持できます…

VoAGI.com

さあ、始めましょう!

Amritanshu Sikdar氏の写真(Unsplash)

Gradient Checkpointing

Gradient Checkpointingは、ニューラルネットワークのトレーニング中に、最小限の層のみを保持するために動的計算を使用する技術です。

このプロセスを理解するためには、逆伝播がどのように行われ、プロセス全体でレイヤーがGPUメモリに保存されるかを理解する必要があります。

フォワードとバックワード伝播の基礎

フォワード伝播とバックワード伝播は、ディープニューラルネットワークのトレーニングの2つのフェーズです。

3Blue1Brown Youtubeチャンネルより

フォワードパスでは、入力がベクトル化され(画像をピクセルに変換し、テキストを埋め込みに変換する)、各要素は線形積和と活性化の連続を通じてニューラルネットワーク全体で処理されます…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「シフトのCEOであるクリス・ナーゲル – インタビューシリーズ」

クリスはSiftの最高経営責任者です彼は、Ping Identityを含むベンチャー支援および公開SaaS企業のシニアリーダーシップポジシ...

人工知能

ベイリー・カクスマー、ウォータールー大学の博士課程候補 - インタビューシリーズ

カツマー・ベイリーは、ウォータールー大学のコンピュータ科学学部の博士課程の候補者であり、アルバータ大学の新入教員です...

人工知能

「Zenの共同創設者兼CTO、イオン・アレクサンドル・セカラ氏によるインタビューシリーズ」

創業者兼CTOであるIon-Alexandru Secaraは、Zen(PostureHealth Inc.)の開発を牽引しており、画期的な姿勢矯正ソフトウェア...

人工知能

「パクストンAIの共同創業者兼CEO、タングイ・シャウ - インタビューシリーズ」

タングイ・ショウは、Paxton AIの共同創設者兼CEOであり、法的研究と起草の負担を軽減するためにGenerative AIを使用するプラ...

人工知能

エンテラソリューションズの創設者兼CEO、スティーブン・デアンジェリス- インタビューシリーズ

スティーブン・デアンジェリスは、エンタラソリューションズの創設者兼CEOであり、自律的な意思決定科学(ADS®)技術を用いて...

人工知能

『DeepHowのCEO兼共同創業者、サム・ジェン氏によるインタビューシリーズ』

ディープハウのCEO兼共同創設者であるサム・ジェンは、著名な投資家から支持される急速に進化するスタートアップを率いていま...