「テキスト生成推論によるコンピュータからの大規模言語モデルの提供」

Providing large-scale language models from computers using text generation inference

Falcon-7BのInstructバージョンの例

Nana Duaさんによる写真、Unsplashから

QLoRaやGPTQなどの量子化手法のおかげで、消費者向けハードウェア上で非常に大きな言語モデル(LLM)をローカルで実行することができるようになりました。

LLMの読み込みにかかる時間の長さを考慮すると、LLMをメモリに保持してクエリを実行し、結果を即座に得ることも望ましいでしょう。標準の推論パイプラインでLLMを使用する場合、モデルを毎回再読み込みする必要があります。モデルが非常に大きい場合、モデルが出力を生成するまで数分待つ必要があるかもしれません。

LLMをサーバー(ローカルまたはリモート)にホストするためのさまざまなフレームワークがあります。私のブログでは、NVIDIAが開発した非常に最適化されたフレームワークであるTriton Inference Serverを既に紹介しています。このフレームワークを使用すると、複数のLLMを提供し、GPU間の負荷を分散させることができます。ただし、1つのGPUしか持っておらず、モデルをコンピューター上にホストしたい場合、Triton Inferenceの使用は適していないかもしれません。

この記事では、Text Generation Inferenceという代替手法を紹介します。これは、消費者向けハードウェア上でLLMを実行し提供するための最小限の機能を実装したより直感的なフレームワークです。

この記事を読み終えると、コンピューター上にローカルで展開され、クエリを待機するチャットモデル/LLMを持つことができます。

テキスト生成インファレンス

テキスト生成インファレンス(TGI)は、LLMを展開し提供するためのRustとPythonで書かれたフレームワークです。Hugging Faceによって開発され、Apache 2.0ライセンスで配布されています。Hugging Faceは、製品で推論ウィジェットのパワーとして使用しています。

TGIはA100 GPU向けに最適化されていますが、RTX GPUなどの消費者向けハードウェアでも、量子化とページドアテンションのサポートにより、TGIは非常に適していると私は見つけました。ただし、RTX GPUをサポートするためには特定のインストールが必要です。これについては、この記事で後ほど詳しく説明します。

最近、Hugging FaceがいくつかのLLMアーキテクチャを最適化して、TGIでより高速に実行できるようにしていることも分かりました。

例えば、Falconモデルは、標準の推論パイプラインで実行すると比較的遅いですが、TGIを使用するとはるかに高速です…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

高性能意思決定のためのRLHF:戦略と最適化

はじめに 人間の要因/フィードバックからの強化学習(RLHF)は、RLの原則と人間のフィードバックを組み合わせた新興の分野で...

データサイエンス

「StackOverflowが生成型AIに対応する方法」

OverflowAIは、強力な生成AIループによってプロセスを効率化することで、コンテンツ作成を革命化します

機械学習

「仕事は続けられますが、同じ仕事ではありません」

「AIが私たちのコーディングスキルに迫っている一方で、人間の言語を完全に習得したわけではありませんそれが私たちの競争上...

データサイエンス

「データの血統と現代データ管理におけるその重要性」

データの系譜は、データの流れを理解し、品質、規制遵守、セキュリティを確保するために非常に重要ですそれは現代のデータ管...

データサイエンス

AIはETLの再発明に時間を浪費する必要はない

「AIコミュニティはデータ統合を再発明しようとしていますが、現在のETLプラットフォームは既にこの問題を解決していますなぜ...

データサイエンス

Distributed Tracing Best Practices'の日本語訳は以下の通りです: 分散トレーシングのベストプラクティス

分散トレーシングは現代の観測スタックでの定番となっていますマイクロサービスへの移行に伴い、私たちはサービス同士の相互...