OpenAIがBaby Llamaを発表 – 低電力デバイス向けのLLM!

OpenAI announces Baby Llama - LLM for low-power devices!

人工知能の世界からの最新ニュース! OpenAIの有名な深層学習の専門家、Andrej Karpathy氏が、リソース制約のあるデバイス上で複雑なモデルを実行する方法を革新する可能性のあるエキサイティングな週末プロジェクトに取り組んでいます。彼の「Baby Llama」という作品は、Llama 2モデルの簡略化バージョンであり、純粋なCコードの力とその小さなマシンで高度にインタラクティブなレートを実現する可能性を示しています。この画期的な開発について詳しく見ていきましょう!

また読む:OpenAI、AIモデルの公開を通じてオープンソース競争に参加

インタラクティブレートを目指して – ベビーラマの誕生

深層学習の分野でのパイオニアであるAndrej Karpathy氏は、新しい可能性を探求する好奇心に駆られ、オープンソースのLlama 2のポテンシャルを解き放つための使命に取り組みました。週末にGPT-5を構築する能力を持っていたにもかかわらず、Karpathy氏はAIの限界を押し広げる情熱を示すためにLlama 2の実験に時間を費やしました。

また読む:MetaのLlama 2:商業利用のためのオープンソース化

GPT-2からLlama 2への変換:週末の実験

GithubのリポジトリであるLlama2.cで、Karpathy氏は彼の創造的なプロセスについての洞察を共有しました。彼はnanoGPTフレームワークを使用し、Cプログラミング言語で書かれたLlama 2アーキテクチャに巧みに変換しました。その結果、彼のリポジトリは短期間で2.2K以上のスターを集めることができました。

リソース制約モデルでのインタラクティブレート

Karpathy氏の実験の中で最も驚くべき成果の一つは、比較的小さいモデルで非常にインタラクティブなレートを実現できたことです。数百万のパラメータを含むモデルを使用しており、1500万のパラメータでトレーニングされたTinyStoriesデータセットを使用していますが、Karpathy氏のアプローチは驚くほど成功しました。

また読む:30BのパラメータでGPT-3を凌駕する新しいAIモデル

低電力デバイスでの驚異的な速度

Karpathy氏は自身のM1 MacBook Airで見事な結果を達成しました。Llama 2モデルは約1500万のパラメータを持ち、fp32(単精度浮動小数点)計算で約100トークン/秒という驚異的な推論速度を示しました。この驚くべき結果は、リソース制約のあるデバイスで洗練されたモデルを簡単に実行できる可能性を示しています。

また読む:GPT-3から将来の言語モデルへ

限界を押し広げる – より大きく、より良い

初期の成功に励まされたKarpathy氏は、限界を押し広げ続けました。彼はリポジトリを積極的に更新し、3倍の大きさの4400万パラメータモデルをテストすることにも取り組みました。驚くべきことに、彼はわずか約8時間で32のバッチサイズで4つのA100 GPU上で200kのイテレーションをトレーニングすることができました。

また読む:DeepMindのAIマスターゲーマー:2時間で26ゲームを学習

LLaMA.cppとPyTorchの接続からのインスピレーション

Karpathy氏は、彼のプロジェクトがGeorgi Gerganov氏の「llama.cpp」に強く影響を受けたことを認めています。それはCとC ++を使用してMacBookでLLaMAを使用することを目指したプロジェクトです。Karpathy氏のアプローチは、PyTorchを使用してLlama 2 LLMアーキテクチャをゼロからトレーニングすることから始まりました。それから彼は500行のCファイル「run.c」を使用して、外部ライブラリを必要とせずに最小限のメモリ使用量で推論を行いました。

パフォーマンス向上のための微調整

Cコードをさらに最適化するため、Karpathy氏はさまざまなテクニックを試しました。これには、-O3、-Ofast、-march=nativeなどの異なるコンパイルフラグを使用することが含まれます。これらのフラグは、ベクトル化、ループアンローリング、その他のハードウェア固有のチューニングを可能にし、特定のシステムでさらに高速な推論を実現しました。

まだ展開には向いていない – しかし未来の一端

Karpathy氏の週末の実験は画期的な成功となりましたが、Baby Llamaは本格的なデプロイメントを意図したものではないことを明確にしています。主な目的は、低電力デバイス上でLlama 2モデルを実行する可能性を示すことでした。この実験は、機械学習にはGPUが必要とされるという一般的な信念に挑戦しています。

小型デバイスにおけるAIの未来を形作る

Karpathy氏の実験の影響は、週末のプロジェクトの領域を超えています。GPUを必要とせずに、小型のローカルデバイスにモデルを統合する先例を設定しています。このブレークスルーにより、マイクロソフトはMetaとのパートナーシップを通じて、Llama 2を基にした一連の小さなLLMをリリースする可能性があり、AIのアクセシビリティの新時代を迎えることができるでしょう。

また読む: マイクロソフトがLLMの自動プロンプト最適化フレームワークを導入

私たちの意見

Andrej Karpathy氏は、Llama 2モデルの簡略化バージョンとしてBaby Llamaを発表しました。その開発は、低電力デバイス上で純粋なCコードを使用してAIモデルを実行するという莫大なポテンシャルを示しています。このモデルは驚異的な対話速度と高速な推論を持ち、素晴らしい未来を約束しています。この画期的な実験は、リソース制約のあるマシンでも複雑なAIアプリケーションが成功する未来の舞台を設定しています。AIの世界は間違いなくパラダイムシフトを経験しており、Baby Llamaはその始まりかもしれません!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

AIによる生産性向上 生成AIが様々な産業において効率の新たな時代を開く

2022年11月22日、ほとんど仮想的な瞬間が訪れ、それは地球上のほぼすべての産業の基盤を揺るがしました。 その日、OpenAIは史...

データサイエンス

AIのオリンピック:機械学習システムのベンチマーク

何年もの間、4分以内で1マイルを走ることは、単なる困難な課題ではなく、多くの人にとっては不可能な偉業と考えられていまし...

AIニュース

「サイバーセキュリティとAI、テキサスサイバーサミットの中心に」

「テキサスサイバーサミット2023のレビューに飛び込んでくださいAIがセキュリティに与える影響を知り、ゼロトラスト戦略につ...

機械学習

DeepMind RoboCat:自己学習ロボットAIモデル

世界的に有名なAI研究所であるDeepMindは、ロボットアームの様々なモデルを使用して幅広い複雑なタスクを実行できるAIモデルR...

人工知能

「2023年版AI音声生成器の究極ガイド」

導入 人工知能(AI)の導入により、さまざまな産業で画期的な進歩が生まれています。AI音声生成器の登場は、AIが人間の振る舞...

機械学習

量子AI:量子コンピューティングの潜在能力を機械学習で解き明かす

この記事では、量子機械学習について、現在の課題、機会、評価、成熟度、およびタイムリーさについて、読者がより詳しく学ぶ...