技術共有

LLaMA2 モデルは商用利用向けのオープンソースです。その強度は ChatGPT に匹敵し、AI の新たな高みを探ります

2024-07-08

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

【大型モデル】市販のさらに強力なLLaMA2はこちら

LLaMA2 の概要

2023 年 7 月 19 日: Meta がオープンソース商用モデル Llama 2 をリリースしました。

Llama 2 は、事前トレーニングされ、微調整された生成テキスト モデルのコレクションであり、そのサイズは 70 億から 700 億のパラメーターに及びます。

Llama-2-Chat と呼ばれる微調整された LLM は、会話のユースケース向けに最適化されています。 Llama-2-Chat モデルは、テストしたほとんどのベンチマークでオープンソース チャット モデルを上回り、有用性とセキュリティに関する人による評価では、ChatGPT や PaLM などの人気のあるクローズド ソース モデルと同等です。

LLaMA-2-chat は、RLHF を実行するほぼ唯一のオープンソース モデルです。 5 ラウンドの RLHF の後、Meta 独自の報酬モデルと GPT-4 の評価では、LLaMA-2 が ChatGPT よりも優れたパフォーマンスを示しました。

https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/

GitHub

住所:
https://github.com/facebookresearch/llama

抱き合う顔

住所:
https://huggingface.co/meta-llama

機種一覧

Llama2チャット:

ラマ2-チャット-7B

ラマ2チャット13B

ラマ2-チャット-70B

他のモデルについては、以下をご確認ください。
https://huggingface.co/meta-llama

トレーニングデータ

  1. 2 兆を超えるトークンのデータセットでトレーニングされました。
  2. 微調整データには、公開されている指示データセットに加え、人間が注釈を付けた 100 万を超える新しいサンプルが含まれています。
  3. 事前トレーニング データの期限は 2022 年 9 月です

トレーニング情報

  1. すべてのモデルは、400 万トークンのグローバル バッチ サイズを使用してトレーニングされます。
  2. より大きな 700 億のパラメーター モデルでは、Grouped-Query Attendance (GQA) を使用して推論のスケーラビリティを向上させています。
  3. 研修期間は2023年1月から2023年7月まで。
  4. プレーンテキストモデルです。
  5. 事前トレーニング プロセス中に、A100-80GB に 330,000 GPU 時間が費やされました。

機種情報

コンテキスト長は 4K です。

ライセンス

商用利用は無料

登録申請が必要です

参照する

https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/

https://github.com/facebookresearch/llama

https://huggingface.co/meta-llama

ラマ2-チャット-7B

ラマ2チャット13B

ラマ2-チャット-70B