Code Llamaが発表!コードに特化した生成AIの概要と使い方
thumb_codellama_01
Code Llamaが発表!コードに特化した生成AIの概要と使い方
アンドエンジニア編集部
2023.10.10
この記事でわかること
Code Llamaは、Llama 2をベースとするコードの生成や解釈に特化した生成AIです
「Code Llama」「Codel Llama - Python」「Code Llama - Instruct」が提供されます
商用利用可能なLLMで、一般的な多くの汎用プログラミング言語に対応します

大規模言語モデル「Code Llama」が発表

img_codellama_01

Metaは2023年8月24日、コードに特化した大規模言語モデル「Code Llama」を発表しました。

Code Llamaは、Llama 2をベースに構築されたもので、プログラミングコードとコードに関する自然言語を生成できる最先端のLLMと述べられています。Llamaは「Large Language Model Meta AI」の略で、ラクダ科のラマと同じです。

【参考】:Meta AI: Introducing Code Llama, a state-of-the-art large language model for coding 【参考】:GitHub: FacebookResearch / codellama 【参考】:Meta AI: Introducing Llama 2

自然言語処理とは?注目される理由やできることをわかりやすく解説

Code Llamaの概要

img_codellama_02

Code Llamaは、Metaが開発した商用利用可能なLLMで、プログラミングコードとコードに関する自然言語に対して、プロンプトから指示を与えて利用します。月間アクティブユーザーが7億人を超えない範囲では、ライセンス条項にしたがって無料で使うことができます。

Code Llamaには、以下の3つのモデルバリエーションを用意し、多様な用途に対応します。

Code Llama  基本となるコード・モデルです。

Codel Llama - Python  Pythonに特化したコード・モデルです。

Code Llama - Instruct  自然言語の命令を理解するためにチューニングを施したモデルです。

Meta社では、公開されている他のLLMとの比較のためにベンチマークテストを実施しており、「Code Llamaは、コードタスクにおいて他社を上回る結果が得られた」としています。

【参考】:Meta AI: Introducing Code Llama, a state-of-the-art large language model for coding 【参考】:LLAMA 2 COMMUNITY LICENSE AGREEMENT

プロンプトエンジニアリングとは?実用例も交えてポイントを解説!

Code Llamaのメリット

Code Llamaのメリットですが、コード生成にテキストプロンプトを使用することで、開発者はワークフローをより高速かつ効率的に実施することが可能です。コーディングに不慣れな方でも、学習のための参入障壁を低くすることが期待できます。

Metaでは、「Code Llamaが、プログラマーがより堅牢で文書化されたソフトウェアを書くための生産性向上ツールや教育ツールとして利用される可能性を秘めている」と述べています。

【参考】:Meta AI: Introducing Code Llama, a state-of-the-art large language model for coding

Code Llamaの仕組み

Code Llamaは、Llama 2をコードに特化させたバージョンであり、コードに特化したデータセットでさらに訓練し、同じデータセットからより多くのデータをより長くサンプリングすることによって作成されています。

強化されたコーディング機能を備えており、コードと自然言語のプロンプトの両方から、コードとコードに関する自然言語を生成することができます。

プログラミング言語は、Python、C++、Java、PHP、Typescript(Javascript)、C#、Bashなど、一般的な言語の多くがサポートされます。

【参考】:Meta AI: Introducing Code Llama, a state-of-the-art large language model for coding

bashとは?シェルの概要から他のシェルとの違いまで解説!

Code Llamaのモデルサイズ

Code Llamaでは、それぞれ7B(70億)、13B(130億)、34B(340億)のパラメータを持つ3つのモデルサイズがあります。それぞれ、500B(5,000億)トークンのコードとコード関連データでトレーニングされています。

3つのモデルの違いですが、7Bモデルは1つのGPUで処理できるコンパクトモデルです。34Bモデルは最高の結果を返し、より良いコーディング支援を可能にするパワフルなモデルです。

7Bと13Bモデルはコンパクトな割に高速で、リアルタイムのコード補完のような低レイテンシを必要とするタスクに適しているなど、多様な用途にそれぞれのモデルで対応が可能です。

【参考】:Meta AI: Introducing Code Llama, a state-of-the-art large language model for coding

Code Llamaのモデルバリエーション

Code Llamaでは、合わせて「Code Llama - Python」と「Code Llama - Instruct」のバリエーションもモデルを提供します。

「Code Llama - Python」は、Code LlamaのPython言語に特化したモデルで、100B(1,000億)トークンのPythonコードでチューニングされています。Pythonはコード生成で良く用いられるプログラミング言語であり、有効なソリューションと言えるでしょう。

「Code Llama - Instruct」は、Code Llamaをベースにチューニングしたモデルです。インストラクションのチューニングでは、モデルに対して「自然言語命令」の入力と期待される出力が与えられています。

人間がプロンプトから何を期待しているのかを理解することができるように、自然言語で親切で安全な答えを生成するように調整されています。

【参考】:Meta AI: Introducing Code Llama, a state-of-the-art large language model for coding

Code Llamaのパフォーマンス

Code Llamaのパフォーマンスは、Metaによってベンチマークテストを実施しており、レポートが公開されています。Metaによると、「Code Llamaはオープンソースのコードに特化したLLMよりも優れた性能を発揮し、Llama 2を上回った」と述べています。

レポートは客観的に多くのLLMを比較し、結果を報告しています。

【参考】:Meta AI: Introducing Code Llama, a state-of-the-art large language model for coding 【参考】:Meta AI: Code Llama: Open Foundation Models for Code

Code Llamaの使い方

img_codellama_03

Code Llamaを使用するには、これまでのLlama 2のようにウェブのチャットサービスを使うほか、ローカルにセットアップして使用します。

ウェブサイトでは、「PERPLEXITY LABS」や「Code Llama Playground」など、Code Llamaを用いた生成AIサービスが公開されています。試してみたい場合は、ウェブサイトを使うと面倒な作業なしに利用することができます。

「PERPLEXITY LABS」のチャットサイトに質問したところ、日本語にも対応できているようです。

【参考】:GitHub: FacebookResearch / codellama 【参考】:PERPLEXITY LABS: LLaMa Chat 【参考】:Code Llama Playground

Code Llamaをローカルマシンで使用する

Code Llamaをローカルマシンで使用するには、Code Llamaのモデルコードなどのダウンロードとセットアップが必要です。Metaの申込みサイトからアクセスリクエストを行い、許可が得られると、ダウンロードURLがメールで送付されます。

7B、13B、34Bの各モデルに応じてモデルのサイズが異なりますので、自身の環境に合わせてモデルを選択します。

セットアップ時には、事前に訓練されたモデルを使って、プロンプトと結果を調整していきます。サンプルファイルのexample_completion.py、example_infilling.py、example_instructions.pyを確認すると良いでしょう。

【参考】:GitHub: FacebookResearch / codellama 【参考】:Meta AI: Request access to the next version of Llama

Code Llamaを使用する

Code Llamaを使用するには、いくつかの方法があります。Pythonからのアクセスは、「llama-cpp-python」を使用します。ローカルの環境が物足らない場合は、Google ColaboratoryのGPUを使用して実行することもできます。

【参考】:Python Bindings for llama.cpp 【参考】:Google Colaboratory

その他に開発環境やコードインタープリターを使用する方法もあります。VS Codeで使用するには、「Continue」をVisual Studio Marketplaceから入手します。VS Codeの環境に、生成AI機能を組み込むことができます。ターミナルから使用するには、「Open Interpreter」を導入するのが簡単な方法です。

それぞれのツールからCode Llamaを使用するまでの具体的な手順は、以下のリンク先をご確認ください。

【参考】:Continue - Use Code Llama in VS Code 【参考】:Continue: Using Code Llama with Continue 【参考】:Open Interpreter

Code Llamaはコード生成に特化して差別化がされている

img_codellama_04

Code Llamaは、汎用プログラミングに対応するとともに、Pythonなど生成AIのニーズが高い専用モデルにも対応しています。ベースとなるLlama 2は、マイクロソフトのパートナー向けイベント「Microsoft Inspire」でも連携強化が表明されています。

今後、汎用の生成AIの活用とともに、用途ごとに生成AIのモデルが広がることも予想されます。コーディングに関してはMetaが「Code Llama」で差別化を図っているとみて良いでしょう。

気になる人のXをフォローしよう!
アンドエンジニア公式LINEでは
新着記事やエンジニアに役立つ情報をお届け!
日々のキャッチアップをお手伝いします!
マイナビITエージェント

編集部オススメコンテンツ

Sponsored
【年収±診断】6つの質問に答えて、真の市場価値をチェック!
マイナビITエージェント
Sponsored

アンドエンジニアへの取材依頼、情報提供などはこちらから

お問い合わせ・情報提供
はじめて転職される方へ
SE・システムエンジニア(IT/通信/インターネット) 求人一覧

編集部おすすめコンテンツ

Sponsored
【年収±診断】6つの質問に答えて、真の市場価値をチェック!
マイナビITエージェント
Sponsored

アンドエンジニアへの取材依頼、情報提供などはこちらから

Powered by マイナビ AGENT