アップルは、新しいAIモデル「DiffuCode-7B-cpGRPO」を公開したと発表しました。このモデルは、従来の大規模言語モデル(LLM)とは異なり、コードを順序を問わず生成することができ、複数の部分を同時に改善することが可能です。
この結果、コード生成が高速化され、オープンソースのトップコーディングモデルに匹敵する性能を持つということです。
従来のLLMはオートレグレッシブで、質問を受けると全体を処理し、最初のトークンを予測し、再処理して次のトークンを予測するというプロセスを繰り返しますが、新しいモデルはこれとは異なるアプローチを採用しています。
また、LLMには「温度」という設定があり、これは出力のランダム性を制御するものです。温度を上げることで、トークン生成の順序を柔軟に調整できるとしています。
このモデルは、オープンソースのLLM「Qwen2.5‑7B」を基にしており、アリババがコード生成を向上させるためにファインチューニングしたものです。アップルはこれをさらに調整し、独自の拡張を加えました。
結果として、「DiffuCode-7B-cpGRPO」は、人気のあるコーディングベンチマークで4.4%の性能向上を達成し、左から右への厳密な生成依存を低減したとしています。
今後、アップルの生成AIの取り組みがどのように進化し、ユーザーや開発者向けの機能や製品に反映されるかが注目されます。