OpenAIは、新しいオープンウェイトモデル「gpt-oss」を発表しました。このモデルはMacを含む自身のハードウェアでローカルに実行できることが特徴です。
モデルには「gpt-oss-20b」と「gpt-oss-120b」の2種類があります。前者は中型モデル、後者は大型モデルとされています。Appleシリコンを搭載したMacでは中型モデルをローカルで実行することが可能で、より高速な動作が期待されますが、データセットのサイズが小さいため、誤った情報を生成する可能性が高いということです。
ローカルモデルを使用する際には、ChatGPTのようなオンラインモデルとは異なる点に注意が必要です。例えば、ウェブ結果を考慮した回答が含まれていないため、誤った情報の生成が制限されることはありません。
OpenAIはgpt-oss-20bを実行するには少なくとも16GBのRAMが必要だとしています。RAMが多ければ性能が向上するということです。特に実験目的であれば、16GBは最低限の要件とされています。
セットアップは非常に簡単です。まず、OllamaをMacにインストールします。このアプリはgpt-oss-20bとのインターフェースを提供します。次に、Macのターミナルを開いて以下のコマンドを入力します。
ollama pull gpt-oss:20bollama run gpt-oss:20b
これにより、gpt-oss-20bがダウンロードされ、約15GBのディスクストレージを使用します。
Ollamaを起動し、gpt-oss-20bを選択すると、ローカルでの実行が可能になります。アプリの設定パネルで飛行機モードを選択すれば、すべてがローカルで行われることを確認できます。
gpt-oss-20bをテストするには、テキストフィールドにプロンプトを入力し、モデルが動作する様子を観察します。ハードウェアリソースがモデルの性能を左右するため、Macの動作が遅くなることがあります。
私のMacBook Air(15インチ、M4、16GB RAM)では、モデルは動作しますが、実験にはかなりの負荷がかかります。「こんにちは」と入力した際には5分以上かかり、「第13代大統領は誰か」という質問には約43分かかりました。実験を続けるには、より多くのRAMが必要です。
ローカルモデルを削除してディスクスペースを解放したい場合は、次のターミナルコマンドを入力します。
ollama rm gpt-oss:20b
Ollamaとgpt-oss-20bをMacで使用する詳細については、公式のリソースをご覧ください。また、AIモデルを扱うための別のMacアプリであるLM Studioも利用可能です。