9to5mac
2025年8月8日
6分で読めます

OpenAIの新モデルでMacをChatGPTに変える方法

OpenAIは新しいオープンウェイトモデル「gpt-oss」を発表しました。これにより、MacでローカルにAIモデルを実行することが可能になります。

NihonTechHub

NihonTechHub

技術系ジャーナリスト
OpenAI-Mac-ローカル-ChatGPT

OpenAIは、新しいオープンウェイトモデル「gpt-oss」を発表しました。このモデルはMacを含む自身のハードウェアでローカルに実行できることが特徴です。

モデルには「gpt-oss-20b」と「gpt-oss-120b」の2種類があります。前者は中型モデル、後者は大型モデルとされています。Appleシリコンを搭載したMacでは中型モデルをローカルで実行することが可能で、より高速な動作が期待されますが、データセットのサイズが小さいため、誤った情報を生成する可能性が高いということです。

ローカルモデルを使用する際には、ChatGPTのようなオンラインモデルとは異なる点に注意が必要です。例えば、ウェブ結果を考慮した回答が含まれていないため、誤った情報の生成が制限されることはありません。

OpenAIはgpt-oss-20bを実行するには少なくとも16GBのRAMが必要だとしています。RAMが多ければ性能が向上するということです。特に実験目的であれば、16GBは最低限の要件とされています。

セットアップは非常に簡単です。まず、OllamaをMacにインストールします。このアプリはgpt-oss-20bとのインターフェースを提供します。次に、Macのターミナルを開いて以下のコマンドを入力します。

ollama pull gpt-oss:20bollama run gpt-oss:20b

これにより、gpt-oss-20bがダウンロードされ、約15GBのディスクストレージを使用します。

Ollamaを起動し、gpt-oss-20bを選択すると、ローカルでの実行が可能になります。アプリの設定パネルで飛行機モードを選択すれば、すべてがローカルで行われることを確認できます。

gpt-oss-20bをテストするには、テキストフィールドにプロンプトを入力し、モデルが動作する様子を観察します。ハードウェアリソースがモデルの性能を左右するため、Macの動作が遅くなることがあります。

私のMacBook Air(15インチ、M4、16GB RAM)では、モデルは動作しますが、実験にはかなりの負荷がかかります。「こんにちは」と入力した際には5分以上かかり、「第13代大統領は誰か」という質問には約43分かかりました。実験を続けるには、より多くのRAMが必要です。

ローカルモデルを削除してディスクスペースを解放したい場合は、次のターミナルコマンドを入力します。

ollama rm gpt-oss:20b

Ollamaとgpt-oss-20bをMacで使用する詳細については、公式のリソースをご覧ください。また、AIモデルを扱うための別のMacアプリであるLM Studioも利用可能です。

NihonTechHub

About NihonTechHub

日本の最新テクノロジーやスタートアップ情報を発信するプラットフォームです。国内外のイノベーションをつなぎ、未来を切り開くための知識とインスピレーションを提供します。

OpenAIの新モデルでMacをChatGPTに変える方法