掲載済み (2025-08-10号)
#257 467文字 • 3分

## gpt-ossがすごい!!ローカルで120bと20bを動かしてみた(Mac、メモリ128GB)

掲載情報

概要

https://zenn.dev/acntechjp/articles/e8206aaa1bef3e

詳細内容

## gpt-ossがすごい!!ローカルで120bと20bを動かしてみた(Mac、メモリ128GB) https://zenn.dev/acntechjp/articles/e8206aaa1bef3e OpenAIが発表した商用利用可能なオープンソースLLM「gpt-oss」は、高性能なローカル実行により、データプライバシーとコスト効率を両立させ、AI開発の新たな可能性を切り開きます。 **Content Type**: ⚙️ Tools **Scores**: Signal:4/5 | Depth:4/5 | Unique:3/5 | Practical:5/5 | Anti-Hype:4/5 **Main Journal**: 81/100 | **Annex Potential**: 77/100 | **Overall**: 80/100 **Topics**: [[LLM, ローカル実行, オープンソースAI, AI開発ツール, データプライバシー]] アクセンチュアの有志社員が、OpenAIが発表したオープンソースの大規模言語モデル「gpt-oss-120b」と「gpt-oss-20b」をMacBook Pro (M4 Max, 128GBメモリ) でローカル実行した結果を詳細に報告しています。本記事は、これらのモデルが商用利用可能なApache 2.0ライセンスで提供され、それぞれ「o3に匹敵」「o3-mini相当」の性能を持つことを強調。特に、ローカル環境での利用が、機密性の高いデータを外部に出せない、あるいはクラウド利用コストを抑えたいといった企業の課題解決に新たな道を開く可能性を示唆しています。 実際に試用した結果、gpt-ossモデルはブラウザ版ChatGPTと遜色ない高品質な出力を高速で生成し、プロンプトの前に「Reasoning(推論)」を行うことで高精度を期待できると評価されています。例えば、古民家カフェの起業方法に関する詳細なフローチャートや、ビジネスの別アプローチまで提案できる能力が示されました。一方で、20bモデルでは固有名詞のハルシネーションが見られましたが、120bモデルでは改善されている点も具体的に報告されており、モデルサイズによる精度の違いが明確です。また、リアルタイムデータへのアクセスはできないことや、LM Studio側の設定でトークン上限を変更できることにも言及されており、実用上の注意点も網羅されています。 Webアプリケーションエンジニアにとって重要なのは、これらの強力なAIモデルを自社のマシン上で直接動かせる点です。これにより、データ主権を確保しながら、AIを活用した開発や業務改善が加速される可能性があります。高価なGPUクラウドサービスに依存せず、M4 Maxのような高性能なローカル環境があれば、ChatGPTのブラウザ版と同等レベルのAI機能を低コストかつセキュアに利用できるため、AI導入の障壁が大きく下がる「ゲームチェンジャー」となるでしょう。特に、Agentic Workflowのような自律的なAIシステムをローカルで構築する際、これらのモデルは大きなアドバンテージをもたらすと期待されます。