Apple Siliconの世代と特徴
2020年のM1登場以来、AppleはほぼA年のペースでチップを更新し続けています。AI推論(ローカルLLM)という観点から各世代の特徴を理解しておきましょう。
- M1世代(2020〜2021年):Apple Siliconの初代。CPU・GPU・Neural Engineを1チップに統合。Unified Memoryの革新的なコンセプトを実現。最大メモリはM1 Ultraで128GB。
- M2世代(2022〜2023年):M1比でCPU約18%、GPU約35%の性能向上。M2 Ultraでは最大192GBメモリと800GB/sのメモリ帯域幅を実現。AI推論でM1世代を大きく上回る。
- M3世代(2023〜2024年):グラフィック性能の大幅向上が主眼。メモリ帯域幅はM2 Max比でわずかな改善にとどまり、AI推論速度では期待ほどの向上なし。
- M4世代(2024〜2025年):AI性能に特化したNeural Engineを強化。M4 Maxは546GB/sのメモリ帯域幅を誇り、M2 Ultra(800GB/s)には及ばないが高いコスパを実現。
重要なポイントは、世代よりもグレード(Pro/Max/Ultra)の方が推論速度への影響が大きいという事実です。M4のベースモデルよりM1 Maxの方がローカルLLM推論で速い場合があります。
スペック比較表 — M1からM4 Maxまで全モデル網羅
AI推論に関わる主要スペックを一覧で比較します。「メモリ帯域幅」が最も重要な指標です。
| チップ | 最大メモリ | メモリ帯域幅 | GPU コア数 | Neural Engine |
|---|---|---|---|---|
| M1 | 16GB | 68.25 GB/s | 7〜8コア | 16コア |
| M1 Pro | 32GB | 200 GB/s | 14〜16コア | 16コア |
| M1 Max | 64GB | 400 GB/s | 24〜32コア | 16コア |
| M1 Ultra | 128GB | 800 GB/s | 48〜64コア | 32コア |
| M2 | 24GB | 100 GB/s | 8〜10コア | 16コア |
| M2 Pro | 32GB | 200 GB/s | 16〜19コア | 16コア |
| M2 Max | 96GB | 400 GB/s | 30〜38コア | 16コア |
| M2 Ultra | 192GB | 800 GB/s | 60〜76コア | 32コア |
| M4 | 32GB | 120 GB/s | 10コア | 38コア |
| M4 Pro | 64GB | 273 GB/s | 20コア | 38コア |
| M4 Max | 128GB | 546 GB/s | 40コア | 38コア |
M4 Ultraは2025年後半に登場見込みで、最大256GB・1,092 GB/sのメモリ帯域幅が期待されています。現時点ではM2 UltraがAI推論において最大メモリ・最大帯域幅の両面でトップに位置しています。
AI推論速度の実測比較 — トークン/秒で見る実力
Ollama + Llama-3.1-8B(Q4_K_M量子化)を使った場合の実測推論速度(tokens/sec)の目安です。値はコミュニティベンチマークの平均的な結果です。
| チップ | メモリ | 8B Q4 (t/s) | 70B Q4 (t/s) | 備考 |
|---|---|---|---|---|
| M1 | 16GB | 約28 | — | 70Bはメモリ不足 |
| M1 Pro | 32GB | 約55 | — | 70Bはメモリ不足 |
| M1 Max | 64GB | 約95 | 約8 | 70Bはギリギリ動作 |
| M1 Ultra | 128GB | 約175 | 約18 | 快適 |
| M2 | 24GB | 約38 | — | 70Bはメモリ不足 |
| M2 Pro | 32GB | 約62 | — | 70Bはメモリ不足 |
| M2 Max | 96GB | 約110 | 約12 | 快適 |
| M2 Ultra | 192GB | 約185 | 約22 | 最速・快適 |
| M4 | 32GB | 約55 | — | 70Bはメモリ不足 |
| M4 Pro | 64GB | 約90 | 約10 | 動作可能 |
| M4 Max | 128GB | 約160 | 約20 | 快適 |
人間が読める速度(約15〜20 tokens/sec)という基準で考えると、M1 Max以上のチップで8Bモデルを動かせばストレスなく使用できます。70Bモデルを快適に扱いたい場合はM1 Ultra / M2 Max以上が必要です。
コスパ分析 — 中古価格÷性能で最強チップを見つける
新品・中古の実勢価格と推論速度(8B Q4)から、「1トークン/秒あたりのコスト」を算出してコスパを比較します。(価格は2026年2月時点の中古市場概算)
| チップ / 構成 | 中古概算価格 | 8B 速度(t/s) | コスパ指数 (低いほど良い) |
|---|---|---|---|
| M1 / 16GB | 約5万円 | 28 | 1,786 |
| M1 Max / 64GB | 約18万円 | 95 | 1,895 |
| M1 Ultra / 128GB | 約45万円 | 175 | 2,571 |
| M2 / 24GB | 約9万円 | 38 | 2,368 |
| M2 Pro / 32GB | 約12万円 | 62 | 1,935 |
| M2 Max / 96GB | 約30万円 | 110 | 2,727 |
| M2 Ultra / 192GB | 約65万円 | 185 | 3,514 |
| M4 Pro / 64GB | 約30万円(新品) | 90 | 3,333 |
コスパ指数(価格÷速度)が低いほど効率的です。中古M1(16GB)は速度は遅いが圧倒的にコスパが高く、入門用として魅力的です。本格的なAI用途ではM1 Maxが推論速度・価格・メモリのバランスが最も優れた選択肢と言えます。
結論:用途別おすすめチップ
以上の分析をもとに、用途別のおすすめチップをまとめます。
入門・お試しにはM1またはM2(16GB)
5〜9万円の中古で入手でき、7Bクラスのモデルで基本的なローカルAI体験ができます。「まずOllamaを試してみたい」「ChatGPTの代替としてプライベートなAIが欲しい」というニーズに答えます。ただし、将来のモデル大型化への対応力は低いため、長期使用には不向きです。
日常利用の主力にはM1 Max(32〜64GB)
中古市場で18〜25万円程度で入手可能。400 GB/sの帯域幅で8Bモデルが約95 tokens/secという快適な速度で動作します。64GBモデルなら70Bも動作でき、長期にわたって主力機として活躍します。コスパと性能のバランスが最も優れた選択肢です。
本格的なAI開発にはM2 Ultra(96〜192GB)
800 GB/sのメモリ帯域幅と最大192GBのUnified Memoryで、量子化なしの70Bモデルや複数モデルの並列処理が可能です。OpenClawのマルチエージェント構成を本格的に運用したい、AI研究に取り組みたいというプロフェッショナルに最適です。中古市場での入手は難しい場合もありますが、Mac Clawに出品されることがあります。