Apple Siliconの世代と特徴
2020年のM1登場以来、AppleはほぼA年のペースでチップを更新し続けています。AI推論(ローカルLLM)という観点から各世代の特徴を理解しておきましょう。
- M1世代(2020〜2021年):Apple Siliconの初代。CPU・GPU・Neural Engineを1チップに統合。Unified Memoryの革新的なコンセプトを実現。最大メモリはM1 Ultraで128GB。
- M2世代(2022〜2023年):M1比でCPU約18%、GPU約35%の性能向上。M2 Ultraでは最大192GBメモリと800GB/sのメモリ帯域幅を実現。AI推論でM1世代を大きく上回る。
- M3世代(2023〜2024年):グラフィック性能の大幅向上が主眼。メモリ帯域幅はM2 Max比でわずかな改善にとどまり、AI推論速度では期待ほどの向上なし。
- M4世代(2024〜2025年):AI性能に特化したNeural Engineを強化。M4 Maxは546GB/sのメモリ帯域幅を誇り、M2 Ultra(800GB/s)には及ばないが高いコスパを実現。
重要なポイントは、世代よりもグレード(Pro/Max/Ultra)の方が推論速度への影響が大きいという事実です。M4のベースモデルよりM1 Maxの方がローカルLLM推論で速い場合があります。
スペック比較表 — M1からM4 Maxまで全モデル網羅
AI推論に関わる主要スペックを一覧で比較します。「メモリ帯域幅」が最も重要な指標です。
| チップ | 最大メモリ | メモリ帯域幅 | GPU コア数 | Neural Engine |
|---|---|---|---|---|
| M1 | 16GB | 68.25 GB/s | 7〜8コア | 16コア |
| M1 Pro | 32GB | 200 GB/s | 14〜16コア | 16コア |
| M1 Max | 64GB | 400 GB/s | 24〜32コア | 16コア |
| M1 Ultra | 128GB | 800 GB/s | 48〜64コア | 32コア |
| M2 | 24GB | 100 GB/s | 8〜10コア | 16コア |
| M2 Pro | 32GB | 200 GB/s | 16〜19コア | 16コア |
| M2 Max | 96GB | 400 GB/s | 30〜38コア | 16コア |
| M2 Ultra | 192GB | 800 GB/s | 60〜76コア | 32コア |
| M4 | 32GB | 120 GB/s | 10コア | 38コア |
| M4 Pro | 64GB | 273 GB/s | 20コア | 38コア |
| M4 Max | 128GB | 546 GB/s | 40コア | 38コア |
M4 Ultraは2025年後半に登場見込みで、最大256GB・1,092 GB/sのメモリ帯域幅が期待されています。現時点ではM2 UltraがAI推論において最大メモリ・最大帯域幅の両面でトップに位置しています。
AI推論速度の実測比較 — トークン/秒で見る実力
Ollama + Llama-3.1-8B(Q4_K_M量子化)を使った場合の実測推論速度(tokens/sec)の目安です。値はコミュニティベンチマークの平均的な結果です。
| チップ | メモリ | 8B Q4 (t/s) | 70B Q4 (t/s) | 備考 |
|---|---|---|---|---|
| M1 | 16GB | 約28 | — | 70Bはメモリ不足 |
| M1 Pro | 32GB | 約55 | — | 70Bはメモリ不足 |
| M1 Max | 64GB | 約95 | 約8 | 70Bはギリギリ動作 |
| M1 Ultra | 128GB | 約175 | 約18 | 快適 |
| M2 | 24GB | 約38 | — | 70Bはメモリ不足 |
| M2 Pro | 32GB | 約62 | — | 70Bはメモリ不足 |
| M2 Max | 96GB | 約110 | 約12 | 快適 |
| M2 Ultra | 192GB | 約185 | 約22 | 最速・快適 |
| M4 | 32GB | 約55 | — | 70Bはメモリ不足 |
| M4 Pro | 64GB | 約90 | 約10 | 動作可能 |
| M4 Max | 128GB | 約160 | 約20 | 快適 |
人間が読める速度(約15〜20 tokens/sec)という基準で考えると、M1 Max以上のチップで8Bモデルを動かせばストレスなく使用できます。70Bモデルを快適に扱いたい場合はM1 Ultra / M2 Max以上が必要です。
M1・M2・M4チップ コスパ分析 — 中古価格÷性能で最強を見つける
新品・中古の実勢価格と推論速度(8B Q4)から、「1トークン/秒あたりのコスト」を算出してコスパを比較します。(価格は2026年2月時点の中古市場概算)
| チップ / 構成 | 中古概算価格 | 8B 速度(t/s) | コスパ指数 (低いほど良い) |
|---|---|---|---|
| M1 / 16GB | 約5万円 | 28 | 1,786 |
| M1 Max / 64GB | 約18万円 | 95 | 1,895 |
| M1 Ultra / 128GB | 約45万円 | 175 | 2,571 |
| M2 / 24GB | 約9万円 | 38 | 2,368 |
| M2 Pro / 32GB | 約12万円 | 62 | 1,935 |
| M2 Max / 96GB | 約30万円 | 110 | 2,727 |
| M2 Ultra / 192GB | 約65万円 | 185 | 3,514 |
| M4 Pro / 64GB | 約30万円(新品) | 90 | 3,333 |
コスパ指数(価格÷速度)が低いほど効率的です。中古M1(16GB)は速度は遅いが圧倒的にコスパが高く、入門用として魅力的です。本格的なAI用途ではM1 Maxが推論速度・価格・メモリのバランスが最も優れた選択肢と言えます。
M1・M2・M4チップ 用途別おすすめ — 結論まとめ
以上の分析をもとに、用途別のおすすめチップをまとめます。
入門・お試しにはM1またはM2(16GB)
5〜9万円の中古で入手でき、7Bクラスのモデルで基本的なローカルAI体験ができます。「まずOllamaを試してみたい」「ChatGPTの代替としてプライベートなAIが欲しい」というニーズに答えます。ただし、将来のモデル大型化への対応力は低いため、長期使用には不向きです。
日常利用の主力にはM1 Max(32〜64GB)
中古市場で18〜25万円程度で入手可能。400 GB/sの帯域幅で8Bモデルが約95 tokens/secという快適な速度で動作します。64GBモデルなら70Bも動作でき、長期にわたって主力機として活躍します。コスパと性能のバランスが最も優れた選択肢です。
本格的なAI開発にはM2 Ultra(96〜192GB)
800 GB/sのメモリ帯域幅と最大192GBのUnified Memoryで、量子化なしの70Bモデルや複数モデルの並列処理が可能です。OpenClawのマルチエージェント構成を本格的に運用したい、AI研究に取り組みたいというプロフェッショナルに最適です。中古市場での入手は難しい場合もありますが、Mac Clawに出品されることがあります。
M4 Pro・M4 Max・M4 Ultra — 最新世代の詳細スペックと選び方
2024〜2025年にかけて登場したM4世代は、Apple Siliconの中で最もAI推論を意識した設計がなされています。Neural Engineが38コアに強化され、チップ全体の電力効率も向上しました。
M4 Pro — バランス型の本命
M4 Proは最大48GBのUnified Memoryと273 GB/sのメモリ帯域幅を持ちます(Apple公式仕様)。Mac mini M4 Proとして約23万円〜で購入可能で、7B〜13Bモデルを快適に動かせる実用的な選択肢です。
M1 Max(400 GB/s)と比較するとメモリ帯域幅では劣りますが、Neural Engineの世代差とCPU/GPUの効率改善により、実際の推論速度はモデルによってはM1 Maxに近い水準に達するとコミュニティベンチマークで報告されています。
M4 Max — 大容量メモリ×高帯域の新標準
M4 Maxは最大128GBのUnified Memoryと546 GB/sのメモリ帯域幅を実現(Apple公式仕様)。70Bモデルの量子化版を十分な速度で動かせる唯一の「新品で買える」選択肢です。Mac Studio M4 Maxとして提供され、将来性を含めた投資としては最も合理的なポジションにあります。
M4 Ultra — 発売後の検証待ち
M4 Ultraは2025年後半の登場が見込まれています。M4 Max 2基分のスペックが予想され、最大512GBのUnified Memoryと1,000 GB/s超のメモリ帯域幅が期待されますが、正式なスペックは未発表のため断定はできません。発売後の実機ベンチマーク検証を待ってから判断することをお勧めします。
M1・M2・M4チップ 中古価格推移 — 買い時はいつか
Apple Silicon Macの中古価格は、新モデル発売直後に旧モデルの価格が下落するサイクルを繰り返しています。2026年2月時点の中古市場概算をもとに、世代別の価格動向を整理します。
| チップ | 代表構成 | 発売時期 | 中古概算(2026年2月) | 下落傾向 |
|---|---|---|---|---|
| M1 | Mac mini 16GB | 2020年11月 | 約5万円 | 底値圏(安定) |
| M1 Max | Mac Studio 64GB | 2022年3月 | 約18〜22万円 | 緩やかに下落中 |
| M2 Ultra | Mac Studio 192GB | 2023年6月 | 約60〜70万円 | 緩やかに下落中 |
| M4 Pro | Mac mini 48GB | 2024年11月 | 約25〜28万円(新品に近い) | まだ下がりにくい |
一般的に、新チップ発売から6〜12ヶ月後が旧モデルの買い時です。M4 Ultra発売時にはM2 Ultra/M4 Maxの中古価格がさらに下がる可能性があります。ただしM1世代は既に底値圏のため、これ以上の大幅な下落は見込みにくい状況です。
M1・M2・M4 世代別おすすめマトリクス — 予算×用途で選ぶ
予算と用途の組み合わせで最適なチップを選ぶための早見表です。
| 予算 | 軽量AI(7B以下) | 中量AI(13B〜30B) | 重量AI(70B) |
|---|---|---|---|
| 〜10万円 | M1 16GB(◎) | — | — |
| 10〜20万円 | M2 24GB(◎) | M1 Pro 32GB(○) | — |
| 20〜30万円 | M4 Pro 48GB(◎) | M1 Max 64GB(◎) | M1 Max 64GB(△) |
| 30〜50万円 | — | M4 Max 128GB(◎) | M2 Max 96GB(○) |
| 50万円以上 | — | — | M2 Ultra 192GB(◎) |
◎=最適、○=十分実用的、△=動作可能だが快適ではない。空欄はその予算帯ではオーバースペックまたは対応不可を意味します。
迷ったときのシンプルな指針:「動かしたいモデルの最大サイズ」と「予算」の2軸で上の表を見てください。コスパ最重視なら中古M1 Max 64GB、将来性重視なら新品M4 Max 128GBが現時点の鉄板です。
Apple Silicon メモリ帯域幅が推論速度を決める仕組み
なぜ「メモリ帯域幅」がローカルLLMの速度を左右するのか、技術的な仕組みを解説します。
LLMの推論処理は、モデルの重みパラメーターをメモリから読み出してGPUコアで行列演算を行う、というサイクルの繰り返しです。1トークンを生成するたびにモデル全体のパラメーターを1回読み出す必要があるため、推論速度のボトルネックは演算能力ではなくメモリからのデータ読み出し速度(=メモリ帯域幅)になります。
これを「メモリバウンド」と呼びます。簡易的には以下の計算で推論速度の上限を見積もれます。
推論速度の理論上限(tok/s)≈ メモリ帯域幅(GB/s)÷ モデルサイズ(GB)
例えば、M1 Max(400 GB/s)でLlama 3.1 8B Q4(約4.5GB)を動かす場合:
400 ÷ 4.5 ≈ 89 tok/s(理論上限)
実測値が約95 tok/sなのは、キャッシュの効率化やメモリアクセスパターンの最適化による効果です。この計算式を使うと、各チップでのおおよその性能を事前に見積もることができます。
AI用途のMac購入は Mac Claw で — スペック検索と適正価格
AI用途でMacを購入する際、一般フリマや量販店の中古コーナーでは「メモリ帯域幅」や「Unified Memory容量」でフィルタリングして探すことができません。Mac Clawなら、AI推論に重要なスペックを条件に指定して検索できます。
- チップ世代×メモリ容量で絞り込み:「M1 Max + 64GB以上」「M4 Pro + 48GB」など、AI用途のニーズに直結する検索が可能
- 出品者がAIユーザー:一般フリマと異なり、出品者自身がOpenClawやOllamaの使用経験を持つケースが多く、スペックの説明が正確
- 適正価格での取引:大容量メモリモデルが一般フリマのように過小評価されることなく、性能に見合った価格で取引される
商品一覧からお目当てのスペックを探してみてください。メモリ帯域幅と予算のバランスで選ぶなら、この記事のおすすめマトリクスを参考にしてください。
Mac Claw