Apple Siliconの世代と特徴

2020年のM1登場以来、AppleはほぼA年のペースでチップを更新し続けています。AI推論(ローカルLLM)という観点から各世代の特徴を理解しておきましょう。

  • M1世代(2020〜2021年):Apple Siliconの初代。CPU・GPU・Neural Engineを1チップに統合。Unified Memoryの革新的なコンセプトを実現。最大メモリはM1 Ultraで128GB。
  • M2世代(2022〜2023年):M1比でCPU約18%、GPU約35%の性能向上。M2 Ultraでは最大192GBメモリと800GB/sのメモリ帯域幅を実現。AI推論でM1世代を大きく上回る。
  • M3世代(2023〜2024年):グラフィック性能の大幅向上が主眼。メモリ帯域幅はM2 Max比でわずかな改善にとどまり、AI推論速度では期待ほどの向上なし。
  • M4世代(2024〜2025年):AI性能に特化したNeural Engineを強化。M4 Maxは546GB/sのメモリ帯域幅を誇り、M2 Ultra(800GB/s)には及ばないが高いコスパを実現。

重要なポイントは、世代よりもグレード(Pro/Max/Ultra)の方が推論速度への影響が大きいという事実です。M4のベースモデルよりM1 Maxの方がローカルLLM推論で速い場合があります。

スペック比較表 — M1からM4 Maxまで全モデル網羅

AI推論に関わる主要スペックを一覧で比較します。「メモリ帯域幅」が最も重要な指標です。

チップ最大メモリメモリ帯域幅GPU コア数Neural Engine
M116GB68.25 GB/s7〜8コア16コア
M1 Pro32GB200 GB/s14〜16コア16コア
M1 Max64GB400 GB/s24〜32コア16コア
M1 Ultra128GB800 GB/s48〜64コア32コア
M224GB100 GB/s8〜10コア16コア
M2 Pro32GB200 GB/s16〜19コア16コア
M2 Max96GB400 GB/s30〜38コア16コア
M2 Ultra192GB800 GB/s60〜76コア32コア
M432GB120 GB/s10コア38コア
M4 Pro64GB273 GB/s20コア38コア
M4 Max128GB546 GB/s40コア38コア

M4 Ultraは2025年後半に登場見込みで、最大256GB・1,092 GB/sのメモリ帯域幅が期待されています。現時点ではM2 UltraがAI推論において最大メモリ・最大帯域幅の両面でトップに位置しています。

AI推論速度の実測比較 — トークン/秒で見る実力

Ollama + Llama-3.1-8B(Q4_K_M量子化)を使った場合の実測推論速度(tokens/sec)の目安です。値はコミュニティベンチマークの平均的な結果です。

チップメモリ8B Q4 (t/s)70B Q4 (t/s)備考
M116GB約2870Bはメモリ不足
M1 Pro32GB約5570Bはメモリ不足
M1 Max64GB約95約870Bはギリギリ動作
M1 Ultra128GB約175約18快適
M224GB約3870Bはメモリ不足
M2 Pro32GB約6270Bはメモリ不足
M2 Max96GB約110約12快適
M2 Ultra192GB約185約22最速・快適
M432GB約5570Bはメモリ不足
M4 Pro64GB約90約10動作可能
M4 Max128GB約160約20快適

人間が読める速度(約15〜20 tokens/sec)という基準で考えると、M1 Max以上のチップで8Bモデルを動かせばストレスなく使用できます。70Bモデルを快適に扱いたい場合はM1 Ultra / M2 Max以上が必要です。

コスパ分析 — 中古価格÷性能で最強チップを見つける

新品・中古の実勢価格と推論速度(8B Q4)から、「1トークン/秒あたりのコスト」を算出してコスパを比較します。(価格は2026年2月時点の中古市場概算)

チップ / 構成中古概算価格8B 速度(t/s)コスパ指数
(低いほど良い)
M1 / 16GB約5万円281,786
M1 Max / 64GB約18万円951,895
M1 Ultra / 128GB約45万円1752,571
M2 / 24GB約9万円382,368
M2 Pro / 32GB約12万円621,935
M2 Max / 96GB約30万円1102,727
M2 Ultra / 192GB約65万円1853,514
M4 Pro / 64GB約30万円(新品)903,333

コスパ指数(価格÷速度)が低いほど効率的です。中古M1(16GB)は速度は遅いが圧倒的にコスパが高く、入門用として魅力的です。本格的なAI用途ではM1 Maxが推論速度・価格・メモリのバランスが最も優れた選択肢と言えます。

結論:用途別おすすめチップ

以上の分析をもとに、用途別のおすすめチップをまとめます。

入門・お試しにはM1またはM2(16GB)

5〜9万円の中古で入手でき、7Bクラスのモデルで基本的なローカルAI体験ができます。「まずOllamaを試してみたい」「ChatGPTの代替としてプライベートなAIが欲しい」というニーズに答えます。ただし、将来のモデル大型化への対応力は低いため、長期使用には不向きです。

日常利用の主力にはM1 Max(32〜64GB)

中古市場で18〜25万円程度で入手可能。400 GB/sの帯域幅で8Bモデルが約95 tokens/secという快適な速度で動作します。64GBモデルなら70Bも動作でき、長期にわたって主力機として活躍します。コスパと性能のバランスが最も優れた選択肢です。

本格的なAI開発にはM2 Ultra(96〜192GB)

800 GB/sのメモリ帯域幅と最大192GBのUnified Memoryで、量子化なしの70Bモデルや複数モデルの並列処理が可能です。OpenClawのマルチエージェント構成を本格的に運用したい、AI研究に取り組みたいというプロフェッショナルに最適です。中古市場での入手は難しい場合もありますが、Mac Clawに出品されることがあります。