Apple Siliconの世代と特徴

2020年のM1登場以来、AppleはほぼA年のペースでチップを更新し続けています。AI推論(ローカルLLM)という観点から各世代の特徴を理解しておきましょう。

  • M1世代(2020〜2021年):Apple Siliconの初代。CPU・GPU・Neural Engineを1チップに統合。Unified Memoryの革新的なコンセプトを実現。最大メモリはM1 Ultraで128GB。
  • M2世代(2022〜2023年):M1比でCPU約18%、GPU約35%の性能向上。M2 Ultraでは最大192GBメモリと800GB/sのメモリ帯域幅を実現。AI推論でM1世代を大きく上回る。
  • M3世代(2023〜2024年):グラフィック性能の大幅向上が主眼。メモリ帯域幅はM2 Max比でわずかな改善にとどまり、AI推論速度では期待ほどの向上なし。
  • M4世代(2024〜2025年):AI性能に特化したNeural Engineを強化。M4 Maxは546GB/sのメモリ帯域幅を誇り、M2 Ultra(800GB/s)には及ばないが高いコスパを実現。

重要なポイントは、世代よりもグレード(Pro/Max/Ultra)の方が推論速度への影響が大きいという事実です。M4のベースモデルよりM1 Maxの方がローカルLLM推論で速い場合があります。

スペック比較表 — M1からM4 Maxまで全モデル網羅

AI推論に関わる主要スペックを一覧で比較します。「メモリ帯域幅」が最も重要な指標です。

チップ最大メモリメモリ帯域幅GPU コア数Neural Engine
M116GB68.25 GB/s7〜8コア16コア
M1 Pro32GB200 GB/s14〜16コア16コア
M1 Max64GB400 GB/s24〜32コア16コア
M1 Ultra128GB800 GB/s48〜64コア32コア
M224GB100 GB/s8〜10コア16コア
M2 Pro32GB200 GB/s16〜19コア16コア
M2 Max96GB400 GB/s30〜38コア16コア
M2 Ultra192GB800 GB/s60〜76コア32コア
M432GB120 GB/s10コア38コア
M4 Pro64GB273 GB/s20コア38コア
M4 Max128GB546 GB/s40コア38コア

M4 Ultraは2025年後半に登場見込みで、最大256GB・1,092 GB/sのメモリ帯域幅が期待されています。現時点ではM2 UltraがAI推論において最大メモリ・最大帯域幅の両面でトップに位置しています。

AI推論速度の実測比較 — トークン/秒で見る実力

Ollama + Llama-3.1-8B(Q4_K_M量子化)を使った場合の実測推論速度(tokens/sec)の目安です。値はコミュニティベンチマークの平均的な結果です。

チップメモリ8B Q4 (t/s)70B Q4 (t/s)備考
M116GB約2870Bはメモリ不足
M1 Pro32GB約5570Bはメモリ不足
M1 Max64GB約95約870Bはギリギリ動作
M1 Ultra128GB約175約18快適
M224GB約3870Bはメモリ不足
M2 Pro32GB約6270Bはメモリ不足
M2 Max96GB約110約12快適
M2 Ultra192GB約185約22最速・快適
M432GB約5570Bはメモリ不足
M4 Pro64GB約90約10動作可能
M4 Max128GB約160約20快適

人間が読める速度(約15〜20 tokens/sec)という基準で考えると、M1 Max以上のチップで8Bモデルを動かせばストレスなく使用できます。70Bモデルを快適に扱いたい場合はM1 Ultra / M2 Max以上が必要です。

M1・M2・M4チップ コスパ分析 — 中古価格÷性能で最強を見つける

新品・中古の実勢価格と推論速度(8B Q4)から、「1トークン/秒あたりのコスト」を算出してコスパを比較します。(価格は2026年2月時点の中古市場概算)

チップ / 構成中古概算価格8B 速度(t/s)コスパ指数
(低いほど良い)
M1 / 16GB約5万円281,786
M1 Max / 64GB約18万円951,895
M1 Ultra / 128GB約45万円1752,571
M2 / 24GB約9万円382,368
M2 Pro / 32GB約12万円621,935
M2 Max / 96GB約30万円1102,727
M2 Ultra / 192GB約65万円1853,514
M4 Pro / 64GB約30万円(新品)903,333

コスパ指数(価格÷速度)が低いほど効率的です。中古M1(16GB)は速度は遅いが圧倒的にコスパが高く、入門用として魅力的です。本格的なAI用途ではM1 Maxが推論速度・価格・メモリのバランスが最も優れた選択肢と言えます。

M1・M2・M4チップ 用途別おすすめ — 結論まとめ

以上の分析をもとに、用途別のおすすめチップをまとめます。

入門・お試しにはM1またはM2(16GB)

5〜9万円の中古で入手でき、7Bクラスのモデルで基本的なローカルAI体験ができます。「まずOllamaを試してみたい」「ChatGPTの代替としてプライベートなAIが欲しい」というニーズに答えます。ただし、将来のモデル大型化への対応力は低いため、長期使用には不向きです。

日常利用の主力にはM1 Max(32〜64GB)

中古市場で18〜25万円程度で入手可能。400 GB/sの帯域幅で8Bモデルが約95 tokens/secという快適な速度で動作します。64GBモデルなら70Bも動作でき、長期にわたって主力機として活躍します。コスパと性能のバランスが最も優れた選択肢です。

本格的なAI開発にはM2 Ultra(96〜192GB)

800 GB/sのメモリ帯域幅と最大192GBのUnified Memoryで、量子化なしの70Bモデルや複数モデルの並列処理が可能です。OpenClawのマルチエージェント構成を本格的に運用したい、AI研究に取り組みたいというプロフェッショナルに最適です。中古市場での入手は難しい場合もありますが、Mac Clawに出品されることがあります。

M4 Pro・M4 Max・M4 Ultra — 最新世代の詳細スペックと選び方

2024〜2025年にかけて登場したM4世代は、Apple Siliconの中で最もAI推論を意識した設計がなされています。Neural Engineが38コアに強化され、チップ全体の電力効率も向上しました。

M4 Pro — バランス型の本命

M4 Proは最大48GBのUnified Memoryと273 GB/sのメモリ帯域幅を持ちます(Apple公式仕様)。Mac mini M4 Proとして約23万円〜で購入可能で、7B〜13Bモデルを快適に動かせる実用的な選択肢です。

M1 Max(400 GB/s)と比較するとメモリ帯域幅では劣りますが、Neural Engineの世代差とCPU/GPUの効率改善により、実際の推論速度はモデルによってはM1 Maxに近い水準に達するとコミュニティベンチマークで報告されています。

M4 Max — 大容量メモリ×高帯域の新標準

M4 Maxは最大128GBのUnified Memoryと546 GB/sのメモリ帯域幅を実現(Apple公式仕様)。70Bモデルの量子化版を十分な速度で動かせる唯一の「新品で買える」選択肢です。Mac Studio M4 Maxとして提供され、将来性を含めた投資としては最も合理的なポジションにあります。

M4 Ultra — 発売後の検証待ち

M4 Ultraは2025年後半の登場が見込まれています。M4 Max 2基分のスペックが予想され、最大512GBのUnified Memoryと1,000 GB/s超のメモリ帯域幅が期待されますが、正式なスペックは未発表のため断定はできません。発売後の実機ベンチマーク検証を待ってから判断することをお勧めします。

Apple Silicon Macの中古価格は、新モデル発売直後に旧モデルの価格が下落するサイクルを繰り返しています。2026年2月時点の中古市場概算をもとに、世代別の価格動向を整理します。

チップ代表構成発売時期中古概算(2026年2月)下落傾向
M1Mac mini 16GB2020年11月約5万円底値圏(安定)
M1 MaxMac Studio 64GB2022年3月約18〜22万円緩やかに下落中
M2 UltraMac Studio 192GB2023年6月約60〜70万円緩やかに下落中
M4 ProMac mini 48GB2024年11月約25〜28万円(新品に近い)まだ下がりにくい

一般的に、新チップ発売から6〜12ヶ月後が旧モデルの買い時です。M4 Ultra発売時にはM2 Ultra/M4 Maxの中古価格がさらに下がる可能性があります。ただしM1世代は既に底値圏のため、これ以上の大幅な下落は見込みにくい状況です。

M1・M2・M4 世代別おすすめマトリクス — 予算×用途で選ぶ

予算と用途の組み合わせで最適なチップを選ぶための早見表です。

予算軽量AI(7B以下)中量AI(13B〜30B)重量AI(70B)
〜10万円M1 16GB(◎)
10〜20万円M2 24GB(◎)M1 Pro 32GB(○)
20〜30万円M4 Pro 48GB(◎)M1 Max 64GB(◎)M1 Max 64GB(△)
30〜50万円M4 Max 128GB(◎)M2 Max 96GB(○)
50万円以上M2 Ultra 192GB(◎)

◎=最適、○=十分実用的、△=動作可能だが快適ではない。空欄はその予算帯ではオーバースペックまたは対応不可を意味します。

迷ったときのシンプルな指針:「動かしたいモデルの最大サイズ」と「予算」の2軸で上の表を見てください。コスパ最重視なら中古M1 Max 64GB、将来性重視なら新品M4 Max 128GBが現時点の鉄板です。

Apple Silicon メモリ帯域幅が推論速度を決める仕組み

なぜ「メモリ帯域幅」がローカルLLMの速度を左右するのか、技術的な仕組みを解説します。

LLMの推論処理は、モデルの重みパラメーターをメモリから読み出してGPUコアで行列演算を行う、というサイクルの繰り返しです。1トークンを生成するたびにモデル全体のパラメーターを1回読み出す必要があるため、推論速度のボトルネックは演算能力ではなくメモリからのデータ読み出し速度(=メモリ帯域幅)になります。

これを「メモリバウンド」と呼びます。簡易的には以下の計算で推論速度の上限を見積もれます。

推論速度の理論上限(tok/s)≈ メモリ帯域幅(GB/s)÷ モデルサイズ(GB)

例えば、M1 Max(400 GB/s)でLlama 3.1 8B Q4(約4.5GB)を動かす場合:

400 ÷ 4.5 ≈ 89 tok/s(理論上限)

実測値が約95 tok/sなのは、キャッシュの効率化やメモリアクセスパターンの最適化による効果です。この計算式を使うと、各チップでのおおよその性能を事前に見積もることができます。

AI用途のMac購入は Mac Claw で — スペック検索と適正価格

AI用途でMacを購入する際、一般フリマや量販店の中古コーナーでは「メモリ帯域幅」や「Unified Memory容量」でフィルタリングして探すことができません。Mac Clawなら、AI推論に重要なスペックを条件に指定して検索できます。

  • チップ世代×メモリ容量で絞り込み:「M1 Max + 64GB以上」「M4 Pro + 48GB」など、AI用途のニーズに直結する検索が可能
  • 出品者がAIユーザー:一般フリマと異なり、出品者自身がOpenClawやOllamaの使用経験を持つケースが多く、スペックの説明が正確
  • 適正価格での取引:大容量メモリモデルが一般フリマのように過小評価されることなく、性能に見合った価格で取引される

商品一覧からお目当てのスペックを探してみてください。メモリ帯域幅と予算のバランスで選ぶなら、この記事のおすすめマトリクスを参考にしてください。