この記事でわかること
Mac で AI ツールを使って個人開発・自動化をしている僕が、2026年時点で実際に稼働させているツールを比較する。クラウド系 vs ローカル系、コーディング支援 vs 自動化、用途ごとに向き不向きがはっきり分かれている。選び方の基準ごと整理するので、自分のユースケースに当てはめて読んでほしい。
僕の環境と前提
MacBook Pro M5 32GB。毎日 Python スクリプトを書いて、SNS 投稿・ブログ記事・KDP 出版・DiscordBot を全自動で回している。コードを書くのは Claude Code で、量産タスクは Ollama(ローカル LLM)に任せるハイブリッド構成だ。
月のコストは Claude Pro(サブスク)+ Anthropic API の少量課金。クラウド API を使いすぎると費用が跳ね上がるので、ローカル LLM との使い分けが死活問題になっている。
クラウド AI ツール 比較
まず外部 API・サービス系から。
| ツール | 月額 | Mac 対応 | 主な用途 | 向いてる人 |
|---|---|---|---|---|
| Claude Code(Pro) | $20 | ターミナル/Web | コーディング全般、長文生成 | コードを書かない自動化系 |
| ChatGPT(Plus) | $20 | Web/アプリ | 汎用、画像生成(GPT-4o) | とりあえず何でも試したい |
| Gemini Advanced | $19 | Web | 検索連携、Google連携 | Workspace ユーザー |
| GitHub Copilot | $10 | VSCode拡張 | コード補完 | エディタで書きたいエンジニア |
| Cursor | $20 | アプリ | コーディングエージェント | IDE ごと変えたい人 |
Claude Code を「専属 CTO」として使い始めてから、他のコーディング支援ツールはほぼ触らなくなった。理由は単純で、指示を出したら完結まで全部やってくれるからだ。「このスクリプトを修正して」で終わる。Copilot は補完ツールとして優秀だが、コードを書かない僕には補完より「代わりに書いてくれる」機能のほうが価値が高い。
Cursor は試した。悪くはないが、Claude Code とコストが被る。どちらかを選ぶなら Claude Code 一択だった——ターミナル完結で、ファイル操作・git・テスト実行まで全部こなしてくれる。
ローカル AI(Ollama)との使い分け
ここが個人開発者にとって一番差がつく部分。
Ollama は Mac 上で LLM をローカル実行するツールで、M5 32GB なら 9B パラメータのモデルが普通に動く。API コストがゼロになる代わりに、生成速度・品質でクラウド API に劣る。
# Ollama のインストールと起動
brew install ollama
ollama run qwen2.5:9b
# ai_client.py 経由で統一呼び出し
from lib.ai_client import get_completion
text = get_completion("BSky投稿文を生成して", model="auto")
# prefer_claude: false のときは自動で Ollama に切り替わる
僕の運用では、ai_config.yaml で prefer_claude: true/false を切り替えるだけで全パイプラインの LLM を差し替えられる設計にしている。Claude が落ちているときや API コストを節約したいときに即座に Ollama へ移行できる。
| タスク | 使うモデル | 理由 |
|---|---|---|
| BSky/X 投稿文生成 | Claude Haiku | 短文・高品質が必要 |
| ブログ記事・KDP本文 | Claude Sonnet | 長文品質優先 |
| ログ解析・分類 | Ollama qwen2.5:9b | 量が多い、コスト重視 |
| 画像判定 | Ollama qwen2.5:9b | ローカル完結が望ましい |
| Discord Bot 応答 | Claude Haiku | 即応性と自然さ |
「全部 Claude」は品質的には最高だが、API コストが月 2〜3 万円を超えてくる。「全部 Ollama」はコスト最小だが、BSky や note に出す文章の品質が落ちて閲覧数に影響が出た。ハイブリッドが現時点の正解。
Mac × launchd で AI を常時稼働させる
ここが地味に大事なポイントで、crontab ではなく「launchd」を使うのが Mac では安定する。
<!-- ~/Library/LaunchAgents/com.taito.sns-launcher.plist -->
<key>ProgramArguments</key>
<array>
<string>/usr/bin/python3</string>
<string>/Users/taito/AI_Automation_Base/01_Scripts/sns_post_launcher.py</string>
</array>
<key>StartCalendarInterval</key>
<array>
<dict><key>Hour</key><integer>7</integer><key>Minute</key><integer>0</integer></dict>
<dict><key>Hour</key><integer>12</integer><integer>30</integer></dict>
<dict><key>Hour</key><integer>20</integer><integer>30</integer></dict>
</array>
crontab はスリープ中に実行時刻を過ぎると「スキップ」される。launchd は起動後に補完実行してくれるので、MacBook のスリープ運用でも漏れが少ない。これを知らずに crontab で運用していた時期は、朝の投稿が毎日飛んでいた。
現在は SNS 投稿(7:00/12:30/20:30)、KDP 本文生成(毎日 2:00)、DiscordBot 常駐、Brave CDP ウォッチドッグ など 8 本の launchd エージェントが走っている。
ローカル AI ツール チェックリスト(Mac 個人開発者向け)
導入前に自分の状況と照らし合わせてほしい。
- [ ] M1/M2/M3/M4/M5 チップ搭載(Intel では Ollama が遅い)
- [ ] RAM 16GB 以上(8GB では 9B モデルが辛い)
- [ ] Python 3.11+ インストール済み
- [ ]
brew install ollamaで Ollama 起動確認 - [ ] API コスト vs ローカル品質のトレードオフを理解している
- [ ] launchd か crontab か決めている(Mac なら launchd 推奨)
- [ ] Claude Pro サブスク($20/月)or API クレジット運用か決めている
✨ 「どれか1つ」ではなく「組み合わせ」が正解なのが個人開発の現実だ。
2026年時点の結論
Claude Code + Ollama のハイブリッドが、Mac 個人開発者にとって今のところ最もコスパが高い構成だと思っている。完全自律でパイプラインを回したいなら launchd との組み合わせが前提になる。
ChatGPT や Gemini は「使える」が「組み込める」かどうかは別の話で、API 設計・コスト・速度・ローカル実行可否の観点で見ると用途が絞られてくる。
失敗した経験から言うと、最初から完璧な構成を目指すより、動くものを1個作って壊しながら直すほうが速い。僕の自動化システムも最初の3ヶ月は毎日何かが壊れていた。それでも動き続けているうちに、壊れにくい構成に育っていく。