心理学で、
人間関係を
ちょっとラクにする。
MBTIとアドラー心理学を軸に、
自分と他者を理解するヒントを発信しています。
先月のAPIクレジット明細を見て固まった。
数千円。毎月。数ヶ月ずっと。
Claude の API を使ってSNS投稿を自動生成していた。Anthropic の API キーを発行して、トークンごとに課金される仕組み。当たり前だと思ってた。
でも、ある日ターミナルで claude --help を叩いたとき、目に入った。
-p, --print レスポンスを出力して終了(非インタラクティブモード)
……待って。これ、スクリプトから呼べるってこと?
claude -p の正体
試した。
claude -p "この文章を要約して: ..."
返ってきた。普通に。サブスクの範囲内で。
APIキー不要。追加課金ゼロ。月額固定のClaude Pro(もしくは Max)に含まれてる。
僕がやってたことを整理するとこうなる。
| 方式 | 仕組み | 月額 |
|---|---|---|
| 旧: Anthropic API | トークン課金 | 数千円〜 |
| 新: claude -p | サブスク内 | 追加0円 |
やってることは同じ。Claudeにプロンプトを投げて、応答テキストを受け取る。違うのは課金の仕組みだけ。
Python から呼ぶ——たった5行
めちゃくちゃシンプル。
import subprocess
result = subprocess.run(
["claude", "-p", "今日のSNS投稿を作って"],
capture_output=True, text=True, timeout=90
)
print(result.stdout)
これだけ。API SDK のインストールも要らない。requests も要らない。Python標準ライブラリの subprocess だけで動く。
僕は今、こんな構成で動かしてる。
- BSky投稿の自動生成 → claude -p
- X投稿の自動生成 → claude -p
- 品質チェック → claude -p
- Discord Botのバックエンド → claude -p
- note記事の生成 → claude -p
全部サブスクの範囲内。月の追加API課金、0円。
3日ハマった落とし穴
これを知らないと確実にハマる。僕は3日ハマった。
.zshrc とか .env に ANTHROPIC_API_KEY を設定してると、claude -p はそっちを優先してAPIクレジットを消費する。
サブスクで使いたいなら環境変数を外すこと。
import os
# ANTHROPIC_API_KEY を除外してサブスクを使う
env = {k: v for k, v in os.environ.items() if k != "ANTHROPIC_API_KEY"}
result = subprocess.run(
["claude", "-p", prompt],
capture_output=True, text=True, timeout=90,
env=env
)
こうやって環境変数を除外してから呼ぶ。僕のコードでは ai_client.py にこのロジックを共通化してある。
エラーメッセージは「Credit balance is too low」。これが出たら環境変数を確認してほしい。消したら一発で直る。
launchd と組み合わせると24時間AI
claude -p をPythonスクリプトから呼んで、そのスクリプトを launchd(macOS の定時実行)で回せば、完全に放置で動くAI自動化パイプラインが完成する。
僕の場合の実行スケジュール:
| 時刻 | 処理内容 |
|---|---|
| 朝7:00 | SNS投稿を自動生成・投稿 |
| 昼12:30 | エンゲージメント(いいね・コメント) |
| 夜20:30 | 夜のSNS投稿 |
これが毎日、MacBookが開いてる限り勝手に動いてる。API課金ゼロで。
cron を使う場合も同じ。要はOSのスケジューラで Python スクリプトを叩けばいい。
ChatGPT(GPT API)との違い
ここが一番大事かもしれない。
ChatGPT Plus はブラウザUI専用。スクリプトから呼ぶには OpenAI API の別契約が必要で、使うほどトークン課金が発生する。
Claude のサブスク(Pro/Max)は Claude Code が含まれていて、ターミナルから claude -p で呼べる。月額固定。使い放題(利用制限あり)。
この違い、意外と知られてない。GPT API に月1万円以上払ってる人は、Claude に乗り換えるだけでコストが激減する可能性がある。
Ollama とのハイブリッド構成
僕は最終的にこういう構成に落ち着いた。
- 量産タスク(下書き生成・ログ解析) → Ollama(qwen3.5:9b、完全無料)
- 品質が必要なタスク(最終生成・チェック) → claude -p(サブスク内)
ローカルLLMとクラウドLLMのいいとこ取り。月額固定で、品質と量産を両立できる。
まとめ
claude -pでターミナルからClaude呼べる- APIキー不要、サブスク内で動く
ANTHROPIC_API_KEYが設定されてると課金されるので外す- launchd / cron と組み合わせれば24時間自動AI
- 僕はこれでAPI課金を月数千円→0円にした
知ってたら当たり前の話かもしれない。でも僕は数ヶ月気づかなかった。
同じ状況の人がいたら、今すぐ環境変数を確認してほしい ✨
