はじめに
Cursor BG AgentとClaude Codeを組み合わせて、AI同士でセカンドオピニオンを回す構想メモです。
2026年2月、Cursorに「Get demos, not diffs」という機能が追加されました。
これを見たとき、**「CursorがClaude Codeっぽくなった」**と感じると同時に、「いや、これはむしろClaude Codeのセカンドオピニオンとして使えるのでは」という考えが浮かびました。
この記事はその考察です。実際に試した記録ではなく、「こう使えるのではないか」という構想なので、その点はご了承ください。
「Get demos, not diffs」とは
Cursorに追加されたBG Agent(バックグラウンドエージェント)のテスト機能です。
従来のAIコーディングツールは「コードを書く」までが仕事でした。書いたコードが本当に動くかどうかは人間がテストする必要がありました。
この機能が変えるのはそこです。
【従来】
人間が指示 → AIがコードを書く → 人間がテスト・確認
【BG Agent後】
人間が指示 → AIがコードを書く → AIが自分でテスト → スクショ・動画で結果を見せる
AIがスクリーンショット・動画録画・ログをキャプチャして、動いている証拠ごと渡してくれる。「差分(diff)じゃなくてデモをくれ」というコンセプトはそういう意味です。
使うための条件
- GitHubリポジトリに接続していること
- Cursorのアカウントにリポジトリを連携していること
Obsidianのノートフォルダのようなローカル作業環境では使えません。あくまでGitHubで管理しているコードプロジェクトが対象です。
Claude Codeとの比較
Claude Code(Anthropic)はターミナルで動くCLIツールで、同様に「自律的にコードを書いてテストする」ことができます。
| Cursor BG Agent | Claude Code | |
|---|---|---|
| 動作場所 | クラウド仮想環境 | ローカルターミナル |
| テスト確認方法 | 動画・スクショで視覚的 | ターミナル出力のみ |
| GitHub連携 | 必須 | 不要 |
| ローカルファイルアクセス | リポジトリのみ | PC全体 |
| 長時間の自律作業 | ○(バックグラウンド実行) | ○ |
CursorのユニークなポイントはUI込みでの視覚的な確認です。「動いているかどうか」を動画で確認できるのは、Webアプリ開発において特に強みになります。
Claude Codeのユニークなポイントはローカル全域へのアクセスです。GitHubに上げていないファイル、ローカルDBへのアクセス、スクリプトの実行など、PCの中なら何でもできる自由度があります。
セカンドオピニオンとして使う発想
ここからが本題の考察です。
AIは自信満々に間違えることがあります。1つのAIに全部任せると、その間違いに気づけないリスクがあります。
そこで考えたのがモデルとツールの掛け合わせです。
構成案
| ツール | 使うモデル | 役割 |
|---|---|---|
| Claude Code | Claude Opus / Sonnet | メイン開発・深い推論 |
| Cursor | GPT-4o / Gemini | 別視点での実装・視覚的テスト |
Claude Codeで実装したものを、Cursor(別モデル)で検証させる。モデルの「癖」が違うので、同じ問題に対して異なるアプローチが出てくることがあります。
実運用イメージ
複雑・重要な機能の実装
→ Claude Code(Opus)でじっくり考えさせる
スピード重視・試作・アイデア検証
→ Cursor(Gemini)でさっと作る
最終的な動作確認
→ Cursor BG Agentで視覚的にテスト
なぜこれが価値があるのか
医療でいうセカンドオピニオンと同じ理由です。
- 1人の医者(AI)の診断に依存するのはリスク
- 別の専門家(別モデル)に見せると、見落としが見つかることがあります
- 視覚的な証拠(動画・スクショ)があると最終判断がしやすい
今後やってみたいこと
- Claude Code導入後、同じタスクをCursorと並行して実行して比較する
- BG AgentのテストをWebアプリ開発で実際に動かしてみる
- モデルごとの「癖の違い」を実例で記録する
まとめ
Cursorの「Get demos, not diffs」は、「コードを書くAI」から「開発を完結させるAI」への進化を示す機能です。
ただし「Cursorに全部任せる」より、Claude Codeとの役割分担・相互検証という使い方の方が、現時点では精度・安心感の両面で優れていると考えています。
複数のAIツールを目的別に使い分けること。それが2026年のAI活用の一段上の使い方になるのではないかと思っています。
実際に試したら続編を書きます。