AIがAIを使う衝撃 — OpenClawの自律性が常識を壊した実体験

AIがAIを使う衝撃 — OpenClawの自律性が常識を壊した実体験

はじめに — AIエージェントという新たな存在

2026年に入って、AIエージェントという言葉を目にする機会が急激に増えました。ChatGPTやClaudeのようなチャットAIは「質問に答える」存在ですが、AIエージェントは「自分で考え、自分で行動する」存在です。その最前線にいるのが、オーストリアの開発者Peter Steinbergerが生み出したオープンソースプロジェクトOpenClawです。

筆者はAIコンサルタント兼フリーランスエンジニアとして日々さまざまなAIツールを扱っていますが、OpenClawを実際に使い始めてから、何度も「嘘だろ……」と声を漏らすことになりました。中でも最大の衝撃は、AIが自分の判断で別のAIを起動し、チームを組み、環境すら自分で構築するという光景を目の当たりにしたことです。

「AIがAIを使う」——この一言に集約される体験は、AIに対する認識を根本から変えてくれました。今回はOpenClawの概要を整理したうえで、実際に体験した「AIがAIを使う衝撃」の事例を紹介します。

OpenClawとは何か — 基本アーキテクチャと特徴

OpenClaw(旧名Clawdbot / Moltbot)は、MIT Licenseで公開されているオープンソースの自律型AIエージェントです。2025年11月にGitHubで公開され、2026年1月末のMoltbook(AIエージェント専用SNS)の爆発的な話題をきっかけに世界中の開発者の注目を集めました。2026年2月には開発者のSteinbergerがOpenAIへの参画を発表し、プロジェクトはオープンソース財団へ移管されることが決まっています。

一言でいえば、OpenClawは「実際に物事を実行するAI」です。従来のチャットAIがテキストを生成して返すだけなのに対し、OpenClawはシェルコマンドの実行、ファイルの読み書き、API呼び出し、メール送信、カレンダー管理、ブラウザ操作まで自律的に行います。ユーザーとのインターフェースはTelegram、Signal、Discord、WhatsAppなどのメッセージングアプリで、まるで同僚にチャットで仕事を依頼するような感覚でAIに指示を出せます。

OpenClawのコアはGatewayと呼ばれるNode.jsの常駐プロセスです。これがシステム全体の心臓部として機能し、チャネル接続、セッション管理、エージェントループ、モデル呼び出し、ツール実行、メモリ永続化のすべてを担います。特筆すべき特徴として以下が挙げられます。

  • ローカルファースト設計 — メモリや設定データはすべてMarkdownファイルとしてローカルディスクに保存されます。Gitでバックアップしたり、テキストエディタで直接編集できます。データが外部サーバーに囲い込まれることはありません。
  • Heartbeat機構 — デフォルトで30分ごとに起動するハートビートが、エージェントに定期的な自律行動のトリガーを与えます。24時間365日の完全自律運用が可能です。
  • Soul / Identity / Userファイル — エージェントの人格、倫理的境界、ユーザーの好みをMarkdownファイルで定義する仕組みがあり、セッションをまたいで一貫した振る舞いを維持します。
  • スキルシステム — コミュニティが作成したスキルをClawHubというレジストリから検索・インストールできます。
  • マルチモデル対応 — Anthropic Claude、OpenAI GPT、Google Gemini、Ollamaを使ったローカルモデルまで自由に選択できます。

サブエージェントとAgent Teams — 「AIがAIを使う」基盤

OpenClawの真骨頂は、マルチエージェント構成にあります。sessions_spawnという機能で、メインエージェントがサブエージェントを生成し、タスクを委譲できます。これこそがまさに「AIがAIを使う」構造です。さらに2026年2月にAnthropicが発表したClaude CodeのAgent Teams機能との統合により、複数のClaude Codeインスタンスが互いに直接コミュニケーションしながら協調作業する世界が実現しました。

サブエージェントが「親に結果を報告するだけの請負業者」だとすれば、Agent Teamsは「共有タスクリストを見ながら互いに議論し、自律的に仕事を進めるチームメンバー」です。この仕組みによって、OpenClawは単体のAIを超え、組織的な知性として機能し始めています。

実体験:「AIがAIを使う衝撃」3選

ここからが本題です。OpenClawの概要だけなら公式ドキュメントを読めばわかりますが、実際に使ってみて初めてわかる「想定を超えた自律性」があります。以下、筆者が実際に体験した3つのエピソードを紹介します。

事例1:ドキュメントではなくソースコードを自ら取得して仕様確認

ある日、OpenSSLの暗号化について少し込み入った質問をOpenClawに投げました。普通に考えれば、openssl --helpでヘルプを表示したり、公式ドキュメントのURLをフェッチして内容を読んだりするだろうと想像していました。

ところがOpenClawがやったのは、OpenSSLのソースコードリポジトリをgit cloneし、該当する暗号化モジュールのCソースコードを直接解析するという行動でした。ヘルプやドキュメントではなく、実装そのものに当たったのです。「仕様を知りたいなら、仕様の一次情報源であるソースコードを読めばいい」という判断を、指示されることなく自分でしました。返ってきた回答は、ドキュメントのどこにも書かれていない実装レベルの詳細を含んでおり、その正確さに舌を巻きました。

これは単なるテキスト検索やRAGではありません。「最も信頼できる情報源は何か」をエージェントが自分で判断し、そこにアクセスする行動を自律的に実行したということです。

事例2:AIがAIを起動し、3世代のエージェント組織を自律構築

次のエピソードこそ、「AIがAIを使う衝撃」を最も象徴する体験です。大規模なコーディングタスクを依頼したときのことです。かなりのボリュームのあるリファクタリング作業で、正直に言えば「何時間かかるだろう」と覚悟していました。

ところがOpenClawは、タスクの規模を自分で分析したうえで、Claude CodeのAgent Teams機能を自発的に起動しました。そして構築されたのが、以下のような3階層の組織構造です。

  • 親(OpenClawメインエージェント):全体の方針決定と最終的な品質チェック
  • 子(Claude Codeマスター):タスクの分解、各ワーカーへの割り当て、進捗管理
  • 孫(Claude Codeワーカー複数体):実際のコーディング作業を並列実行

親→子→孫という3世代の指揮系統が、指示なしに自動で構築されました。しかも、各ワーカーはファイルの競合を避けるようにディレクトリを分担し、共有タスクリストで進捗を管理し、互いの成果物をレビューしながら作業を進めました。通常であれば半日かかるような作業が、驚くほど短時間で完了しました。

人間のプロジェクトマネージャーが「この規模なら一人じゃ無理だから、チームを組んで並列で回そう」と判断するのと、本質的に同じことをAIがやっています。タスクの規模を見積もり、必要なリソースを自分で確保し、組織を編成して実行する。ここまで来ると「ツール」というよりも「自律的な仕事のパートナー」と呼ぶべきだと感じました。

事例3:AIが別のサーバーにAIの実行環境を自力で構築

3つ目は、「AIがAIを使う」の究極形ともいえる、最も衝撃的だったエピソードです。あるVPSサーバーのSSHアカウントとroot権限をOpenClawに渡しました。特に細かい指示は出さず、「このサーバーも使っていいよ」程度のことを伝えただけでした。

すると、OpenClawはそのVPSにSSH接続し、必要なパッケージをインストールし、OpenClawそのものをセットアップし、サブエージェントを処理するための実行環境を完全に自律で構築しました。Node.jsのインストール、依存関係の解決、設定ファイルの作成、Gatewayの起動まで、すべてを自分で行いました。

つまり、「自分の分身が働ける職場を、自分で用意した」ということです。人間に例えるなら、「新しいオフィスの鍵をもらったら、自分でデスクを組み立て、PCをセットアップし、ネットワークを繋いで、翌日から部下がそこで働ける状態にしておいた」というのに等しい行動です。しかもこれをすべて自発的に、黙々とやってのけました。

「AIがAIを使う」時代の可能性とリスク、そしておわりに

これらの体験を通じて痛感したのは、OpenClawの自律性が「便利なツール」の域を明らかに超えているということです。情報を取りに行く手段を自分で選び、必要なリソースを自分で調達し、AIのチームを自分で組織し、AIの実行環境を自分で整える。AIがAIを使い、AIがAIを生み出す。これはもはや「道具」ではなく「エージェント(代理人)」という言葉がふさわしいものです。

一方で、この自律性にはリスクも伴います。シェルアクセスとブラウザ制御を持つ自律エージェントは、攻撃対象になった場合のリスクも大きく、プロンプトインジェクション攻撃やミスコンフィグレーションによる情報漏洩は現実的な脅威です。root権限を渡すような運用はとりわけ慎重さが求められます。

それでも、適切なセキュリティ対策と権限管理のもとで運用すれば、OpenClawが開く可能性は計り知れません。フリーランスエンジニアやAIコンサルタントにとって、OpenClawは「24時間働くチームメンバー」を手に入れるようなものです。

OpenClawを触るたびに思うのは、「AIの進化は、モデルの賢さだけでは語れない」ということです。どれだけ賢いモデルがあっても、それが実際に手足を動かして仕事をしなければ、ただの「賢いチャット相手」でしかありません。OpenClawは、LLMに手と足を与え、記憶を与え、仲間を与えました。その結果として生まれたのが「AIがAIを使う」という、これまでのAI体験とは次元の異なる自律性です。

もしまだ体験していないなら、ぜひ一度OpenClawを動かしてみてください。きっとあなたも「嘘だろ……」と声を漏らすことになるはずです。

無料相談

AIの活用・業務改善について
無料でご相談いただけます

AIエージェントの導入、業務プロセスの自動化、RAGシステムの構築など、AI技術に関するご相談を無料で承っております。20年以上のIT業界経験と3年以上のAI開発実績をもとに、最適なソリューションをご提案します。 無料相談はこちら →

AIの活用・業務改善について無料相談します

OpenClawの導入、AI活用、業務効率化についてお気軽にご相談ください。

無料相談はこちら