エージェント
オーケストレーション複数AIの連携
オーケストレーション複数AIの連携
→
リフレクション
ループ自己改善の仕組み
ループ自己改善の仕組み
=
2日間のゴール全員が到達
- Claude Codeにディープダイブし、エージェントオーケストレーション + リフレクションループの構築を目指す2日間
- 全員が「エージェントオーケストレーション → リフレクションループ」まで到達することがゴール
- AIエネルギーは「無限」に使える前提で考え、レバレッジを最大化する発想
リサーチ
→
戦略
→
コンセプト
→
制作
→
入稿
→
運用
→
分析
CPA改善月30万(代理店)
→
AI導入Claude Opus 4.6
→
CPA 3,000〜5,000円大幅改善
パクさん(主催)
- AI広告自動運転システムを自作(Claude Opus 4.6ベース)
- 広告代理店に月30万円で依頼→AIでCPA 3,000〜5,000円台に改善
- リサーチ→戦略→コンセプト→制作→入稿→運用→分析の全工程を自動化
石綿文太さん(講師)
- 株式会社AX代表、31歳
- 18歳起業、26名→1名体制にした実績、100社以上のAI研修支援
大前提 1: 言葉が超重要
知っている言葉の数 = AIの使いこなし度。用語を知った瞬間にそれを指示できるようになる。
大前提 2: 設計が超重要
いきなり実行させず、プランニング → タスク分解 → 一つずつ実行。設計には知識(部品)が必要。
LLM脳
+
Tools道具
=
AIエージェント
拡張7要素
LLM脳
Tools道具
Memory長期記憶
Triggerきっかけ
Instruction行動方針
Skill手順書
Context Window短期記憶
Trigger起動
→
LLM思考Instruction参照
→
実行Tool/Memory/Skill
→
評価OK→出力 / NG→戻る
↩ 再思考
Triggerの3種類
イベント
外部要因
メール受信, X投稿
タイム
時間要因
毎朝9時
アクション
内部要因
条件を満たした時
モデル設計思想得意領域
GPT
最速でゴールを目指す
発見・レビュー
Gemini
多様な入出力を統合処理
マルチモーダル
Claude
とりあえずゴールまで動く
Agentic Loop
Grok
最大限の真実追求
Xリアルタイム情報
Claude内: Opus=プランニング・深い思考、Sonnet=日常タスク
このテーマをチャットで質問 →
Claudeメモリ機能
設定 → 機能 → メモリONで文脈を記憶
Visualize機能
「これをVisualizeして」で図解化
AquaVoice
リアルタイム音声入力アプリ(PCのみ)
2〜3回で完成
一発で完璧を求めず反復で仕上げる
使いすぎ
→
認知負荷 UP
→
精度 DOWN
→
休憩
→
回復
↩ 意図的にサイクルを断ち切る
- 脳のメモリには限界があり、意思決定を繰り返すと精度が低下
- AIバティール(AIうつ)のリスク→意図的に休憩を取る
- 予防策: AIに触れない時間を作る、コード出力を全て見ない、1個ずつクリア
- 散歩・リフレッシュ時間、ディスプレイ数を減らして情報量コントロール
松原さん
Chatwork
→
30分チャンク
→
DB分割
AX社
自動収集
→
ランキング
+
ログDB
ウィナードさん
Slack 7年分
→
Notion DB
→
自動エンベディング
松原さん: Chatworkエンベディング
- 社内状況把握とSEOナレッジ収集が目的
- 30分単位の固定チャンクに変更(文脈保持)
- → 目的が2つならDBを分けるべき(文太さんFB)
AX社: AI Knowledge DB / Daily Activity Log
- 日々の検証ナレッジが自動収集、毎週ランキング化
- 確定事項・意思決定が常に収集されるログDB
ウィナードさん: Slack 7年分
- Slackの検索より圧倒的に便利な検索体験を実現
- → Notion DBに移すだけで自動エンベディング(文太さんFB)
データ保存Notion DBに格納
→
自動エンベディング裏側で自動処理
→
ハイブリッド検索クエリ + セマンティック
- NotionのDBに保存すると裏側で自動的にエンベディングされる
- クエリ検索 + セマンティック検索のハイブリッド検索が可能
- Notion AI: 月額約25ドル/人でClaude Opus 4.6が無制限
- Slack内にNotion AIを常駐させてNotion内情報を検索可能
- ゲスト機能で全員有料契約する必要なし
行き詰まったら3段階で回す:
Step 1現状把握
→
Step 2評価・改善案
→
Step 3実装
プロンプトを分けて実施(1つで全部やらせない)。AIに送るメッセージはすべてプロンプトという認識を持つ。
このテーマをチャットで質問 →
Fine-tuning
+ トークン削減・速度向上
- 膨大なデータ・コスト・時間
特殊な用途向け
VS
RAG
+ 導入が容易・柔軟
+ データ更新が即座に反映
通常はRAGで十分
動画のチャンク分割(Python自動化)
- 1秒を24フレームに分割→フレーム間の画像類似度を分析
- 類似度が低い箇所=シーン切れ目として1シーンごとにエンベディング
ファインチューニング vs RAG
- 通常のユースケースではRAGで十分
- ファインチューニング: メリット(トークン削減・速度向上)/ デメリット(膨大なデータ・コスト・時間)
全データ(1つのDB)
↓ 目的別に分割
DB-A社内ナレッジ
DB-BSEO分析
DB-C意思決定ログ
- 1つのDBに全部入れなくてよい。目的に応じてDBを分割する
- メタデータは範囲を絞るためのもの。細かく刻みすぎない
- チャンクの粒度設計はRAGの検索精度に直結
- 「意味のまとまり」を意識して分割することが重要
リアルの価値が上がる
AIに人間が勝っているのは対面の場のみ
人間は「判断」に徹する
実行はAI、判断は人間の時代へ
AIに言語化させる
無理に自分で言語化せずAIに任せる
優秀の再定義
KPI設定だけで自ら判断・実行できる人
レバレッジ戦略
- リアル(対面)の価値が上がる: AIに人間が勝っているのはリアルの場のみ
- 人間は「判断」に徹する時代へ
- 優秀の定義: KPIを設定するだけで自ら判断・実行できる人
LLMとの言語化
- 無理に自分で言語化せず、AIに言語化させる
- やりたいことと持っているデータを伝えてAIに分析・提案させる