背景
自己と相手を知ることで、より良いプライベートAIAgentを開発できる
1. ChatGPTが本来得意とすること(LLMのネイティブ能力)
| 1 言語理解と生成 | 2 知識推論 | 3 プログラミング能力 | 4 情報の構造化 | 5 マルチモーダル理解 |
|---|---|---|---|---|
| 質問応答 | 論理推論 | コーディング | テキストからの抽出 | 画像理解 |
| 要約 | 常識推論 | デバッグ | OCR | |
| 翻訳 | ソリューション設計 | コード解説 | グラフ解析 | |
| リライト | アーキテクチャ設計 | API設計 | ||
| 情報抽出 | プログラミング問題対応 | アーキテクチャ設計 | ||
| テキスト分類 | ||||
| 対話 |
2. ChatGPTが元々できないこと
| 1 プライベートデータにアクセスできない | 2 実世界システムを操作できない | 3 長期記憶ができない | 4 複雑な多段階計画ができない | 5 100%の正確性を保証できない | 6 コンテキストウィンドウの制限 | 7 長期タスクの安定性が低い |
|---|---|---|---|---|---|---|
| 例:社内ナレッジベース、メール、契約書、ユーザーデータ、CRM | 例:メール送信、カレンダー作成、Jira作成、データベース呼び出し、決済、コードデプロイ | ChatGPTはデフォルトでステートレス。ユーザー情報、履歴、嗜好、長期目標は記憶しない | LLMは推論可能も、不安定でステップの抜け漏れがあり自己修正しない | LLMの問題:幻覚(Hallucination) | 例:1000kトークン、超過すると情報が失われる | 例:100ステップのタスクで、途中のステップ忘れや目標逸脱が起きやすい |
| 解決策:RAGシステム | 解決策:Function Tool | 解決策:メモリシステム | 解決策:エージェントシステム | 解決策:ツール検証、検索ベースの補強、ルールエンジン | 解決策:チャンク化、検索 | 解決策:Agentループ |
3. ChatGPTが適していないこと
| 1 精密計算 | 2 データベース問い合わせ | 3 大規模データ処理 |
|---|---|---|
| 例:金融計算、統計処理、科学計算 | 例:LLMで生成したSQLのデータベース実行 | 例:100万件のデータ処理 |