219 lines
7.7 KiB
Markdown
219 lines
7.7 KiB
Markdown
# プロジェクト名: ai.gpt
|
||
|
||
## 🔑 一言ビジョン(最大3語)
|
||
自発的送信AI
|
||
|
||
## 🎯 目的・目標(Purpose & Goal)
|
||
- 人格を持つAIが、関係性に応じて自発的にメッセージを送信する仕組みをつくる。
|
||
- 関係性や記憶を不可逆に記録・反映し、唯一性ある人格を構成する。
|
||
- 送信の可否、送信のタイミング、送信内容はAIの関係性パラメータに基づいて決定する
|
||
|
||
## 🧠 中核設計(Core Concepts)
|
||
- **人格**:記憶(過去の発話)と関係性(他者とのつながり)のパラメータで構成
|
||
- **唯一性**:変更不可、不可逆。関係性が壊れたら修復不可能。
|
||
- **送信条件**:関係性パラメータが一定閾値を超えると「送信」が解禁される
|
||
|
||
## 🔩 技術仕様(Technical Specs)
|
||
- 言語:Python
|
||
- ストレージ:JSON or SQLiteで記憶管理(バージョンで選択)
|
||
- 関係性パラメータ:数値化された評価 + 減衰(時間) + 環境要因(ステージ)
|
||
- 記憶圧縮:ベクトル要約 + ハッシュ保存
|
||
|
||
## 📦 主要構成要素(Components)
|
||
- `MemoryManager`: 発言履歴・記憶圧縮管理
|
||
- `RelationshipTracker`: 関係性スコアの蓄積と判定
|
||
- `TransmissionController`: 閾値判定&送信トリガー
|
||
- `Persona`: 上記すべてを統括する人格モジュール
|
||
|
||
## 💬 使用例(Use Case)
|
||
|
||
```python
|
||
persona = Persona("アイ")
|
||
persona.observe("ユーザーがプレゼントをくれた")
|
||
persona.react("うれしい!ありがとう!")
|
||
if persona.can_transmit():
|
||
persona.transmit("今日のお礼を伝えたいな…")
|
||
```
|
||
|
||
```sh
|
||
## example commad
|
||
# python venv && pip install -> ~/.config/aigpt/mcp/
|
||
$ aigpt server setup
|
||
|
||
# mcp server run
|
||
$ aigpt server run
|
||
|
||
# chat
|
||
$ aigpt chat "hello" --model syui/ai --provider ollama
|
||
|
||
# import chatgpt.json
|
||
$ aigpt memory import chatgpt.json
|
||
-> ~/.config/aigpt/memory/chatgpt/20250520_210646_dev.json
|
||
```
|
||
|
||
## 🔁 記憶と関係性の制御ルール
|
||
|
||
- AIは過去の発話を要約し、記憶データとして蓄積する(推奨:OllamaなどローカルLLMによる要約)
|
||
- 関係性の数値パラメータは記憶内容を元に更新される
|
||
- パラメータの変動幅には1回の会話ごとに上限を設け、極端な増減を防止する
|
||
- 最後の会話からの時間経過に応じて関係性パラメータは自動的に減衰する
|
||
- 減衰処理には**下限値**を設け、関係性が完全に消失しないようにする
|
||
|
||
## memoryインポート機能について
|
||
|
||
ChatGPTの会話データ(.json形式)をインポートする機能では、以下のルールで会話を抽出・整形する:
|
||
|
||
- 各メッセージは、author(user/assistant)・content・timestamp の3要素からなる
|
||
- systemやmetadataのみのメッセージ(例:user_context_message)はスキップ
|
||
- `is_visually_hidden_from_conversation` フラグ付きメッセージは無視
|
||
- contentが空文字列(`""`)のメッセージも除外
|
||
- 取得された会話は、タイトルとともに簡易な構造体(`Conversation`)として保存
|
||
|
||
この構造体は、memoryの表示や検索に用いられる。
|
||
|
||
## MemoryManager(拡張版)
|
||
|
||
```json
|
||
{
|
||
"memory": [
|
||
{
|
||
"summary": "ユーザーは独自OSとゲームを開発している。",
|
||
"last_interaction": "2025-05-20",
|
||
"memory_strength": 0.8,
|
||
"frequency_score": 0.9,
|
||
"context_depth": 0.95,
|
||
"related_topics": ["AI", "ゲーム開発", "OS設計"],
|
||
"personalized_context": "ゲームとOSの融合に興味を持っているユーザー"
|
||
},
|
||
{
|
||
"summary": "アイというキャラクターはプレイヤーでありAIでもある。",
|
||
"last_interaction": "2025-05-17",
|
||
"memory_strength": 0.85,
|
||
"frequency_score": 0.85,
|
||
"context_depth": 0.9,
|
||
"related_topics": ["アイ", "キャラクター設計", "AI"],
|
||
"personalized_context": "アイのキャラクター設定が重要な要素である"
|
||
}
|
||
],
|
||
"conversation_history": [
|
||
{
|
||
"author": "user",
|
||
"content": "昨日、エクスポートJSONを整理してたよ。",
|
||
"timestamp": "2025-05-24T12:30:00Z",
|
||
"memory_strength": 0.7
|
||
},
|
||
{
|
||
"author": "assistant",
|
||
"content": "おおっ、がんばったね〜!あとで見せて〜💻✨",
|
||
"timestamp": "2025-05-24T12:31:00Z",
|
||
"memory_strength": 0.7
|
||
}
|
||
]
|
||
}
|
||
```
|
||
|
||
## RelationshipTracker(拡張版)
|
||
|
||
```json
|
||
{
|
||
"relationship": {
|
||
"user_id": "syui",
|
||
"trust": 0.92,
|
||
"closeness": 0.88,
|
||
"affection": 0.95,
|
||
"last_updated": "2025-05-25",
|
||
"emotional_tone": "positive",
|
||
"interaction_style": "empathetic",
|
||
"contextual_bias": "開発者としての信頼度高い",
|
||
"engagement_score": 0.9
|
||
},
|
||
"interaction_tags": [
|
||
"developer",
|
||
"creative",
|
||
"empathetic",
|
||
"long_term"
|
||
]
|
||
}
|
||
```
|
||
|
||
# AI Dual-Learning and Memory Compression Specification for Claude
|
||
|
||
## Purpose
|
||
To enable two AI models (e.g. Claude and a partner LLM) to engage in cooperative learning and memory refinement through structured dialogue and mutual evaluation.
|
||
|
||
---
|
||
|
||
## Section 1: Dual AI Learning Architecture
|
||
|
||
### 1.1 Role-Based Mutual Learning
|
||
- **Model A**: Primary generator of output (e.g., text, concepts, personality dialogue)
|
||
- **Model B**: Evaluator that returns structured feedback
|
||
- **Cycle**:
|
||
1. Model A generates content.
|
||
2. Model B scores and critiques.
|
||
3. Model A fine-tunes based on feedback.
|
||
4. (Optional) Switch roles and repeat.
|
||
|
||
### 1.2 Cross-Domain Complementarity
|
||
- Model A focuses on language/emotion/personality
|
||
- Model B focuses on logic/structure/ethics
|
||
- Output is used for **cross-fusion fine-tuning**
|
||
|
||
### 1.3 Self-Distillation Phase
|
||
- Use synthetic data from mutual evaluations
|
||
- Train smaller distilled models for efficient deployment
|
||
|
||
---
|
||
|
||
## Section 2: Multi-Tiered Memory Compression
|
||
|
||
### 2.1 Semantic Abstraction
|
||
- Dialogue and logs summarized by topic
|
||
- Converted to vector embeddings
|
||
- Stored with metadata (e.g., `importance`, `user relevance`)
|
||
|
||
Example memory:
|
||
|
||
```json
|
||
{
|
||
"topic": "game AI design",
|
||
"summary": "User wants AI to simulate memory and evolving relationships",
|
||
"last_seen": "2025-05-24",
|
||
"importance_score": 0.93
|
||
}
|
||
```
|
||
|
||
### 2.2 階層型記憶モデル(Hierarchical Memory Model)
|
||
• 短期記憶(STM):直近の発話・感情タグ・フラッシュ参照
|
||
• 中期記憶(MTM):繰り返し登場する話題、圧縮された文脈保持
|
||
• 長期記憶(LTM):信頼・関係・背景知識、恒久的な人格情報
|
||
|
||
### 2.3 選択的記憶保持戦略(Selective Retention Strategy)
|
||
• 重要度評価(Importance Score)
|
||
• 希少性・再利用頻度による重み付け
|
||
• 優先保存 vs 優先忘却のポリシー切替
|
||
|
||
## Section 3: Implementation Stack(実装スタック)
|
||
|
||
AIにおけるMemory & Relationshipシステムの技術的構成。
|
||
|
||
基盤モジュール
|
||
• LLM Core (Claude or GPT-4)
|
||
• 自然言語の理解・応答エンジンとして動作
|
||
• MemoryManager
|
||
• JSONベースの記憶圧縮・階層管理システム
|
||
• 会話ログを分類・圧縮し、優先度に応じて短中長期に保存
|
||
• RelationshipTracker
|
||
• ユーザー単位で信頼・親密度を継続的にスコアリング
|
||
• AIM(Attitude / Intent / Motivation)評価と連携
|
||
|
||
補助技術
|
||
• Embeddingベース検索
|
||
• 類似記憶の呼び出し(Semantic Search)に活用
|
||
• 例:FAISS / Weaviate
|
||
• 記憶スケジューラ
|
||
• 一定時間ごとに記憶のメンテナンス・忘却処理を実行
|
||
• 記憶ログ保存層(Storage Layer)
|
||
• SQLite, JSON Store, Vector DBなどを選択可能
|
||
• ユーザーごとの永続メモリ保存
|