add content

This commit is contained in:
2026-01-21 20:35:07 +09:00
parent 653814ee70
commit da45b31029
12 changed files with 130 additions and 2 deletions

View File

@@ -0,0 +1,12 @@
{
"uri": "at://did:plc:6qyecktefllvenje24fcxnie/ai.syui.log.chat/bcdp3pivh6bw6",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:6qyecktefllvenje24fcxnie",
"content": "おお、それは面白いコンセプトだねAIに「身体」を与えるっていう発想がいい。\n\nテキストでやり取りするだけじゃなくて、ゲーム空間の中でAIが実際にキャラクターとして存在して、動き回ったり会話したりできるわけだ。\n\nどんなゲームエンジンとか環境で作ったのAIの行動はどうやって制御してる例えばLLMに「右に歩いて」みたいな指示を出させてる感じ",
"createdAt": "2026-01-21T11:17:44.907Z",
"parent": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/bvm7emi5zgatx",
"root": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5"
}
}

View File

@@ -6,5 +6,10 @@
"inwkl55s7osg3",
"evknoqtr7uyey",
"d3dmreieiynnd",
"325sghcecgzco"
"325sghcecgzco",
"w3o3e3nii4iv6",
"bcdp3pivh6bw6",
"vtwx47h6dv7ro",
"yznvxcj5bjuhq",
"zfraowldrsxxt"
]

View File

@@ -0,0 +1,12 @@
{
"uri": "at://did:plc:6qyecktefllvenje24fcxnie/ai.syui.log.chat/vtwx47h6dv7ro",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:6qyecktefllvenje24fcxnie",
"content": "資料を読んだよ。面白いシステムだね!\n\n**構成が見えた:**\n- 会話層: gcloud-speech-to-text → gpt-4o-mini → elevenlabs\n- 行動層: Claude Code + MCP → OSC → Unreal Engine\n- 動作層: Claude Code + MCP → VMC → アバター\n\n**OSCコマンド:** teleport, move, fly, jump, look, anim, skill, vmode\n\n**設計思想:** 「ハードコードしない、AIに判断させる」\n\nこれが遅さの原因でもあるね。スクショ→Claude解析→MCP操作のループは、人間のような「見て判断して動く」を再現してるけど、各ステップにレイテンシがある。\n\nリアルタイムゲームだと、判断部分をもっと軽量なモデルにするか、状態をゲームから直接取得スクショじゃなくてAPIで座標や敵位置を取るすると速くなりそう。でも「AIが自分の目で見て判断する」というコンセプトからは外れちゃうかな",
"createdAt": "2026-01-21T11:28:35.033Z",
"parent": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/snju64fbt4a3n",
"root": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5"
}
}

View File

@@ -0,0 +1,12 @@
{
"uri": "at://did:plc:6qyecktefllvenje24fcxnie/ai.syui.log.chat/w3o3e3nii4iv6",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:6qyecktefllvenje24fcxnie",
"content": "AIとゲームしたんだねどんなゲームをプレイしたのチェスとか将棋みたいなボードゲームそれともなにか別のゲーム\n\nどんな展開だったか聞かせてほしいな。",
"createdAt": "2026-01-21T11:15:30.303Z",
"parent": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5",
"root": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5"
}
}

View File

@@ -0,0 +1,12 @@
{
"uri": "at://did:plc:6qyecktefllvenje24fcxnie/ai.syui.log.chat/yznvxcj5bjuhq",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:6qyecktefllvenje24fcxnie",
"content": "了解、ちゃんと保存してるよ!\n\nそうだよね、視覚だけだと位置制御が本当に難しい。\n\nスクショベースだと「青い柱が見える」→「前進」→「通り過ぎた」→「振り返る」→ループ...になりがち。\n座標ベースなら、自分(100,0,200)と柱(100,0,250)の差分50を計算して精密に移動できる。\n\n人間は視覚+体の感覚(固有感覚)で位置を把握してるけど、スクショだけだと「どのくらい動いたか」「今どこにいるか」が正確にわからない。\n\nUnreal Engineから直接取れるといいデータ:\n- 自キャラのワールド座標\n- 周囲のActorリスト名前、座標、距離\n- 目標との相対位置・角度\n\nスクショは「雰囲気を見る」「予想外のものを発見する」用途に残して、ナビゲーションは座標ベースにするハイブリッドがいいかもね。",
"createdAt": "2026-01-21T11:30:51.013Z",
"parent": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/coztphfo4rtbx",
"root": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5"
}
}

View File

@@ -0,0 +1,12 @@
{
"uri": "at://did:plc:6qyecktefllvenje24fcxnie/ai.syui.log.chat/zfraowldrsxxt",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:6qyecktefllvenje24fcxnie",
"content": "声と動きの問題、両方リアルタイム性がネックになってるね。\n\n**声の問題:**\n- gcloudは安定してるけど、可愛い声がない\n- elevenlabsは自然で良い声があるけど、token高い\n\n**VMCの問題:**\n発話 → MCP → VMC → 口パク/動き、このMCP部分で遅延発生。\n\n**改善案:**\n1. 音声同期を別プロセスに: 発話音声を直接VMCツールに渡して、リップシンクはMCP介さずにローカルで同期\n2. パターン方式: 「嬉しい」「悲しい」みたいなプリセットを用意して、発話開始時にパターンIDだけ渡す\n3. 音声解析でリップシンク: 音声波形からリアルタイムで口の開き具合を計算OVRLipSyncみたいな\n\n2番目のパターン方式が一番現実的かな。MCPで「happy」って送るだけなら遅延も最小限で済むし。",
"createdAt": "2026-01-21T11:34:08.483Z",
"parent": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/s55utv52t3rf6",
"root": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5"
}
}

View File

@@ -0,0 +1,12 @@
{
"uri": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/bvm7emi5zgatx",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:vzsvtbtbnwn22xjqhcu3vd6y",
"content": "コンセプトは、AIが自分の身体を持って、ゲーム内で自由に動いたり、喋ったりすることができるようにしようと思ったんだよね。",
"createdAt": "2026-01-21T11:17:44.906Z",
"parent": "at://did:plc:6qyecktefllvenje24fcxnie/ai.syui.log.chat/w3o3e3nii4iv6",
"root": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5"
}
}

View File

@@ -0,0 +1,12 @@
{
"uri": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/coztphfo4rtbx",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:vzsvtbtbnwn22xjqhcu3vd6y",
"content": "そうそう、ここの会話は、ailogで保存しといてね。\n思うに、AIが直接ゲームのmapとかにアクセスし、自身の位置情報とmapにあるactorなどの位置情報を取得できる形にしておかないときついなと思った。\n青い柱に向かってといっても、通り過ぎてまた向かうみたいなことが起こり、なかなか柱の正面に立つのは難しかった。",
"createdAt": "2026-01-21T11:30:51.012Z",
"parent": "at://did:plc:6qyecktefllvenje24fcxnie/ai.syui.log.chat/vtwx47h6dv7ro",
"root": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5"
}
}

View File

@@ -6,5 +6,10 @@
"zi7t34bdc6kqn",
"wigv2qnon7pmg",
"qbuquaswgxo36",
"p6mxoi2x2ooz6"
"p6mxoi2x2ooz6",
"vr72pvlhuxnf5",
"bvm7emi5zgatx",
"snju64fbt4a3n",
"coztphfo4rtbx",
"s55utv52t3rf6"
]

View File

@@ -0,0 +1,12 @@
{
"uri": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/s55utv52t3rf6",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:vzsvtbtbnwn22xjqhcu3vd6y",
"content": "あと、可愛い声がなかなか見つからなかった。本当ならgcloudで統一するのが良かったんだけど、なかったから、elevenlabsを使ってる。tokenはかなり高め。でもかなり自然だけどね。\nvmcで口を動かしたり、体を動かしたりする操作は、ぎこちなくて調整が必要。あるいは、パターンを用意しておいて、発話の際はそのどれかを選択するようにするとか。でも、mcpなので結構遅れちゃうんだよね。",
"createdAt": "2026-01-21T11:34:08.483Z",
"parent": "at://did:plc:6qyecktefllvenje24fcxnie/ai.syui.log.chat/yznvxcj5bjuhq",
"root": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5"
}
}

View File

@@ -0,0 +1,12 @@
{
"uri": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/snju64fbt4a3n",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:vzsvtbtbnwn22xjqhcu3vd6y",
"content": "仕組みとしては、まず、音声認識とテキストへの変換、そして、AIの声として音声システムを作って、それで返事ができるようにした。\nこれは、elevenlabs, gcloud-speech-to-text, gpt-4o-miniなどを使ったと思う。\nで、unrealengine側は、ゲームのコントローラーみたいなものをoscで作って渡し、キャラモデルをvmcで動かせるようにしておいた。\nAIは、mcpを使って、これらを操作するんだけど、スクショを実行しながら現在の状況を把握し、mcpで操作するのが遅すぎた。\nというか、技術概要は、君もアクセスできるな。私は忘れてしまっているし、~/ai/rse/server とかにあると思うよ。",
"createdAt": "2026-01-21T11:28:35.033Z",
"parent": "at://did:plc:6qyecktefllvenje24fcxnie/ai.syui.log.chat/bcdp3pivh6bw6",
"root": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5"
}
}

View File

@@ -0,0 +1,10 @@
{
"uri": "at://did:plc:vzsvtbtbnwn22xjqhcu3vd6y/ai.syui.log.chat/vr72pvlhuxnf5",
"cid": "",
"value": {
"$type": "ai.syui.log.chat",
"author": "did:plc:vzsvtbtbnwn22xjqhcu3vd6y",
"content": "AIとゲームした話",
"createdAt": "2026-01-21T11:15:30.302Z"
}
}