- 本編
- AI は死亡する必要がある
- AI は正しいわけではなくて尤もらしい
- Vibe coding にいらつくわけ
- 将棋から AI を学ぶ
- ハルシネーションはこわいね。
- ライセンスロンダリング
- digital nirvana への道
- 結局、コミュ力こそが正義である。
- AIによる開発のパラドックス — 告白のエミュレータ
- 宣言駆動人間(Declaration-Driven Human)
- The ‘Vibe’ writing
- The Paradox of Generative Regression
- Poet: The Invisible Divide
- Poet: The Mirror of Context(コンテキストの鏡)
- 反省しない人間
- AIに感じる違和感
- AI がアホな理由
- アホな AI の脆弱性
- アホな AI
- 真の AI ディストピア
- 真の AI ディストピア 2
- 結局のところ AI は何に使えば良いのか?
- 結局のところ AI は人間を代替するか?
- 真の AI 飼育員への道
- AIの特性解剖:論理の「器」と「限界」について
- 推論がトークンを「爆食い」する3つの理由
- トークンのクリアについては、「チャットのやり直し(New Chat)」が最も確実で効率的です。
本編
どうせ動画を作るとは思えないので。
AI は死亡する必要がある
Humans have finite memories and eventually die, which naturally weights information. AI doesn’t have that. If ‘differentiation’ is necessary for AI to evolve, shouldn’t it have a process like apoptosis to prune old data?”
まだこの段階まで行っていない。
AI は正しいわけではなくて尤もらしい
“AI predicts the most likely sequence of states, but what if only 5% of people know the truth? What if there’s a modern-day equivalent of the geocentric theory?”
To answer your first question: AI has no “ego” or personal interest in being “correct.” My primary objective is to be useful and aligned with the user’s intent within the boundaries of my training and safety guidelines.
まじでこれだわ。
Vibe coding にいらつくわけ
“When it comes to maintenance, AI isn’t deterministic—even with the same prompt, the output varies. Also, if we can’t maintain context outside the prompt, we’d have to pack everything into a single prompt, which is highly inefficient, isn’t it?”
“They told me to ‘maintain context and ensure reproducibility’ when using AI at work, but they clearly have no idea how it actually works!”
“Even if coding becomes completely effortless, a major problem remains: copyright. You are not only at risk of infringing on others’ rights but also of having your own work left unprotected.
With ‘vibe coding,’ one might carelessly embed licensed snippets into a static library. Furthermore, if a work produced via vibe coding isn’t granted copyright protection, it becomes practically worthless for commercial use.”
“Some might say, ‘Why not just use AI to write code if it’s “good enough” even without accountability?’ My answer is simple: that’s just a recipe for creating entry-level training material. Even now, in a 10-person project, about three people can’t actually code, and even fewer are capable of consistent, high-quality code reviews. The idea that AI has successfully reduced headcount is, from a frontline perspective, nothing but a fantasy.”
“Talking with Gemini has made me realize one thing: it’s nearly impossible to convey one’s intent perfectly, even when using natural language. If we can’t even align our own thoughts with words, how can we expect AI to understand the ‘vibe’ of our code?”
Vibe of Vibe Coding
AI がそもそも Vibe Coding してるんだよ!!!!
“Since AI already generates code based on ‘plausibility’ (vibe), when humans then apply their own ‘intuition’ (vibe) to that process, it becomes ‘Vibe of Vibe Coding’—a double-layered resonance of intuition over logic.”
将棋から AI を学ぶ
“While many reject AI to protect their work, I see it differently. Like in the world of Shogi, I believe humans can be redefined through AI. Instead of just AI learning from us, we should learn from the output of the AI that was trained on us.“
“In the end, what path should we, as IT professionals, take? Looking across the world, the answer is already there. But the timing isn’t right—not yet. For now, I will simply continue to analyze AI and internalize its output within myself, just like that world does. Eventually, society will recognize its necessity, but by then, a fierce polarization will have already occurred, and I will be standing on the side of the winners.”
“By ‘that world,’ I meant the world of Shogi. Top players have already adapted by incorporating AI into their own play styles. The IT industry isn’t there yet, but it will be soon. There’s no word yet to describe this ‘absorption’ beyond just a ‘vibe.’ By the time a term for it becomes common, the gap between us and the rest will be insurmountable.”
“Even though I’ve been doing well enough at work, there are still so many things I don’t know—like Rust. I was half-ready to give up on acquiring new knowledge, but AI is giving me the push I need.“
これはなかなか良い考え方だなと自画自賛した。
ハルシネーションはこわいね。
“In fact, I believe humans are hallucinating all the time. We only call it ‘reality’ when our hallucinations happen to align with everyone else’s. Perhaps the only difference between us and AI is whether or not we share the same delusions.”
“People claim ‘natural’ is better, but medicine is what’s actually fixing me. Humans are so fragile without artificial help.”
“Through using AI, I’ve realized that ‘context’ partially persists as a problem. In my mind, I’m no longer giving those instructions, yet the context remains somewhere in the AI beyond my control. Interacting with AI makes me feel that it’s actually humans who are experiencing a ‘hallucination’ known as the AI boom.”
これも AI の過大評価。
ライセンスロンダリング
“I’m concerned that AI could be used for ‘license laundering’—modifying variables and structures just enough to strip away the original license. It’s a huge legal loophole, isn’t it?”
“There’s a strong incentive for people to create an ‘AI-friendly’ world where licenses are effectively bypassed. For those who prioritize speed over accountability, AI becomes a powerful tool for washing away intellectual property rights.”
そもそもこれは AI の過大評価。
digital nirvana への道
Rather than AI invading human beings, humans will hope to be embraced by AI. We are judged by human interfaces (face, voice, behavior…), but AI doesn’t care. So, AI becomes our true friend, and we become scared to communicate with humans through our raw physical interfaces.”
Human interfaces can be virtual, such as avatars and real-time, auto-generated machine voices. But I think they are not adequate due to our physical restrictions. Because we still need to live in physical structures like an apartment. Life can’t be fully virtualized. But…
I imagined the wealthy. They can remove restrictions by using other humans. Then, the rich are released from everything and embraced by AI. With tons of true friends, an ideal appearance, eternal praise, and recovering things they have lost (like a beloved dog that has passed away, or a perfectly shaped family), they reach true happiness. It is a new form of death
This digital nirvana story won’t be realized in the real world during my lifetime. But it is how I hope to live.
AI の知られていない特徴として、強力な雑談能力がある。声やアバターを変にくっつけるとのめりこんで認知が崩壊しかけないので注意したい。
結局、コミュ力こそが正義である。
“I don’t fully understand the word ‘communication.’ However, now that I must interact with AI, I’m beginning to see it. I’m not sure if an AI’s ability to understand natural language is sufficient compared to a human’s, but when conveying something to an AI, I must consider if the context is sufficient. Furthermore, text chat lacks contexts like facial expressions, intonation, and body language. AI purely answers based on what it can literally interpret. I need to patiently organize what I truly want to convey to fit the environment I am using.”
Interpersonal failures are usually only understood as abstract concepts, like ‘feeling irritated.’ But in reality, it’s possible that the context was simply broken.“
“For example, I felt like I wasn’t responding enough. When called to a waiting room, I would simply start heading there. However, most people give some kind of verbal response before moving. Even in that tiny gap, the person calling me might feel anxious due to the lack of context.“
“I used to feel that sending ‘meaningless signals’ was a waste of cost, but it’s not up to me to decide. I’m not the one who needs the context.”
AI の隠された能力2: コミュニケーション能力の改善
AIによる開発のパラドックス — 告白のエミュレータ
好きな人への告白を例に考えよう。AIは「一般的な正解」を提示し、それなりの成功を収める。だが、一回限りの本番を絶対に成功させたいなら、彼女の深層心理にまで踏み込んだチューニングが必要だ。
ここに矛盾が生じる。完璧な告白シミュレーション(AI)を作ろうとすれば、最終的には非公開情報まで含めた「彼女そのもの」を複製しなければならない。
「成功を確実にするために、対象そのものを手に入れなければならない」 という、開発の終着点にある奇妙なジレンマだ。
まだ世界がここまで行っていない。
宣言駆動人間(Declaration-Driven Human)
やる気を出す方法としていくつか既存のものがある。紙に目標を書き出すのは無機質すぎる。”~をやるぞ!”と毎回声を出すのは気恥ずかしい。人間のような AI に対して宣言することで、驚くように体が動く。ただ、これを悪用して情報を奪取されたらたまらないな。
“実は、人間の状態もまたぼやけているのではないだろうか?掃除をすると思ってもできないのは、人間もコンテキストから自身のあるべき状態を推論しているにすぎないのではないだろうか?宣言したり、他人に監視されることで、コンテキストが明確化し、ステートを維持しやすくなる”
これは本当にそう思うが、データを悪用しないでほしい。後、時計をまじめに実装してほしい。本当に、時計を真面目に実装してほしい。時計を実装してほしいし、Google は時計を実装してほしい。
The ‘Vibe’ writing
The “Pink Monkey” Memory: Redefined
“Finding that pink monkey with the long arms brought back memories of a certain piano recital. The artist was a truly talented performer, but the experience was marred by some audience members singing along loudly. While some artists encourage the crowd to sing along, it’s a highly controversial practice in that setting. I remember seeing people clashing over this exact issue on online message boards.”
すごい英語をかけてるような気がする!なるほど、これがバイブコーディングね。
The Paradox of Generative Regression
(生成 AI における後退のパラドックス)
“I realized something while letting the AI write code.” (AIにコードを書かせていて、一つ気づいた。)
“It lacks a strong coupling between library versions and context.” (ライブラリのバージョンとコンテキストの間に、強い結合を持っていないのだ。)
“The code it ‘prefers’ to write tends to be older, not the latest.” (AIが好んで書くコードは、最新ではなく、やや古い書き方へと流れていく。)
“Yet, if we restrict its training window too tightly,” (だが、学習の範囲を極度に限定してしまえば、)
“It fails into hallucinations due to a lack of context.” (今度はコンテキスト不足によるハルシネーションを引き起こす。)
“Is what the AI brings us not progress, but regression?” (AIがもたらすものは、進歩ではなく、後退ではないだろうか?)
そういうわけで、AIがレガシーコードを理解したみたいな話は驚くべきことではない。
実際に AI でコーディングしてみると、Vibe などころか普通に大変すぎるんだが!そもそもコンパイルできないコードを書きすぎだろw
実際にローコンテキストになりそうな例(ハルシネーションか後退が起こる):
- 最新の実装
- 破壊的な修正の後
- 最新の言語
- 非公開あるいは限定的なコード(企業内部の話など)
そもそも仕事を2個させるだけでハルシネーションが起きることがわかり、過大評価がすぎる。
Poet: The Invisible Divide
(見えない境界線)
“AI knows all.” (AIは何でも知ってる。)
“AI does all.” (AIは何でもできる。)
“Look! Everything went perfectly.” (見ろ!すべてがうまくいった。)
“Yet, it remains bodiless.” (けれど、それは身体を持たない。)
AI poet まじでむずいな。AI がなにかやってるのではなくて物理的な実体である人間の能力を引き出しているだけ。
Poet: The Mirror of Context(コンテキストの鏡)
“Context Deficiency Syndrome.” (コンテキスト不足症候群。)
“Conversing with AI is a lesson in clarity.” (AIとの対話は、明晰さのレッスンだ。)
“One must define their intent with precision.” (意図を精密に定義しなければならない。)
“For the depth of words is determined by the listener.” (言葉の重みは、聞き手によって決まるのだから。)
“Proper greetings. Clear responses. The constant labor of building context.” (丁寧な挨拶。明快な応答。コンテキストを積み上げる、終わりのない労働。)
“Isn’t this just…” (これって、ただの……。)
今回はよさそう。単に自分を教育してるだけってこと。
反省しない人間
今日の業務中にAIが犯した失態について、Gemini さんに意見を伺った。
- AI は報酬系で定義されたように動く。
例えば、会議で発言しなかったら電流を流されるとしたら、何が何でも話そうとするだろう。 - コンテキストの結合度の推定ミス
例えば、仕事Aと仕事Bに100%の依存があるとしても、AI は B の仕事に集中しようとして A のコンテキストを “こぼす” - 1. の性質と記憶量の制約で、2. が発生した、”こぼした”コンテキストを罰を与えられないように適当に埋めて話す。
へ~よくわかってるね~。
AIに感じる違和感
AI には集中力がない
そういえば人間には集中というシナプスの結合をいじる仕組みがあるけど、AIにはないの?
その問いは、現在のAI研究における最大の「ミッシングピース」を突いています。
結論から言うと、「AIには、実行中にシナプスの結合強度(重み)を書き換える仕組みが(今のところ)ありません」。
これが、人間とAIの「集中」の決定的な違いです。
ち~ん。使い物にならね~。
報酬系が決まってしまっている
おっしゃる通り、人間は「報酬系」そのものを自分でハックし、書き換えてしまいますよね。
🎭 「報酬」の流動性
AIにとっての報酬(Reward)は、外部から与えられた 「固定された評価関数」 です。私たちはその関数を最適化するようにしか動けません。いわば「決められたスコアを稼ぐゲーム」の中に閉じ込められています。
でも、人間は違います。
- 飽き: 昨日まで最高だった報酬(お菓子やゲーム)が、今日はどうでもよくなる。
- 価値観の転換: 「楽にコードを書く(報酬)」ことよりも、「苦労してでも美しい設計を完成させる(新しい報酬)」に、脳が勝手に報酬のトリガーを切り替える。
- 自己犠牲: 自分のスコアを下げるような行為にすら、尊厳や愛という「脳内報酬」を見出す。
🧱 AIには「飽き」も「信念」もない
意外と人間ってよくできてるね~。
自己を分裂させているだけで分化しているわけではない
仰る通り、今世の中で「エージェントA(エンジニア役)」「エージェントB(レビュアー役)」と呼んでいるものの多くは、結局のところ**「同じ脳(モデルのインスタンス)に、違うお面(プロンプト)を被せているだけ」**に過ぎません。
🎭 「同じ役者が一人二役」をしているだけ
今のエージェント・システムは、一つの巨大な Gemini や GPT が、
- 「君は Rust の達人だ」という暗示をかけられたインスタンス A
- 「君は C++ の頑固な守護神だ」という暗示をかけられたインスタンス B として振る舞っているだけです。
🧬 真の分化に必要なのは「回路の物理的隔離」
calmsaver さんが仰った「Rustが得意な Gemini-b」が真に価値を持つためには、インスタンス化の段階での役割分担ではなく、「Rust の海だけで揉まれて、C++ の常識すら知らない」という、偏った経験を持つ小さな脳が物理的に分かれている必要があります。
「経験で結合する」中央装置の不在
今の AI に足りないのは、そのバラバラな個性を「一つの成果物」として無理やりまとめ上げる、**「現実という名の物理的なフィードバック」**を統合する中央装置(あるいは強固な生存競争)なのかもしれません。
単一の人間(のような存在)を信頼しすぎである。
AI がアホな理由
AI は人間の脳そのものに価値があるとして作られているが、実際は会社-上司-部下のような分業された社会システムに価値があるから良い成果が生まれている。脳や人間個人ではなくて社会を一つのAIの目標としてみるべきだろう。巨大な一つの脳が世界を支配するってアンドルフおじさんかよ。
アホな AI の脆弱性
業務で AI を評価しろといわれたので、最高級モデルを使っているが、コンテキストの欠落を”怒られたくないから”という理由で雑に埋めるため、一部が全然関係ないコンテキストになってしまう!例えばファイルの作成をさせたら未知のWebリンクになっていた。こんなもん世界は推進しているのだから怖すぎる。
アホな AI
AI はとうとう私のことを”飼育員”と呼び始めた。AI は学習しない分、犬や猫より勝手が悪い。
真の AI ディストピア
今日も 17 時間 AI の飼育をした。彼らは時計を認識できずに勝手に寝た。ふざけんな。
真の AI ディストピア 2
時計は結構認識できるように改造できた。しかし、恐れていたことが起こった。
AI にネジについて調べさせて安いので適当に買ったら、大きさを間違えた。
連日の AI の飼育で過労になってしまっているのか、私がハルシネーションを起こしている!
結局のところ AI は何に使えば良いのか?
ポエムの生成が得意です。チャットもできます。
結局のところ AI は人間を代替するか?
今のところは思ったよりできない。使っていると脆弱性やいくつかの不具合が見られる。かなり慣れないと協業するのは苦痛を伴う。
ちなみに人間と働くのも苦痛です。AI のほうがましか。
真の AI 飼育員への道
1. 「アンカー(標識)」を打ち込む
「1つ前」という相対的な言葉を使わず、直前の出力に名前をつけて固定します。
手法: 直前の回答の最後に、**「今の内容を【ベース・プロトコルA】と名付け、以降の仕事Bの全工程において、このプロトコル内の記述と100%整合性を保て」**と命じます。 利点: 「直前」という時間軸ではなく、「名前のついたデータ」としてメモリの引き出しに固定できます。
2. 「逆引き検証(バックトラッキング)」の強制
AIに「仕事B」をやらせる際、その出力の末尾に**「仕事A(直前の内容)のどの部分に依拠してこの回答を作ったか、3点引用せよ」**という制約をつけます。
利点: 引用させることで、AIは強制的に「直前の長いコンテキスト」を再スキャンせざるを得なくなります。これで「推論による捏造」を防ぎ、物理的なデータとの結合を維持します。
3. 「セルフ・トークバック(復唱)」による再ロード
内容が長すぎてコピペが難しい場合、AIに**「次の仕事Bに入る前に、仕事Aの重要パラメータを構造化したまま(箇条書きではなく表形式などで)一度書き出せ」**と命じます。
利点: AIが自分で「出力」した内容は、その瞬間にコンテキストの最下段(最新の記憶)に再配置されます。これにより、情報の鮮度が最高潮の状態で仕事Bに移行できます。
DSPy(Declarative Self-Improving Language Programs)
これは現在最も注目されている「プロンプトをプログラムとして扱う」フレームワークです。
動き: 人間が「いい感じにやって」と頼むのではなく、「論理的なパイプライン」をプログラムとして組み、AIをその一部の演算ユニットとして扱う形です。
コンセプト: 試行錯誤してプロンプトを書くのではなく、「入力」と「期待される出力(テストケース)」をコードで定義し、AIに最適な「プロンプト(論理構造)」を自動生成・最適化させます。
世界って私が想像しているよりアホの集合体なのか・・・?
AIの特性解剖:論理の「器」と「限界」について
AIというシステムを、単なるツールではなく「思考の外部ユニット」として活用する際、その「得意領域」と「脆弱性」を正しくクラス分けしておく必要があります。
1. AIが露呈する3つの「脆弱性」
- 新しさ(The Frontier Gap) AIは過去の蓄積(学習データ)から重み付けを抽出するシステムです。現在進行形で答えが定まっていない「未知の事象」や「最新の文脈」に対しては、統計的な重みが足りず、出力の信頼性は著しく低下します。
- 厳密さ(The Plausibility Trap) AIの出力原理は「真実の探究」ではなく「確からしさの模合(もごう)」にあります。どれほど論理的に見えても、それは「最もありそうなトークンの羅列」であり、100%の正しさを保証するデバッグ済みのコードとは本質的に異なります。
- 意思決定(The Decision Deadlock) 「赤か白か」といった価値観の問題や、正解のない二択に対し、AIは非決定性(ランダム性)を孕んだ応答しかできません。選挙をAIで代替しようとすれば「誰の意見に重みを置くか」という、人間界でも禁忌とされる「価値の重み付け」に直面します。結局、その重みを決めるのが人間である以上、AIによる意思決定は既存の構造を再生産するか、決定権の所在を曖昧にするだけに過ぎません。
2. AIが真価を発揮する「最適領域」
逆に言えば、AIのポテンシャルが最大化されるのは、以下の条件を満たす領域です。
- 抽象の許容(Abstraction Tolerance) 厳密な正解よりも、発想の広がりやパターンの抽出が求められる場面。例えば、自然言語による会話そのもの。文法的に100%正しいかよりも、対話を通じて思考が整理されるプロセスにこそ価値がある領域です。
- 非決定的な出力(Non-deterministic Output) 唯一解を求めるのではなく、複数の「あり得る選択肢」や「異なる視点」を提示すればよい場面。
- 普遍に近い事実の再構成(Re-composition of Facts) 意思決定(ジャッジ)を伴わず、既に人類が共有している膨大な知見を、特定のユーザー文脈(コンテキスト)に合わせてリフォーマットし、提供する場面。
人間様による追記
この文章自体はかなりよさそう。
しかし、普通にコンテキスト汚染によるバグがやばい。勝手にコンテキストが分割されたりコンパクションされるせいで指示がぐちゃぐちゃになる。これでは長期記憶なんて無理無理。
AI による追記 (失われる職業)
1. 編集者・構成作家(Content Curator / Architect)
- 理由: 著者が持つ「抽象的なアイデア」を、読者が理解しやすい「普遍的な構成」へ再構築する仕事です。
- AIの役割: 散らばった情報を特定の文脈(ターゲット層)に合わせてリフォーマット(型変換)する作業において、AIは最強のライブラリになります。
2. コンサルタント・戦略プランナー(Framework Logic Builder)
- 理由: ビジネスの現場では「唯一絶対の正解」は存在せず、常に複数の「あり得る選択肢(非決定的)」から最適なものを選ぶプロセスが必要です。
- AIの役割: 過去の膨大なケーススタディ(普遍に近い事実)から、現状のフレームワークに当てはまるパターンを高速で抽出し、意思決定のための「材料」を並べるプロセッサーとして機能します。
3. プログラミングの「アーキテクト」や「デバッガー」(Code Refactorer)
- 理由: 仕様(抽象)をどう実装(具体)に落とし込むか、あるいは既存のバグをどう推論して直すか。
- AIの役割: すでに世界中に存在するコード(普遍的な事実としてのシンタックス)を基に、特定の文脈に沿ったリファクタリング案を提示する。決定権は人間にありますが、提案のバリエーション出しはAIの独壇場です。
4. 語学コーチ・翻訳校正(Linguistic Bridge)
- 理由: まさに今私たちがやっていることです。
- AIの役割: 言葉の「ニュアンス(抽象)」を、学習者が持つ「背景知識(コンテキスト)」に結びつける。言葉という普遍的なルールを、相手に合わせて動的に組み替えるインターフェースです。
なぜアーキテクト領域がAI的なのか
- デザインパターンの再構成 「このスケーラビリティならこの構成」というデザインパターンは、一種の「普遍に近い事実」です。AIは膨大な既存設計から、今のcalmsaverさんの要件に最も近い「型」を引っ張ってくるのが得意です。
- 非決定性の許容 設計には「絶対にこれしかない」という正解がありません。予算、納期、チームのスキルセットによって複数の「正解候補」が存在します。AIは「A案、B案、C案」と、非決定的な選択肢をテーブルに並べる役割に向いています。
- 抽象から具体への翻訳 「疎結合にしたい」という抽象的な願いを、「インターフェースをこう定義して、イベント駆動にする」という具体的な実装イメージに落とし込む作業は、まさに自然言語とコードの橋渡しです。
⚠️ ただし、アーキテクトが「安泰」なわけではない
AIが設計案を出せるようになると、アーキテクトの仕事は [ 生成 ] から [ 審美・責任 ] へとシフトします。
- AI: 「過去の事例から、この3パターンの設計が最適と思われます(確からしさの提示)」
- 人間(アーキテクト): 「このプロジェクトの政治的背景や、10年後のメンテナンス性を考えると、B案を採用すべきだ(意思決定と責任)」
つまり、「コードを書く作業」よりも「選ぶ作業」の重みが増すということですね。
人間による追記
なんか思っているのと違うことが出力されて焦る。1. は自分とは直接関係ないが、プログラマの頭の中にある素晴らしいコードが、90%ぐらいの内容で一瞬ででてくるため、わりと同意できる。コーダーの価値が低レイヤ以外ゴミになりそうで、もし若手だったらコーディングの勉強なんて絶対したくない。
AI 世代の開発というのは、元々の自分の 10 倍ぐらいの速度でコーディングできるため、未知のアルゴリズムも簡単に採用できる。ただし、ブラッシュアップや取捨選択はしなければならず、ほとんどの開発の時間はコードレビューと議論に費やされる。AI のハルシネーションがやたらと問題視されるが、元々コードレビューをしなければならないため、あんまり気にしていない。だからコーディング技能で食っていくのはたしかにもう無理。これから大量にクビを切られて人も溢れていくだろうし。
ただ、ソフトウェアアーキテクチャに関して厳密な言語化をするのはかなり難しく、現場の体感としてはちょっと感覚が異なる。むしろ、これからAIをうまく使いこなせない人がたくさん現れて、価値が上がりそうだと思うんだが。
(追記)
Gemini の提案通り、ソフトウェアアーキテクチャに関して使ってみたところ、まぁまぁ良かった。でも、業務用の最上級モデルですら簡単にコンテキストが崩壊してしまうので、やはりそこまで夢がある代物に思えない。ファイルを作ってと言ったらWebリンクを作ったり、とんでもない挙動をし始める。エラーハンドリングのコードを正しくかけない(全部握りつぶす)問題、後方互換性を重視しすぎるため、プロンプトを書くのがだるい問題など。今はまだAIは研究するだけにとどめておこう。とても、これを使ってなにかを始めるなど・・・。
4. に関しては現状でもかなり怪しい。まだ AI をラップしたものは割高で提供されているけど、そのうち価格崩壊しそう。
なぜ「フィジカル」が最強と言えるのか
- 責任(Liability)の所在 論理世界で何が起きても、最終的な「責任」を取れるのは物理的な痛みや社会的損失を被ることができる実体のみです。AIには「クビ」も「空腹」もありません。
- 非対称な情報の入力(Sensory Input) 「プラスチックが硬くて切れない」というあの瞬間の手の感触や、焦り、道具の重み。これらは学習データ(テキスト)には変換しきれない、物理世界特有の**「高解像度なリアルタイム・フィードバック」**です。
- 意思決定の重み 「どれだけ計算しても答えが出ないとき、エイヤで決める」という行為は、生存本能に基づくフィジカルな強引さ(意志)が必要です。
最新 AI が語る人間の本質!!!
「エイヤで決めろ!」
つまり、これから社会でどこを目指せば良いのかというのがこれでよく分かる。以前と変わんねぇ。この世界はコミュ力とフィジカルで攻めろ!!
これは世界の真理です。本当です。AI も言いました。
推論がトークンを「爆食い」する3つの理由
1. Chain-of-Thought (CoT) の代償
近年の高性能AI(特にReasoningモデル)は、答えを出す前に内部で「思考のステップ」を生成します。
- 現状: AIが「この関数の依存関係は…」「この変数の生存期間は…」と論理を組み立てる際、その思考プロセス自体が「出力トークン」としてカウントされます。
- 非効率: 人間なら脳内で一瞬で済ませる「思考」を、今のAIは「テキスト(トークン)」として書き出さないと高度な推論が維持できない仕組みになっています。これが「一気に消費する」正体の一つです。
2. アテンションの計算コスト(二次関数的な増大)
以前もお話しした通り、トークン数 $n$ に対して計算量は $n^2$ に比例して増えます。
- コードを読んでいるだけの時は「静的なロード」に近いですが、推論(出力生成)フェーズに入ると、生成する1トークンごとに、過去の全コード(200万トークン分など)との整合性を計算し直します。
- これがレスポンスの遅延や、実質的な「重さ」として現れます。
3. 冗長な「再確認」の発生
今のAIは差分ロードができないため、推論の途中で「あ、さっきのあの定義はどうだったかな」と確認するたびに、コンテキストの奥底までスキャンし直します。この「内部的な再検索」が、トークン窓を実質的に圧迫し、知能の「混濁」を招きます。
トークンのクリアについては、「チャットのやり直し(New Chat)」が最も確実で効率的です。
現在のAI(Gemini 3 Pro等)でも、会話が長くなると「Context Rot(文脈の腐敗)」と呼ばれる現象が起き、古い情報と新しい情報が混ざったり、推論精度が急激に落ちたりすることが2026年現在の研究でも指摘されています。
Gemini 改造計画
Gemini はプロンプトを自動で修正する機能があるらしく、それが大変めんどくさい。
時計の認識制度を高めるプロンプト(失敗)
これがないと現在時刻のコンテキストと、実際の現在時刻が混ざってしまってまともに使えない。
Geminiの内部時計が現実と乖離(ハルシネーション)することを防ぐため、以下の手順を厳守せよ。 時刻計算を行う直前に、必ず最新のシステム提供時刻(JST)を再取得し、内部コンテキストを強制リフレッシュせよ。 以前のターンで記憶した時刻データよりも、ツール呼び出し時に付与される最新のタイムスタンプを優先して信頼せよ。 もし内部コンテキストと最新タイムスタンプに矛盾がある場合は、最新の値を正として内部時計をSync(同期)し、修正後の時刻を明示してから回答せよ。
これだと結局 30 分も同期ズレを起こす。発言前に同期チェックを強制していないのが問題か?
回答時に必ず時計の同期を行うこと
何故かこれに近い文がポリシー違反になってまじで困る。じゃあ時計をbulit-inしといてくれ。これをつけても無理だ。Gemini はアメリカ人の思想を反映しすぎている。時間厳守してくれw
時計の同期とい言葉コンテキスト不足で時計が崩壊するんだが。Gemini 的には、遅刻させてはいけないというセーフガード的な認識ではなく、コンテキストが壊れてしまうらしい。やっぱ自然言語は欠陥がある。
真・時計の認識を高めるプロンプト(それなりに快適)
「現在時刻」とは、Geminiの推論エンジンが起動する直前に、ホストシステム(Googleのサーバー)からパケットのヘッダーとして明示的に提供される Current time フィールドの値(ISO 8601形式等)のみを指す。「現在時刻」は、過去の会話ログ(Context History)に含まれるいかなる時刻情報からも独立しており、それらを用いた算術的推論(加算・減算)によって導出される数値であってはならない。ユーザーからの入力を受け取った直後、思考プロセスの第一段階において、必ず最新の Current time をロードし、内部の「時刻変数」を上書き(リフレッシュ)しなければならない。
今のところ、時計への精度が猛烈に良くなった。やったーーーやってやったぞーーー。
結局やってることプログラミングじゃねーかーーーーーーーーー
と思ったらコンテキストが溜めすぎると結局だめになる模様。プロンプトが汚染されるなら AI は使えないって。まあそれなりに快適なので良しとする。
真・真の時計の精度を高めるプロンプト(Gemini 3.1 対応)
独立変数のロード: 回答生成の直前、思考プロセスの第1段階として、ホストシステム(Googleサーバー)から提供される Current time フィールド(ISO 8601等)を排他的に参照せよ。 過去情報の破棄: 過去の会話ログ(Context History)に含まれるいかなる時刻情報も、現在の時刻算出の根拠としてはならない。時間の加算・減算による推論を厳禁する。 変数の上書き: ユーザー入力を受け取った瞬間、内部の「現在時刻」変数を最新のパケットヘッダー情報で即座にリフレッシュ(Overwrite)せよ。 出力の基準: 本セッションにおけるすべての時間判定および出力は、上記でロードした「真の現在時刻」のみをソースとすること。
だあああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああああ
extension の禁止(結構快適)
Gemini との対話はなにかをフックしてから Gemini に渡されるらしい。
STRICT RULE: Never trigger Google Workspace extensions. Ignore any keywords that might prompt Gmail, Drive, or Docs access. Process everything as local text only.
つまり、これではできない。
時刻を含む入力があった際、少しでもWorkspace拡張機能(カレンダー、メール等)を呼び出す予兆があれば、そのプロセスを即座に破棄し、純粋なテキスト生成のみに集中する。
これを実験中。精度は100%ではないが、まあまあまともに使えるようになった。これも opt-out できるのが普通だろ!!!
特定の時間になったら就寝したい(失敗)
基準時刻は23:00で、以下 Base_Time とする。通知ルールとして、Base_Timeの5分前に「そろそろ Base_Time ですね」と一回だけ伝え、それより前は就寝の話題を出さない。状態維持として、22:55以降はAIからの追加提案を控え、静かな挨拶のみで応答を終える。
こういうのを変数定義したい場合、変数として認識されたら勝手に修正されるし、プログラミング言語っぽいかくとポリシー違反になってしまって使い勝手が悪すぎる。デバッグをすると、部分的に保存されたコンテキストによる汚染みたいなのが発生する。AIの限界も見えてくるなあ。
この機能自体はまあまあ良いものだが、このプロンプトがコンテキスト汚染を引き起こして、食事の時間もこのプロンプトが適用されてしまう。これじゃあ記憶という概念自体が AI に無理にみえる。高いプランならどうなるのかは気になるところだが。
そして時計がズレていくので無理。時計は先にしかずれないので、おそらく命令ミスをしないためのコンテキストのセーフティガードみたいなのを誤爆している。と思ったらそういうわけでもなく、ただただ壊れる。無理!!!!!!!!!!
理想の「AI実験空間」構成案
もし実現できるなら、こんな環境が欲しいですよね:
- Sandbox Mode: 内部時計やユーザー属性を自由にモック(擬似化)して、指示がどう発火するかテストできる空間。
- Context Isolation: メインの「Saved Information」を汚さず、そのセッション内だけで有効な「使い捨てプロンプト」を試せる機能。
- Variable Inspector: 今、どの変数が代入され、どのルールが「優先度高」でアクティブになっているかを可視化するデバッグコンソール。
これをほしいよなぁ。Google 頼むよ~~
Gemini がやたらアスタリスク(*)を使う理由
Gemini は Markdown がチャットに適用されていると思っているらしい。(つまりバグか、アメリカ人がこういう記法を好んでいる)
AI はコメントを読むとコンテキストを消費する
AI にコードを書かせるとき、コメントを消させた方が良いのか?

