2025年10月20日

天気が悪くて頭が重い。リトルKを保育園に送る。今日も行く前はまだYouTubeを観たいとか、疲れたから寝るとかいってぐずっていたが、外に出るところっと忘れて普通に登園。

仕事中、先日亡くなったディアンジェロのアルバムを1st、2ndと聴く。なんとなく名前とアルバムジャケットを知ってるぐらいで聴いたことがなかった。いまならとてもかっこいいと感じられるのだが、リアルタイムで聴いてもあんまり良さがわからなかっただろうなあと思う。J・ディラとかもそうである。

夕方、AWSのus-east-1の障害により間接的にあれこれと影響が出た部分があり、対応に追われる。

不意に起こったネガティブな状況に対してうまく対処するのが苦手だと感じており、なんでなんだろうなというのをChatGPTと議論する。そもそも、ネガティブなことでなくても、見知らぬ人に話しかけられたり、よく理解できない状況に置かれたりすると思考がストールしてしまう感じがある。不意な状況へのメタ認知と対応の方針を得ることができた。

そういうこともあって、家庭のことでちょっと苛立つことがあったのだが、あれこれ考え直して対応した。それはちょっと上記のような話とは違う状況なのだが、ネガティブな状況への対応という意味では似ている。

Xの実験として、プレミアムプランに加入して長文投稿を可能にした上で、ChatGPTとの議論の結果をポストにまとめて投稿するということをしてみる。一つ目は、AGIが能力的に可能になったとしても、社会的に影響を及ぼす(例えば雇用のn%を置き換えるとか)までにはだいぶ時間がかかるだろうという見通しを、3つの条件を示して論じたもの。

@kentaro on X
AGIの社会的影響を決定する三つの条件 技術が社会に影響を及ぼすまでには、一定の時間がかかる。 それは単なる導入の遅れではなく、社会と技術の間で必要となる調整過程によるものである。 歴史的に見ると、新技術が実際に社会を変えるには、少なくとも三つの条件が整う必要がある。
x.com

もう一つは、アンドレイ・カーパシー氏の動画(Andrej Karpathy — “RL is terrible; everything else is much worse”)の内容について議論したもの。カーパシー氏は、現在のAIを人間の知性を模倣した「幽霊」的存在であるとする。進化に裏打ちされた「身体性」の不足がAIの制約になるかもしれないとしつつ、人間型のアーキテクチャを取らない知性としてAIは成立するかもしれないという視点を提示している。

@kentaro on X
アンドレイ・カーパシー氏の動画(リンクは本文の最後に掲載)を観て考えたこと。 幽霊の知性と進化の知性
x.com

さらに群論(リー群)と拡散モデルやロボティクスとの関係についてディスカッションする。