2025年10月20日
天気が悪くて頭が重い。リトルKを保育園に送る。今日も行く前はまだYouTubeを観たいとか、疲れたから寝るとかいってぐずっていたが、外に出るところっと忘れて普通に登園。
仕事中、先日亡くなったディアンジェロのアルバムを1st、2ndと聴く。なんとなく名前とアルバムジャケットを知ってるぐらいで聴いたことがなかった。いまならとてもかっこいいと感じられるのだが、リアルタイムで聴いてもあんまり良さがわからなかっただろうなあと思う。J・ディラとかもそうである。
夕方、AWSのus-east-1の障害により間接的にあれこれと影響が出た部分があり、対応に追われる。
不意に起こったネガティブな状況に対してうまく対処するのが苦手だと感じており、なんでなんだろうなというのをChatGPTと議論する。そもそも、ネガティブなことでなくても、見知らぬ人に話しかけられたり、よく理解できない状況に置かれたりすると思考がストールしてしまう感じがある。不意な状況へのメタ認知と対応の方針を得ることができた。
そういうこともあって、家庭のことでちょっと苛立つことがあったのだが、あれこれ考え直して対応した。それはちょっと上記のような話とは違う状況なのだが、ネガティブな状況への対応という意味では似ている。
Xの実験として、プレミアムプランに加入して長文投稿を可能にした上で、ChatGPTとの議論の結果をポストにまとめて投稿するということをしてみる。一つ目は、AGIが能力的に可能になったとしても、社会的に影響を及ぼす(例えば雇用のn%を置き換えるとか)までにはだいぶ時間がかかるだろうという見通しを、3つの条件を示して論じたもの。
もう一つは、アンドレイ・カーパシー氏の動画(Andrej Karpathy — “RL is terrible; everything else is much worse”)の内容について議論したもの。カーパシー氏は、現在のAIを人間の知性を模倣した「幽霊」的存在であるとする。進化に裏打ちされた「身体性」の不足がAIの制約になるかもしれないとしつつ、人間型のアーキテクチャを取らない知性としてAIは成立するかもしれないという視点を提示している。
さらに群論(リー群)と拡散モデルやロボティクスとの関係についてディスカッションする。
