2023年5月23日
昨晩は、本を読んだりしていて遅くまで起きてしまったのだが、目覚まし通りにわりとスッキリ起きられた。飲んでいるサプリが効くようになってきたのだろうか。そういえば、目覚めの悪さを改善するためにクエン酸カプセルを摂取しているのだが、このところ、胃にダメージを感じるようになった(しかもけっこうキツい)。薬などで胃が痛むことはこれまでなかったのだし、クエン酸でだって近頃までそんなことはなかったのだが。しばらくやめておく。
今日も、仕事開始前に朝ジム。あまり時間がなかったので、肩周りの種目を少しやった後、ジョギング30分とストレッチを10分ほど。もっと落ち着いてやりたいところだが。ゆっくりとはいえ、30分走っていると膝や脚が痛んでくる。あまり無理しないようにする。英語動画を観ていたのだが、「ゆる言語学ラジオ」のゾミアの回をまだ観てなかったのを思い出して、そちらに切り替え。面白くて、時間がすぐに過ぎる。これはいい。
スキャンに出していた本が納品された。前回はギガファイル便だっただが、今回はBoxでの受け渡しで、現代的になっていた。500冊強で40数GB。前回は800冊程度で60GBほど。これで、PDFだけで100GB。Googleドライブを使っているのだが、写真もリトルKによってどんどん増えており、近々200GBに到達しそう。プラン的に、その次は2TBで月額が380円から1,300円にジャンプアップする。他のストレージを探さないとならないかなあ。
本棚に入りきらなくなった本をPDF化するようになったのはこの数年のことで、それまでは転居するたびに処分していた。1万冊まではいかないかもしれないが、数千冊の後半は確実な冊数を処分してきたわけで、それを思うとやるせない気持ちがする。しかし、その当時はスキャンサービスもなかったし、あってもお金を出せなかったしなあ。しかたのないことである。井筒俊彦が指示したトルコ人学者がいった通り、「人間のカタツムリ」であってはならないと思い直す。
というわけで、昨日注文してあった井筒俊彦『コスモスとアンチコスモス: 東洋哲学のために』が届いたので、件のエピソードが語られている、巻末の司馬遼太郎との対談を読む。
[https://twitter.com/kentaro/status/1660994334941151234 @kentaro]: ユリイカさん @eureka ご家族のみなさんセレクトの絵本セットをいただいた!さっそく自分が読んでいる!面白い!ありがとう〜 [[https://pbs.twimg.com/media/Fw0JiYJaEAEySd8.jpg]]
ユリイカさんご家族セレクトの絵本セットをいただいた。大変ありがたいことである。
- お母さん
- 長女
- お父さん
- 長男
- 五味太郎『ゲーム・ブック〈No.1〉さがしてみようみつけてみよう』
- 林明子『おててがでたよ』
リトルKはK実家なのですぐには読み聞かせられないので、まずは自分で読んでみる。うーん、絵本はすごいなあ。こんな世界をろくに知らなかったとは。もちろん、子供の頃に自分で読んでいて記憶に残っているものはいくつかあるけど、そういうのはもうちょっと物語性のある、4、5歳以降ぐらいで読むもので、こういうプリミティブな絵本のすごみというのは知らなかった(そういうのを読んだりしていたのかも定かでない)。
生活サイクルを再構築しているところなのだが、まだうまく回っている感じではない。一つずつ習慣を軌道に乗せていって、じょじょに回るようにしていく。今のところは、いい感じ。
今日のブックマーク
- Writing Python like it’s Rust | Kobzol’s blog
- Stability AIのチャットスクリプトを利用してRinnaのチャットモデルとお話する(追記あり) - きしだのHatena
- LLMを動かすコードにライブラリをちょい足し!OpenCALMを例に文字色変更 & スピナー - nikkie-ftnextの日記
- [Jun Rekimoto : 暦本純一さんはTwitterを使っています: 「論文1件ごとに要約&図でこんな感じのカードになります。某CHI勉強会のスライドも自動生成できそう..](https://t.co/Ypqc9H2jzU https://t.co/U19pClKKx6」 / Twitter https://twitter.com/rkmt/status/1660452601979342848?s=12&t=oh3PTeK1YGO3XG0c-mdpyQ)
- rishigamiさんはTwitterを使っています: 「OpenCALMをinstruction-tuningする際のTipsですが (1) 学習時の各サンプルの文末にEOSトークン(<|endoftext|>)を付与する (2) instructionとoutputのペアの学習時にoutput部分のlossのみ考慮する (3) 推論時のgenerateのハイパラも調節する あたりはポイントだと思います。」 / Twitter
#日記 #5月23日