これまでの情報収集は、Xのフィードで見ていたり、特定のブログを見ていたりと定点観測のような形にはなっていませんでした。
インターネット初期の頃は、RSSリーダー使って色々と見ていたので今よりも安定していたような気がします。
というわけで、せっかくなのでAIを組み込んで効率化出来ないかをやってみたところ、今のところいい感じになっている
情報収集
まずは、主要な気になるテクノロジー関連ブログやサイトをRSSなどを利用して取得してくるようなコードをClaudeCodeに作らせた。
これに関しては、取得元は固定になる。
いっそのことということで、海外の情報や気になる技術の公式ページなども含めて見るようにしている。
そして、取得元が固定である以上はAIに収集をやらせると余計なトークンを消費してしまうのでプログラムで実行する
要約
集めてきた情報を、claudeにレポートフォーマットにしたがって要約させる。
HackerNews等の場合はトレンドとなっているものが複数日に渡って存在していることもあるので、昨日の情報も参照させて新しいものが来るようにプロンプトを設計した
全部を見切ることは出来ないので取捨選択が入ることになるので、今の選択が正しいのかどうかをどう判断するのか?は悩ましい。
定期実行
これが一番面倒くさかった
メイン端末がWindowsなわけだが、当初はClaudeのデスクトップアプリ内のCoworkに搭載されているスケジュール機能を用いようとした。
ところが、Coworkスケジュールで起動したPythonスクリプトが、うまく動かない。
どうやらCoworkのネットワークアクセスが制限されているようなことだった。
であれば、ps1ファイルにしてWindowsのスケジューラで動かそうと、スケジュール登録をCoworkにやらせたのだが、これも正常に動かなかった。
これは、私の環境上の問題でPythonデフォルトで起動していたのがv13とかふるいやつのようだった。fnmでデフォルトを変更することでclaudeが正常に起動するようになった。
成果
定期的に実行したバッチでは、個人用に作成したslack workspaceにメッセージを飛ばすようになっていて、毎朝ニュースが届く。
見ていると、これまで以下に情報を参照していなかったのかがわかるくらい毎日目まぐるしい量のニュースが飛んでくる。
特にAI関連の話は本当に目が回るようなスピード感で改めて驚く。
一方で、このニュースを追いかけているだけだとなんか知った気になる、面倒くさいやつが出来上がりそうなので、どう活用していくかは結構迷うところだった。
この分量を実践していくのはどだい無理な話なのは確実なので、ポイントや大きな流れみたいなものが感じられるようにはなりたいと思う。
また、情報の取得元などに関しては定期的な見直しが必要になるだろうな。
まだまだ色々とやれることはありそうで楽しみだ