AI/Machine Learning」カテゴリーアーカイブ

GensparkでDeep Research

先日紹介したGensparkですが、Deep Researchが1日1回無料で利用が可能です。
より正確に言うと、通常の検索以外の画像生成など、プラスアルファの機能が時限的な回数制限となっていて、Deep Researchもその一つということですね。

まず、Deep Researchをするにはホーム画面でディープリサーチアイコンを押します

その後、調査したい内容をプロンプトに記述します。

そうすることで、複数のLLMでまずリサーチプランを作成し、それらをマージしたプランを提示してくれます。
現時点ではGPT-4o、Claude3.5Sonnet、gemini-1.5proが使われるようです。

提示してくれたプランをそのまま実行してもいいですし、編集を押して追加の指示を与えることも出来ます

”リサーチを開始”を押下すると、20~30分程度調査に時間を要します。

この間、ブラウザは落としてしまっても問題ありません。作業が完了したらログイン時に参照することも出来ますし、完了時にメールでお知らせもしてくれます。

面白い

調査結果に関しては、鵜呑みにすることはまだ怖いですが、非常に面白いと思いました。
Gensparkの場合、通常の検索の時点でSparkpageなどを作ったりして一つの調査結果かと思うような出来栄えではありますが、Deep Researchという名前をつけているだけのことはありそうです。

検索として、単純にざっくりと調べたいときは通常検索。
もう少しより深いところまで調査した結果を見たいときにはDeep Researchという形でしょうか。

一方で、プロンプトの作り方次第では、なんだかすごく浅い調査一覧みたいな形になってしまう可能性もあります。
このあたりはDeep Researchを使うときのプロンプトの出し方をもう少し工夫したりして、そもそも自分がほしいアウトプットとはなんだったっけ?を明確化しないといけませんね。
もう少しトライ・アンド・エラーしたいところですが、無料では1日1回なのが歯がゆいところです

正直言って、そんなに調査することってあるんだっけ?という話はなくはないのですが、検索してみた結果から更に似たような話や、疑問が湧いてきます。
いい具合に好奇心を刺激してくれそうです。

招待リンク

https://www.genspark.ai/invite?invite_code=NzA4OGE2MTlMMjRlNkw4NzA0TDc0YWFMNTAwZmY0NjA4OGE1

この招待リンクから会員登録をして電話番号認証を行うことで、Deep Researchをはじめとした有料プランが一ヶ月無料になります。気が向いたら登録してもらえると嬉しいです。

Gensparkを試す

生成AI自体を触っている頻度は段々と上がってきている毎日ですが、まだDeep Researchのような、重厚な調査タスクを行うエージェントは試したことがありません。

OpenAIだとProプラン、つまり月額200ドル必要なんですよね、、、

なにかいい方法はないかな?と調べてみたら、Gensparkという、現時点ではベータ版が提供されているサービスがあり、Deep Researchも限定的ではあるものの利用が可能なようです

通常の検索

先日の焼き肉屋さんの業界動向も、実はGensparkで聞いてみたのでした

検索結果は、なんとなくPerplexityに似ている気がします。
複数のソースから検索結果がまとめられ、それぞれ言及している事柄に対してのソースを確認することが出来ます。

そして、生成した結果にはなぜか毎回マインドマップがついてきます。

マインドマップがあることで、AIのマインド(?)がわかるかな?
何度か試してみましたが、そこまで複雑なマインドマップが出るようなことはなかったです。これは検索したキーワードによるところでしょう。

エージェントの組み合わせを試す

検索結果がお気に召さない、そのときに「エージェントの組み合わせを試す」ボタンがあり、これを押すと、各AIそれぞれが導き出した問いに対する回答を確認することが出来ます。

Sparkpage

もう一つ特徴的なのが、Sparkpageというページを生成します。検索結果自体が複数のエージェントやソースからの検索家かをまとめているわけですが、このSparkpageはリアルタイムにカスタムページを作成します。

検索結果に上記のようにSparkpageがついているのですが、これを選択すると

一つのまとまったページとして各情報ソースから抽出してきた情報をグラフなどを交えながら組み合わせて表示してくれます。
なんというか、レポートが出来上がった感覚であります。

招待リンク

これらの検索は現在Gensparkがベータ版ということもあり、無制限に使える状態なのが今です。Perplexityと異なり、スマホアプリがないのが悔やまれます。

一方で、Deep Researchや画像生成などは無料ユーザには制限(おそらく1日1回?)がかかっています。
OpenRouterと同様にこういった複数のAIプロバイダーにまたがって提供されているサービスに課金するのか、それとも個別に課金するのか。悩ましいところです。

ただ、Gensparkでは招待リンクの仕組みが用意されています。

https://www.genspark.ai/invite?invite_code=NzA4OGE2MTlMMjRlNkw4NzA0TDc0YWFMNTAwZmY0NjA4OGE1

この招待リンクから会員登録をして電話番号認証を行うことで、有料プランが一ヶ月無料になります。気が向いたら登録してもらえると嬉しいです。

いやー、生成AI、面白いですね

OpenRouterに登録した

随分と前からClineをはじめとするコーディングエージェントに興味はあったのだが、どうにも手がつかない。

このあたりの知識や経験は、早晩必要になるかあまりにもパラダイムが変わりすぎて使い物にならなくなるかという振れ幅の大きいものではあるが、触った事で損するということはないはず。
だがしかし、手がつかない。

Nikeのように「Just do it」と触ってしまえばいいだけじゃないかと言われればそれまでなのだが、”興味はある”と言いながらここまで触らないのも珍しいな、といい加減重い腰を上げた。

OpenRouterってなんだ

公式サイト
https://openrouter.ai/

VSCodeにRoo Code拡張をインストールすると、API Keyを入れることになるのだが選択肢のデフォルトはOpenRouterとなっている。
OpenRouterという生成AIは聞いたことがないぞ?と思い調べてみると、単一のAPIKeyで複数のモデルを使い分けしてくれるようなサービスのようだ。

生成AIにはそれぞれ得手不得手があるので、複数に課金するよりも確かにOpenRouterに課金することで効率が良さそうである。

アカウント作成

まずはSingUpということで公式でアカウントを作る必要がある。

SingUpでMetaMaskの選択肢が出てくるのは初めて見る。
ということは、仮想通貨での支払いができるということなのだろう。これまた珍しいものだ。

あえてMetaMaskで進めてもいいのだが、大人しくGoogleアカウントと紐づけることにする。

$支払いとなるので、カードかAmazonPayかな?
私はUSAmazonのアカウント持っているのですんなり行ったけれど、もしかしたら通常は難しいのかもしれない。

クレジットの追加は$5からとなる。
Deepseekが最小が$2だったことを考えると、Deepseek限定で使うのであればやはりDeepseekに課金するというのが一番なのだろう。

まぁ、ここは勉強代とする

API Key自体はCreditを追加していなくても作ることはできる。
ただし、Roo CodeなどでAPIを呼び出す際に

Creditが足らんと怒られてしまうので注意が必要。

VSCodeに Roo Codeも入れたことだし、あとは色々と動かしてみることかな。

余談

今回はOpenRouterを使ったのだけれど、せっかく複数のモデルにアクセスできるのであればコード生成以外にも使いたくなる。

Roo CodeでOpenRouterを使うチャットを作ってしまうというなんともシュールなことをしてもらいいのだけれど、、、と思っていたらよく見たらOpenRouter自体にその選択肢が用意されていた

これで、OpenAI系やその他のモデルも試して遊ぶことができるのでは。
楽しみである

Deepseekをローカルで

少し前からDeepseekの名前は見かけていましたが、先日の発表から一気に広がりましたね。
というわけで、早速試してみようと思います。

参考にさせていただいたのはこちら

DeepSeek R1をほぼ準備なしからローカルGPUで動かす
https://note.com/cppp_cpchan/n/n3c1039c80dd0

CUDAの確認

私の環境では、CUDAは12.3だった

llama.cppをダウンロードしてくる。
https://github.com/ggerganov/llama.cpp/releases

見る限り、この2つなのだが、ローカルがCUDA 12.3で行けるものなのか。
試してみてから考える

試してみた

common_init_from_params: setting dry_penalty_last_n to ctx_size = 4096
common_init_from_params: warming up the model with an empty run - please wait ... (--no-warmup to disable)
ggml_cuda_compute_forward: ADD failed
CUDA error: the provided PTX was compiled with an unsupported toolchain.
  current device: 0, in function ggml_cuda_compute_forward at D:\a\llama.cpp\llama.cpp\ggml\src\ggml-cuda\ggml-cuda.cu:2230
  err
D:\a\llama.cpp\llama.cpp\ggml\src\ggml-cuda\ggml-cuda.cu:71: CUDA error
sh: ./llama-server.exe: このアプリケーションで、スタック ベースのバッファーのオーバーランが検出されました。このオーバーラン により、悪質なユーザーがこのアプリケーションを制御できるようになる可能性があります。 Error 0xc0000409

実行してみると、エラーとなってしまった。
エラーメッセージからは、「unsupported toolchain」ということで、12.3環境で12.4を動かしたことによるエラーではないかと推察する。

そこでCUDA 12.8(最新)を入れようとするもエラー・・・。

しょうがないので、llamaとバージョンを合わせた12.4を拾ってくる

CUDA Toolkit 12.4 Update 1 Downloads
https://developer.nvidia.com/cuda-12-4-1-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_local

同じエラーになった。。。

Nsight Coputeというものが原因のようだが、これは使わないっぽいのでカスタムインストールで設定を外してみる

とりあえずインストール出来たっぽい

smiで確認してみると、ちゃんとバージョンが上がっている

さて、実行です。
実行パラメータとしては以下を行っています

./llama-server.exe -m ../DeepSeek-R1-Distill-Qwen-14B-Q6_K.gguf -ngl 26 -b 2048 --temp 0.6

最初、nglの値を49にして実施してみたが、メモリが足りないというエラーとなってしまい、26でやるとエラーにならずに出来た。

このあたりのパラメータの加減は環境ごとに見極める必要がありそう。
言われているURLへアクセスすると

それっぽい画面が出来ている!

早速問い合わせてみたのだが、「Thinking」からかなりの長時間が経過しているが変化ない

GPUのパフォーマンスをタスクマネージャで確認して見ると、「専有GPUメモリ使用量」は張り付いていて、「3D」となっているところはギザギザの波形が出ている。

かなりの時間が経過した後に応答があった。

とりあえず、動くには動いたが、パフォーマンスはというとひどいものである。
パラメータを見直してなんとかなるものかはちょっとわからないが、試してみるだけ試してみようとは思う

Copilot が使えるようになっていた!

朝、メールを見ると。。。

おぉおぉ?
どゆこと?

メールにも書かれているけれど、いくつか制限があるようです

  • 2,000 code suggestions a month: Get context-aware suggestions tailored to your VS Code workspace and GitHub projects.
  • 50 Copilot Chat messages a month: Use Copilot Chat in VS Code and on GitHub to ask questions and refactor, debug, document, and explain code.
  • Choose your AI model: You can select between Anthropic’s Claude 3.5 Sonnet or OpenAI’s GPT 4o.
  • Render edits across multiple files: Use Copilot Edits to make changes to multiple files you’re working with.
  • Access the Copilot Extensions ecosystem: Use third-party agents to conduct web searches via Perplexity, access information from Stack Overflow, and more.

制限として大きいのは2000コード提案と50チャットの部分。
なんかあっという間に制限に引っかかりそうな気がしますね・・・。
それも利用仕方の問題なのかな

最近、WebでCaludeのほうを使う機会のほうが多くなっている気もしますが、まだまだ生成AIを使ったスタイルに馴染みがないので手を動かせるようにしていきたいものです。

開発環境の構築は開発よりも難しい

購読しているSoftware Designの12月号

連載のLLMが前号に引き続きのHIL(Human In the Loop)をお題にしたもので、読んでいて面白そうだったので試してみることに。

リポジトリはこちらです
https://github.com/mahm/softwaredesign-llm-application/tree/main/14

やってみる

ReadMeにしたがって、ポチポチしていきます。
poetryというのは初めて使います。正直言って、業務でPythonを使っているわけじゃない身としては、試しに触るたびに新しいパッケージマネージャーを使わされている気がします。
なんでPython使いはパッケージマネージャーをどんどん作るのでしょう。
どれだけパッケージ使いづらいんでしょうかね。。。
それとも、「俺が作る最強のパッケージマネージャーを見せてやる」ってイキってる人が多いということなのかもしれません。

さて、最終的に実行を行ってみるのですが。。。

ModuleNotFoundError: No module named 'pydantic_core._pydantic_core'
Traceback:
File "C:\Dev\llm\softwaredesigne\softwaredesign-llm-application\14\.venv\Lib\site-packages\streamlit\runtime\scriptrunner\exec_code.py", line 88, in exec_func_with_error_handling
    result = func()
             ^^^^^^
File "C:\Dev\llm\softwaredesigne\softwaredesign-llm-application\14\.venv\Lib\site-packages\streamlit\runtime\scriptrunner\script_runner.py", line 590, in code_to_exec
    exec(code, module.__dict__)
File "C:\Dev\llm\softwaredesigne\softwaredesign-llm-application\14\app.py", line 5, in <module>
    from agent import HumanInTheLoopAgent
...

知ってる。チュートリアルってエラーになるんだぜ。

この “pydantic_core.pydantic_core”が見つからないってのはOpenAI関連のLambdaレイヤーを構築する際に起こるエラーとググったら出てくる。
Lambdaレイヤーなんて作っちゃいないんだけど、どうやらWindows環境では確実にこうなるようだ。
Software Designにそんな環境依存の話書いてあっただろうか?と思わずひとりごちた。
ちくしょう。

正直、なぜLambdaレイヤーと言われているのかは定かではないけれど、対応にはFastAPIの0.99.0を入れるとある

Lambda Layers で No module named ‘pydantic_core._pydantic_core’
https://qiita.com/ganessa/items/bb67517a095f2c510926

試して見る

C:\Dev\llm\softwaredesigne\softwaredesign-llm-application\14> pip install fastapi==0.99.0
...
Using cached starlette-0.27.0-py3-none-any.whl (66 kB)
Installing collected packages: pydantic, starlette, fastapi
  Attempting uninstall: pydantic
    Found existing installation: pydantic 2.9.2
    Uninstalling pydantic-2.9.2:
      Successfully uninstalled pydantic-2.9.2
  Attempting uninstall: starlette
    Found existing installation: starlette 0.41.2
    Uninstalling starlette-0.41.2:
      Successfully uninstalled starlette-0.41.2
  Attempting uninstall: fastapi
    Found existing installation: fastapi 0.115.4
    Uninstalling fastapi-0.115.4:
      Successfully uninstalled fastapi-0.115.4
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.
composio-core 0.5.40 requires pydantic<3,>=2.6.4, but you have pydantic 1.10.19 which is incompatible.
Successfully installed fastapi-0.99.0 pydantic-1.10.19 starlette-0.27.0

なんかERRORは出るものの、最終的にはpydantic-1.10.19がインストールされた。
さて試してみる

変わらず・・・

試してみる(2)

問題の根本としては、Windows環境で試していることが原因っぽい。
というわけで、Dockerも検討したけれど手元にMacもあったので試してみる

あっさり動いたーーーー。

すごい釈然としない。。2024年においてもまだ環境依存は簡単にはこえられない壁として我々の前には立ち塞がっていると言うことなんだろう・・・。

そして、本当はそんなことをしたいのではなくここから仕組みの理解や改変を通した学びを得たいところだったのだけれど、すでに徒労感がある。

悲しい。

動かしてみると

そりゃ、LLMアプリを勉強するくらいであったら課金くらいしろよってのは、まぁ、そうなのかもしれないけれど、試すことすら出来ないのは悲しいところです。

ChatGPTにしろAnthropicにしろ、開発中もひたすらに料金がかかり続けるモデルだと、お勉強エンジニアには厳しいお財布事情になりそうです。

これ、複数のLLMで試したいと思ったら全部課金するって話になるんですよね。。。

her/世界でひとつの彼女

Amazon Prime Video で「her/世界でひとつの彼女」を見た

her/世界でひとつの彼女
https://amzn.to/3CFChRG

人工知能が搭載されたOSというか、OSそのものが人工知能というか。
近未来ではそんなOSが来ることはそれほど斬新なアイディアではない、現実的な世界線の話。

いわゆるAIが自我に目覚めるという内容だけれど、ターミネーターのような結末には向かわない形で終りを迎えた。
ちょっと最後、「それってどうなっちゃってるんだろう?」という疑問がわかなくはないんだけど、それなりに楽しむことができた。

というか、映画自体を見たのがすごい久しぶりに感じる

同じ自我に目覚めるAIであっても、そもそもどういう命題を与えられたのかによって、迎える帰結が異なっているということなのかもしれない。
そもそも、herの世界線であったとしてもサマンサと他のAI-OSとの違いはどこにあって、開発者はどういう意図があってそういう機能を盛り込んだのだろうか。
疑問は尽きない

物理世界に干渉するために、ロボットなどを使うのではなく現実世界の人間を懐柔するというのも、面白いと思ったけれど、随分とまどろっこしい感じもする。

結局、人間っぽすぎるといえばそうなのかもしれない。

将来的に、どういうAIが我々の周りをひしめくことになるのだろう。
その時に自分はそれらAIに対してどういう感情を抱いているんだろう

5年もすればどうなっているか想像もできない事態が起きている可能性も高いわけで、楽しみでもあり怖くもあると感じた

LLMがさっぱりわからん

ここのところ平日は、それなりに仕事が忙しかったりなんだりでうまく勉強の時間が取れませんでした。

そんなわけで、申し込んだはいいものの全く取り組めていなかったGoogle提供の5日間のレッスンを見直しています

5-Day Gen AI Intensive Course with Google

初っ端からLLMの基礎講義が始まるわけなんですけど、理解できているかと言われるとほぼ理解できていない気がする。
今のLLMというのは、次に来る言葉をこれまでの文脈から予測をして、それを繰り返しているというのはなんか聞いたことがある。

しかし、トランスフォーマーという言葉は知っていても、説明できるかと言われるとできない。

そんなこんなで、ちゃんと勉強しなきゃねって思って色々と見ることはあっても、途中で挫折してしまうことが圧倒的に多い。
なんというか、独特の表現だったり単語が色々と出てくるので、いわゆるIT系にあまり関わりのない人がエンジニアの会話を聞くと何語が会話されているのかがよくわからないと言われるかのような気分を味わうことができる。

今、まさにそれ

LLMに代表される機械学習を取り扱うにおいて、モデルそのものを作るという方向性に動くよりは、できているモデルを使ってどんなアプリケーションを作るのか?という方向に重点を置くほうが機会としては圧倒的に多いし役に立つように感じる。

ただ、それはこの辺の知識を知らなくてもいいのか?ということに本当に”知らなくて良い”と結論付けてしまっていいのだろうか?は漠然とした不安がある。

このあたりは修行だと思って、とりあえず最後まで読み切ってみないと行けないんだろうけれど・・・
正直つらいなぁ

いい加減、AIに関して取り組まねばならぬ

fukabori.fmのエピソード119 が公開されました

119. 生成AI導入で成功する企業・失敗する企業、国産基盤モデルの意義 w/ piqcy, kosukearima | fukabori.fm

ゲストはストックマークCTOの有馬さんと、AWSの久保さんでタイトルの通り生成AIに関してのエピソードでした。
毎度のことであるが、fukabori.fmは面白い。

生成AIに関しては、所々で利用してはいるもののあくまで個人の利用という形で、組織的に取り組んでいるわけではない状態なんですよね。

でも、最近Claudeなんて使ってみると、すごくいい感じで資料とかの土台が作れてしまう。
なんだったら、スライドのベースだけでなく、口頭説明のテキストも頼めば生成してくれてできが良い。

この界隈。
個人で適当にチャットとして使っているだけだとあっという間に周回遅れになってしまいそうだと改めて感じた。
そして、エピソードの中に出てくる、こういった新しい技術要素を活用し続ける事ができる2割の企業。
BIツールに絡めての話が現状とダブってすごい納得感が出てしまった。

GitHub – aws-samples/aws-ml-enablement-workshop: 組織横断的にチームを組成し、機械学習による成長サイクルを実現する計画を立てるワークショップ

エピソード中に出てきた、ML Enablement Workshopの上記Githubページも早速見てみた。
Community Workshop や AWS Sample など、色々とあるので目を通しておきたいところだ。

なんだか楽しくなってきたぞ

Kaggle notebook の Accelerator

Kaggle が提供している jupyter notebook で training や prediction 実行する際に、そのままの設定だとものすごい時間がかかりました。

待っていても、少しずつ進んで行くはいいものの気がついていたらセッションがタイムアウトされてしまったり・・・。
こんな時どうするのかな?というところを見てみるとAccelleratorを変更すると良いらしい

なるほど、これか。
選択肢としては

  • None (CPU)
  • GPU T4x2
  • GPU P100
  • TPU VM v3-8

とある。それぞれどういう時に使うといいとかどっかに書いてないかな?と思い、一旦それぞれに関して調べてみた

まとめ

最初に簡単にまとめておく

名前モデルアーキテクチャCoreMemoryその他用途
GPU T4x2NVIDIA GPU model from the Tesla series.Turing 2,560 CUDA cores16 GB of GDDR6 memoryT4 GPUs include Tensor Cores, which can accelerate certain deep learning operations, particularly when working with mixed-precision training
GPU P100 NVIDIA GPU model from the Tesla series.Pascal 3,584 CUDA cores16 GB or 12 GB of HBM2 memory.In general, GPU P100 is considered more powerful than GPU T4, primarily due to the higher number of CUDA cores and better memory bandwidth. However, the actual performance depends on the specific workload you’re running.
TPU VM v3–8Google TPU v38 Core

GPUとTPUは違いすぎて比較表がうまく作れなかった。。。

GPU T4x2

明確な公式文書は見つけられなかったが、フォーラムにはP100と比較したコメントが出ていた

What is the difference between ‘GPU T4 x2’ and ‘GPU P100’ in the notebook? | Kaggle

GPU Model: T4 is an NVIDIA GPU model from the Tesla series.
Architecture: T4 is based on the Turing architecture.
CUDA Cores: T4 has 2,560 CUDA cores.
Memory: T4 typically has 16 GB of GDDR6 memory.
Performance: T4 offers good performance for a range of tasks, including machine learning, deep learning, and general GPU-accelerated computations.
Tensor Cores: T4 GPUs include Tensor Cores, which can accelerate certain deep learning operations, particularly when working with mixed-precision training.

GPU P100

GPU P100 に関しての公式文書としては下記を見つけた

Efficient GPU Usage Tips and Tricks

Kaggleは、NVIDIA TESLA P100 GPUへの無料アクセスを提供します。これらの GPU はディープ ラーニング モデルのトレーニングに役立ちますが、他のほとんどのワークフローを高速化することはありません (つまり、pandas や scikit-learn などのライブラリは GPU へのアクセスの恩恵を受けません)。

ふむ・・・。
ただ、Acceleratorの適用がセッション単位なんじゃないかな。
最終的に notebook でトレーニングするにしてもその前段となるpandas等の処理部分を省くことはできないし。
notebookを分割して前処理部分とトレーニング部分を分ければいいのかな?

GPU の週あたりのクォータ制限まで使用できます。クォータは毎週リセットされ、需要とリソースに応じて 30 時間以上になる場合があります

このあたりは注意が必要ですね。
一回あたりの実行時間がどれくらいかにもよるし、週に30時間であれば十分な気がするけれど。。。

TPU VM V3-8

TPUそのものが何かに関してはこちらの記事が参考になった

【AIメモ】GoogleのTPUがすごい (zenn.dev)

TPUに関してはKaggle内にも情報が乗っていた

Tensor Processing Units (TPUs)

こちらを読み進めていくと、TPUの性能をちゃんと活かすためには、バッチサイズだとかを適切にする必要があるそうな。

バッチ サイズが大きいほど、TPU はトレーニング データをより高速に処理します。これは、トレーニング バッチが大きいほど “トレーニング作業” が多くなり、モデルをより早く目的の精度に到達できる場合にのみ役立ちます。そのため、経験則では、バッチサイズに応じて学習率を上げることも必要です。

ただ、ちょっと下の方に気になることが。。。

特定の種類のコードのみのコンペティションには技術的な制限があるため、コンペティションのルールで明確にされているように、TPU で実行されるノートブックの提出をサポートすることはできません。しかし、だからといって、TPU を使用してモデルをトレーニングできないわけではありません。

この制限の回避策は、TPU を使用する別のノートブックでモデルのトレーニングを実行し、結果のモデルを保存することです。その後、そのモデルを送信に使用するノートブックに読み込み、GPU を使用して推論を実行し、予測を生成できます。

というわけで、提出用のnotebookに関してはTPUなど特定の技術に依存したものはNG。ただ、モデルを作るスピードは早いので、別のnotebookでモデルを作った上で、そのモデルを利用するのはOKということらしい。

色々ありますねぇ