Deep Researchのような調査ツールをローカルLLMと組み合わせてみたら、どこまで使えるのでしょう・・・と思って、作ってみました。この手のレポジトリはすでにあると思います。 狙い 1. ローカルLLMの軽量級であるollamaとgemma3:4b-it-qatの組み合わせでどこまで使えるのかな。2. GoogleのJules+Antigravity環境でどこまで楽できるのか。 結果 1. ローカルLLMの軽量級であるollamaとgemma3:4b-it-qatの組み合わせでどこまで使えるのかな。 出力の不安定さを承知で作ると全然使えるレベルです。gemma3:4b-it-qatは、小…