見出し画像

他部署の機密データ、クラウドAI使えない問題――OpenAIのgpt-ossより、Qwen3-nextが特許の実務で役立った話

はじめに

「この特許案、技術的に評価してもらえる?まだ出願前だから、絶対に社外秘で」

事業会社でDXを推進していると、こういう依頼が頻繁に来ます。

  • 法務部からの契約書レビュー依頼

  • 営業部からの提案資料の添削依頼

  • 研究開発部からの特許評価依頼

  • 人事部からの社内規程の整合性チェック

どれも「機密情報」です。クラウドのAIサービスには、上げられません。

でも、専門外の内容を、自分だけで判断するのは不安です。そこで私はローカルLLMを使ってみました。

選んだのは、OpenAI社のgpt-ossと、Alibaba製のQwen3-next

すると、意外な結果になりました。知名度の高いOpenAI社のgpt-ossより、Qwen3-nextの方が「実務的価値」で圧倒的に役立ったのです。

この記事では、その理由と、事業会社のDX推進における「機密データをどう処理するか」の解決策を紹介します。




事業会社のDX、最大の壁は「機密データ」

ChatGPTに投げられない現実

「ChatGPTに聞けば一発なのに…」

そう思う場面は、1日に何度もあります。でも、使えません。

理由は明確です:

クラウドAIを使えない理由

ChatGPTやClaude、Geminiなどのクラウドサービスは、データが外部サーバーを経由するという事実から、多くの場合で制約があります。

クラウドAIが必ずしもNGというわけではありませんが、以下の理由で使えないケースがあります:

  • NDAの内容次第:「第三者への開示禁止」条項がある場合、クラウドAIへの入力は契約違反のリスク

  • 社内規程・部署のルール:情報セキュリティポリシーで外部サービスへのデータ送信が制限されている場合

  • 個人情報保護法:本人の同意なく個人データをAIに入力すると第三者提供とみなされる可能性(個人情報保護委員会 2025年1月見解)

今回の私のケースでは、出願前の特許案件という性質上、クラウドAIは使えませんでした。 各社の判断は異なりますので、法務部・情報セキュリティ部門への確認をお勧めします。

DX推進の矛盾

DX社員として、私の役割は:

  • 業務効率化:AIを使って生産性を上げる

  • 新技術の導入:最新のツールを社内に展開する

  • デジタル変革:古い業務フローをアップデートする

でも、肝心の機密データでAIが使えないのです。

これは矛盾です。DXを推進するはずが、最も効果的な場面でツールが使えない。

ローカルLLMという選択肢

30万円のPCで、社内で完結

そこで私が選んだのがローカルLLMです。

  • データは外部に一切送信されない(機密情報も安全)

  • 社内ネットワーク内で完結(情報セキュリティ部門も承認)

  • 月額課金なし(経理処理も楽)

実行環境:

  • PC: Ryzen AI Max+ 395搭載機(約30万円)

  • ツール: OpenWebUI、LM Studio

  • モデル: gpt-oss、Qwen3-next(いずれもローカルで動作)

モデルの選定理由は、MoE(Mixture of Experts)型で、30万円クラスのPCでも実用的に動くためです。

2つのモデルを試した

今回、以下の2つのモデルで比較しました:

検証に利用したモデル

正直、OpenAI社のgpt-ossの方が優れているだろうと思っていました。知名度も実績もありますから。

実験:他部署からの特許評価依頼

シチュエーション

ある日、研究開発部から依頼がありました。

「この特許案、出願する価値があるか評価してほしい。まだ出願前だから、社外秘で頼む」

内容は、製造業に機械学習を応用したもの(詳細は企業への配慮から伏せます)。

私もある程度特許は見ていますが、この案件は専門外の技術領域です。自分の見立てを確認する意味でも、ローカルLLMの意見を聞いてみることにしました。

もちろん、特許戦略は各社次第です。同じ技術でも、ポートフォリオ戦略や競合状況によって判断は変わります。ただ、DX推進の立場として、意思決定の材料を迅速に揃えることが重要です。

2つのモデルで評価させた

同じプロンプトを、gpt-ossとQwen3-nextの両方に投げました。
今回の事例では、実在の出願済みの特許を用いました。

プロンプト:

「次のような特許を書こうと思っている。これは、実効性や出願のメリットがありますか。忖度なしで客観的に評価して。」
--- 以下、1万5千文字の特許の請求項と詳細をコピペ

プロンプト

どちらも詳細な評価を返してきました。

しかし、決定的な違いがありました。

結果:2つのモデルの回答の違い

Qwen3-next:最初に結論、次に行動提案

Qwen3-nextは、冒頭でいきなり結論を提示しました。

冒頭の評価:

Qwen3-nextの回答

最終評価:★☆☆☆☆(1/5)

行動提案:

🔹 今すぐ特許出願を取りやめ
🔹 論文執筆・コード公開・技術秘密化に集中

これを読んで、私の見立てとも一致していました

  • 結論:出願しない

  • 理由:新規性・進歩性なし、コストに見合わない

  • 次の行動:研究成果として論文化、コアな技術は秘匿

Qwen3-nextの評価が、自分の考えを明確に言語化してくれた形です。依頼部署への回答も、その日のうちに完了しました。

gpt-oss:詳細だが、結論が出ない

一方、OpenAI社のgpt-ossは、132行にわたる詳細な分析を返してきました。

gpt-ossの回答の最後の部分

評価(抜粋):

  • 新規性:6点/10点

  • 進歩性:5点/10点

  • 明瞭性:4点/10点

推奨アクション:

1. 先行技術調査の徹底
2. クレーム構造のリファイン
3. 実施例を充実させる
4. 出願戦略:日本で実用新案→PCT出願で海外展開も検討

結論:

「具体的な実装手法とともにクレーム化すれば、特許取得の可能性は十分にあります。」

読み終えて、私は混乱しました。

  • 結論は「出願すべき」なのか「やめるべき」なのか?

  • 6点/10点は「合格」なのか?

  • 推奨アクションを全部やる必要があるのか?

  • これをやったら、さらに何週間かかるのか?

つまり、判断が先送りされたのです。

決定的な違い:gpt-oss vs Qwen

gpt-oss vs Qwen

知名度の高いOpenAI社のgpt-ossと、Qwenの回答スタイルは大きく異なりました。

なぜQwen3-nextが実務で役立ったのか

1. 結論をつけて、次に進める

事業会社のDX推進では、意思決定のスピードが命です。

  • 他部署への回答期限がある

  • 経営層への報告がある

  • 次のプロジェクトが待っている

そんな中、「さらに調査が必要」と言われても、時間がないのです。

Qwen3-nextは、結論をつけてくれます。おかげで、その特許の案件は終了し、次の仕事に取り掛かれました

2. gpt-ossは「永遠に終わらない仕事」を生み出す

gpt-ossの回答は、こう読めます:

「先行技術を調査して、クレームを整理して、実施例を充実させて、出願戦略を練って…」

これは、新たな仕事を生み出しているのです。

  • 先行技術調査:数日~1週間

  • クレーム整理:専門家との調整

  • 実施例の充実:実験データの再収集

  • 出願戦略:弁理士への相談

気づけば、1ヶ月経っても結論が出ない。そして、他の仕事が滞る。

これでは、DXどころではありません。

3. 「両論併記」は、実務では使えない

gpt-ossは、あらゆる可能性を列挙します。

  • 「〇〇すれば可能性はある」

  • 「△△次第では難しい」

  • 「××を検討すべき」

学術的には正しいのかもしれません。でも、他部署は「で、どうすればいいの?」と聞いています

Qwen3-nextは、その問いに答えます。「❌ 出願しない方が良い」と。

知名度≠実用性

この実験から分かったこと:

  • OpenAI社の知名度 ≠ 実務での使いやすさ

  • 詳細な分析 ≠ 意思決定の支援

  • 専門性の高さ ≠ 実用的価値

事業会社のDX推進では、9割の場面で、結論を出してくれるモデルが勝ちます

モデル選びの基準

モデル選びの基準

事業会社のDX推進者へのメッセージ

他部署の機密データ、もう悩まなくていい

ローカルLLMがあれば:

  • 社内規程に抵触しない(データは外部に出ない)

  • 法務部も承認しやすい(「社内サーバーで完結」と説明できる)

  • 顧客情報も扱える(NDA違反のリスクゼロ)

知名度より、実用性で選ぶ

OpenAI社の知名度は確かに魅力的です。経営層への説明もしやすいでしょう。

でも、実務で本当に役立つのは、結論を出してくれるモデルです。

今回の経験から、私は意思決定の場面ではQwen3-nextを選びます。

30万円の投資は、すぐに回収できる

  • 月額課金なし:ChatGPT Plusなら年間約3万円 × 部署メンバー

  • 時短効果:1件の評価が3分で完了(従来は数日)

  • 意思決定の速さ:「結論が出ない」ストレスからの解放

経営層への稟議も、「機密データを安全に処理できる」という一点で通ります。

まとめ:結論を出してくれるAIが、DXを加速する

今回の実験で分かったこと:

  1. 知名度の高さと実務的な使いやすさは別

  2. 意思決定の場面では、詳細な分析より明確な結論

  3. モデルごとの回答スタイルの違いを理解して使い分ける

事業会社のDX推進において、最大の壁は「機密データをどう処理するか」です。

ローカルLLMは、その壁を取り払います。

そして、モデル選びは、知名度ではなく「回答の構造」で決めるべきです。

今回、Qwen3-nextは結論を明確に提示してくれました。おかげで、その特許案件は完了し、次の仕事に取り掛かれました。

これが、DXの本質です。


補足情報

実行環境

  • PC: Ryzen AI Max+ 395搭載機(約30万円)

  • ツール: OpenWebUI、LM Studio

  • モデル: gpt-oss-120b-a5b、Qwen3-next-80b-a3b-instruct
    (いずれもローカルで動作、MoE型)

詳細は以前の記事を参照してください。

注意事項

  1. この記事で扱った特許は実在しますが、企業への風評被害を避けるため、具体的な内容や企業名は伏せています。あくまでLLMの回答構造の違いを比較する目的です。

  2. 個人の所有資産で検証した後に、機会があったので類似の事例で所属企業で検証しています。PC環境・扱った特許は異なります。他の記事についても個人での検証結果のみ記載しています。


いいなと思ったら応援しよう!