ソフトバンク、合成データと差分プライバシーで機密保護。通信AIの業界展開を加速へ

2026年3月19日 10時15分更新


 ソフトバンクは2026年3月17日、通信業界向け生成AI基盤モデル「Large Telecom Model(LTM)」において、機密性の高いネットワークデータを保護しながら安全にAI学習を行える合成データ生成基盤を構築したと発表した。NVIDIAの「NeMo Safe Synthesizer」を活用し、数学的なプライバシー保証技術と攻撃耐性テストを組み合わせることで、データの有用性を損なわずに機密情報を除去した合成データセットの生成を実現した。LTMの社外展開や他社との連携を阻んできた”データの壁”を突破する技術に位置づけられる。

差分プライバシーと推論攻撃テストの二重構造

 LTMはこれまで、基地局の設定情報や通信品質に関するデータを用いて学習を重ねてきた。ただ、こうした情報は機密性が高く、社外のベンダーや研究機関との連携において活用範囲が限られるという課題があった。また通信ネットワークのデータは多数の変数が複雑に連動しているため、単純な匿名化処理を施すと障害の予兆や品質低下を示す微細な相関関係が失われ、AI学習データとしての価値も損なわれてしまう。

今回構築した基盤は、この問題に対して二つの技術を組み合わせて対応する。一つ目は「差分プライバシー(Differential Privacy)」だ。学習プロセスに厳密に計算されたノイズを付加することで、特定の1件のデータを削除・変更してもモデルの出力に実質的な影響が生じないことを数学的に保証する。これにより、ネットワーク機器に紐づく固有データなど希少で識別されやすい情報がモデル内部に記憶されるリスクに、定量的な上限を設けられる。

二つ目は推論攻撃への耐性評価だ。「MIA(Membership Inference Attack)」と「AIA(Attribute Inference Attack)」という2種類の攻撃手法でテストを実施する。MIAは特定のデータが学習に使われたかどうかを推測する攻撃で、その成功率が無作為推測と統計的に同水準に収まることを確認する。AIAは一般的な属性情報から基地局の位置情報といった機密属性を推測しようとする攻撃で、これへの耐性も評価する。安全性評価を通過したデータのみをLTMの学習・共有用として使用するという設計だ。

検証の結果、生成した合成データセットでLTMを学習させたところ、ネットワーク品質の傾向分析や運用データの解釈・推論といったタスクで、実業務への適用が可能な水準の精度が得られたことを確認したとしている。

LTMは業界インフラになれるか。展望と残された課題

 LTMの開発は2025年3月にさかのぼる。当初から東京都内の実基地局への設定予測で90%以上の精度を達成するなど、通信特化モデルとしての実力を示してきた。2025年10月には国産LLM「Sarashina」との統合、2026年3月12日にはマルチAIエージェント基盤の構築と、段階的な進化を続けている。今回の合成データ基盤は、LTMを自社内の技術にとどめず、外部と連携できるオープンな基盤へと展開するうえで不可欠なピースと言える。

今後はNVIDIAとの連携を継続しつつ、国内外の通信事業者やネットワーク機器ベンダー、教育機関との実証実験を進める方針だ。AI推論の段階にもLLMガードレールによる保護を導入し、多層的なセキュリティ対策を整える。長期的にはAI-RANアライアンスなどの業界コンソーシアムを通じたエコシステムへの還元も視野に入れる。

一方、課題も残る。他社通信事業者との実証実験は始まったばかりで、実務環境での有用性・安全性の検証はこれからだ。差分プライバシーの強度を示す「ε(イプシロン)値」の業界共通基準もまだ存在せず、グローバルな標準化に向けた取り組みが問われる局面にある。GSMAが2026年3月にMWC 2026で立ち上げた「Open Telco AI」にKDDIやソフトバンクも参加1しており、業界全体での標準形成がどこまで進むかが今後の焦点になる。

ソフトバンク プレスリリース:
https://www.softbank.jp/corp/news/press/sbkk/2026/20260317_01/

  1. GSMAリリースより ↩︎

関連カテゴリー