TOP
|
特許
|
意匠
|
商標
特許ウォッチ
Twitter
他の特許を見る
10個以上の画像は省略されています。
公開番号
2025115594
公報種別
公開特許公報(A)
公開日
2025-08-07
出願番号
2024010135
出願日
2024-01-26
発明の名称
連合学習に関する情報処理方法、サーバ、情報処理プログラム、及び、学習済みモデル
出願人
学校法人 芝浦工業大学
代理人
弁理士法人信栄事務所
主分類
G06N
3/098 20230101AFI20250731BHJP(計算;計数)
要約
【課題】学習用データのプライバシーを保護し、端末装置の負荷、データ通信量、学習時間の少なくとも一つを抑制しつつ、高精度なモデルを生成可能な、連合学習に関する情報処理方法、サーバ、情報処理プログラム、及び、学習済みモデルを提供する。
【解決手段】サーバ1と、通信ネットワークN1、N2、N3を介してサーバ1と通信可能に接続された複数の端末装置10、20、30とによって実行される情報処理方法であって、グローバルモデルMの蒸留モデルmを用いて連合学習を実行する第一連合学習工程と、グローバルモデルMを用いて連合学習を実行する第二連合学習工程と、を含む。
【選択図】図5
特許請求の範囲
【請求項1】
サーバと、通信ネットワークを介して前記サーバと通信可能に接続された複数の端末装置とによって実行される情報処理方法であって、
グローバルモデルの蒸留モデルを用いて連合学習を実行する第一連合学習工程と、
前記グローバルモデルを用いて前記連合学習を実行する第二連合学習工程と、を含み、
前記第一連合学習工程は、
前記サーバが、前記蒸留モデルを第一ローカルモデルとして複製し、前記第一ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々が、前記第一ローカルモデルを学習して第一学習済みパラメータを取得する工程と、
複数の前記端末装置の各々が、前記第一学習済みパラメータを前記サーバへ送信する工程と、
前記サーバが、複数の前記第一学習済みパラメータから第一統合パラメータを算出し、前記第一統合パラメータを用いて前記蒸留モデルを更新する工程と、を含み、
前記第二連合学習工程は、
前記サーバが、前記グローバルモデルを第二ローカルモデルとして複製し、前記第二ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々が、前記第二ローカルモデルを学習して第二学習済みパラメータを取得する工程と、
複数の前記端末装置の各々が、前記第二学習済みパラメータを前記サーバへ送信する工程と、
前記サーバが、複数の前記第二学習済みパラメータから第二統合パラメータを算出し、前記第二統合パラメータを用いて前記グローバルモデルを更新する工程と、を含む、情報処理方法。
続きを表示(約 2,200 文字)
【請求項2】
前記第一連合学習工程を実行後に、前記第二連合学習工程を実行する、請求項1に記載の情報処理方法。
【請求項3】
(N+1)回目の前記第一連合学習工程において用いられる前記蒸留モデルのサイズは、N回目の前記第一連合学習工程において用いられる前記蒸留モデルのサイズよりも大きく、
Nは、1以上の自然数である、請求項1に記載の情報処理方法。
【請求項4】
前記サーバは、複数の前記第一学習済みパラメータの加重平均によって前記第一統合パラメータを算出し、複数の前記第二学習済みパラメータの加重平均によって前記第二統合パラメータを算出する、請求項3に記載の情報処理方法。
【請求項5】
通信ネットワークを介して複数の端末装置に通信可能に接続されたサーバによって実行される情報処理方法であって、
グローバルモデルの蒸留モデルを用いて連合学習を実行する第一連合学習工程と、
前記グローバルモデルを用いて前記連合学習を実行する第二連合学習工程と、を含み、
前記第一連合学習工程は、
前記蒸留モデルを第一ローカルモデルとして複製し、前記第一ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第一ローカルモデルを学習させることで取得した第一学習済みパラメータを受信する工程と、
複数の前記第一学習済みパラメータから第一統合パラメータを算出し、前記第一統合パラメータを用いて前記蒸留モデルを更新する工程と、を含み、
前記第二連合学習工程は、
前記グローバルモデルを第二ローカルモデルとして複製し、前記第二ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第二ローカルモデルを学習させることで取得した第二学習済みパラメータを受信する工程と、
複数の前記第二学習済みパラメータから第二統合パラメータを算出し、前記第二統合パラメータを用いて前記グローバルモデルを更新する工程と、を含む、情報処理方法。
【請求項6】
通信ネットワークを介して複数の端末装置に通信可能に接続される通信インタフェースと、プロセッサと、を備え、
前記プロセッサは、
グローバルモデルの蒸留モデルを用いて連合学習を実行する第一連合学習工程と、
前記グローバルモデルを用いて前記連合学習を実行する第二連合学習工程と、を実行し、
前記第一連合学習工程は、
前記蒸留モデルを第一ローカルモデルとして複製し、前記通信インタフェースから前記第一ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第一ローカルモデルを学習させることで取得した第一学習済みパラメータを、前記通信インタフェースを通じて受信する工程と、
複数の前記第一学習済みパラメータから第一統合パラメータを算出し、前記第一統合パラメータを用いて前記蒸留モデルを更新する工程と、を含み、
前記第二連合学習工程は、
前記グローバルモデルを第二ローカルモデルとして複製し、前記通信インタフェースから前記第二ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第二ローカルモデルを学習させることで取得した第二学習済みパラメータを、前記通信インタフェースを通じて受信する工程と、
複数の前記第二学習済みパラメータから第二統合パラメータを算出し、前記第二統合パラメータを用いて前記グローバルモデルを更新する工程と、を含む、サーバ。
【請求項7】
通信ネットワークを介して複数の端末装置に通信可能に接続されたサーバに搭載されたプロセッサにより実行可能なコンピュータプログラムであって、
実行されることにより、前記サーバは、
グローバルモデルの蒸留モデルを用いて連合学習を実行する第一連合学習工程と、
前記グローバルモデルを用いて前記連合学習を実行する第二連合学習工程と、を実行し、
前記第一連合学習工程は、
前記蒸留モデルを第一ローカルモデルとして複製し、前記第一ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第一ローカルモデルを学習させることで取得した第一学習済みパラメータを受信する工程と、
複数の前記第一学習済みパラメータから第一統合パラメータを算出し、前記第一統合パラメータを用いて前記蒸留モデルを更新する工程と、を含み、
前記第二連合学習工程は、
前記グローバルモデルを第二ローカルモデルとして複製し、前記第二ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第二ローカルモデルを学習させることで取得した第二学習済みパラメータを受信する工程と、
複数の前記第二学習済みパラメータから第二統合パラメータを算出し、前記第二統合パラメータを用いて前記グローバルモデルを更新する工程と、を含む、コンピュータプログラム。
【請求項8】
請求項1、または5に記載の情報処理方法で学習された学習済みモデル。
発明の詳細な説明
【技術分野】
【0001】
本開示は、グローバルモデルの蒸留モデルを用いた連合学習による情報処理方法、サーバ、情報処理プログラム、及び、学習済みモデルに関する。
続きを表示(約 3,300 文字)
【背景技術】
【0002】
複数の端末装置から学習用データをサーバに集約し、サーバ上で機械学習を行う中央集権型の学習方法において、学習用データのプライバシー保護、データ通信量や学習時間の増大が問題となっている。そこで、端末装置に機械学習をさせることで、学習用データのプライバシーを保護し、データ通信量や学習時間を抑制する連合学習が提案されている(例えば特許文献1)。
【先行技術文献】
【特許文献】
【0003】
特開2023-128056号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
学習用データのプライバシーを保護し、端末装置の負荷、データ通信量、学習時間の少なくとも一つを抑制しつつ、高精度なモデルを生成可能な機械学習の方法が求められている。
【課題を解決するための手段】
【0005】
本開示の一側面に係る第一の情報処理方法は、
サーバと、通信ネットワークを介して前記サーバと通信可能に接続された複数の端末装置とによって実行される情報処理方法であって、
グローバルモデルの蒸留モデルを用いて連合学習を実行する第一連合学習工程と、
前記グローバルモデルを用いて前記連合学習を実行する第二連合学習工程と、を含み、
前記第一連合学習工程は、
前記サーバが、前記蒸留モデルを第一ローカルモデルとして複製し、前記第一ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々が、前記第一ローカルモデルを学習して第一学習済みパラメータを取得する工程と、
複数の前記端末装置の各々が、前記第一学習済みパラメータを前記サーバへ送信する工程と、
前記サーバが、複数の前記第一学習済みパラメータから第一統合パラメータを算出し、前記第一統合パラメータを用いて前記蒸留モデルを更新する工程と、を含み、
前記第二連合学習工程は、
前記サーバが、前記グローバルモデルを第二ローカルモデルとして複製し、前記第二ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々が、前記第二ローカルモデルを学習して第二学習済みパラメータを取得する工程と、
複数の前記端末装置の各々が、前記第二学習済みパラメータを前記サーバへ送信する工程と、
前記サーバが、複数の前記第二学習済みパラメータから第二統合パラメータを算出し、前記第二統合パラメータを用いて前記グローバルモデルを更新する工程と、を含む。
【0006】
本開示の他の一側面に係る第二の情報処理方法は、
通信ネットワークを介して複数の端末装置に通信可能に接続されたサーバによって実行される情報処理方法であって、
グローバルモデルの蒸留モデルを用いて連合学習を実行する第一連合学習工程と、
前記グローバルモデルを用いて前記連合学習を実行する第二連合学習工程と、を含み、
前記第一連合学習工程は、
前記蒸留モデルを第一ローカルモデルとして複製し、前記第一ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第一ローカルモデルを学習させることで取得した第一学習済みパラメータを受信する工程と、
複数の前記第一学習済みパラメータから第一統合パラメータを算出し、前記第一統合パラメータを用いて前記蒸留モデルを更新する工程と、を含み、
前記第二連合学習工程は、
前記グローバルモデルを第二ローカルモデルとして複製し、前記第二ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第二ローカルモデルを学習させることで取得した第二学習済みパラメータを受信する工程と、
複数の前記第二学習済みパラメータから第二統合パラメータを算出し、前記第二統合パラメータを用いて前記グローバルモデルを更新する工程と、を含む。
【0007】
本開示の一側面に係るサーバは、
通信ネットワークを介して複数の端末装置に通信可能に接続される通信インタフェースと、プロセッサと、を備え、
前記プロセッサは、
グローバルモデルの蒸留モデルを用いて連合学習を実行する第一連合学習工程と、
前記グローバルモデルを用いて前記連合学習を実行する第二連合学習工程と、を実行し、
前記第一連合学習工程は、
前記蒸留モデルを第一ローカルモデルとして複製し、前記通信インタフェースから前記第一ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第一ローカルモデルを学習させることで取得した第一学習済みパラメータを、前記通信インタフェースを通じて受信する工程と、
複数の前記第一学習済みパラメータから第一統合パラメータを算出し、前記第一統合パラメータを用いて前記蒸留モデルを更新する工程と、を含み、
前記第二連合学習工程は、
前記グローバルモデルを第二ローカルモデルとして複製し、前記通信インタフェースから前記第二ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第二ローカルモデルを学習させることで取得した第二学習済みパラメータを、前記通信インタフェースを通じて受信する工程と、
複数の前記第二学習済みパラメータから第二統合パラメータを算出し、前記第二統合パラメータを用いて前記グローバルモデルを更新する工程と、を含む。
【0008】
本開示の一側面に係るコンピュータプログラムは、
通信ネットワークを介して複数の端末装置に通信可能に接続されたサーバに搭載されたプロセッサにより実行可能なコンピュータプログラムであって、
実行されることにより、前記サーバは、
グローバルモデルの蒸留モデルを用いて連合学習を実行する第一連合学習工程と、
前記グローバルモデルを用いて前記連合学習を実行する第二連合学習工程と、を実行し、
前記第一連合学習工程は、
前記蒸留モデルを第一ローカルモデルとして複製し、前記第一ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第一ローカルモデルを学習させることで取得した第一学習済みパラメータを受信する工程と、
複数の前記第一学習済みパラメータから第一統合パラメータを算出し、前記第一統合パラメータを用いて前記蒸留モデルを更新する工程と、を含み、
前記第二連合学習工程は、
前記グローバルモデルを第二ローカルモデルとして複製し、前記第二ローカルモデルを複数の前記端末装置の各々へ送信する工程と、
複数の前記端末装置の各々から、前記第二ローカルモデルを学習させることで取得した第二学習済みパラメータを受信する工程と、
複数の前記第二学習済みパラメータから第二統合パラメータを算出し、前記第二統合パラメータを用いて前記グローバルモデルを更新する工程と、を含む。
【0009】
本開示の一側面に係る学習済みモデルは、
上記第一の情報処理方法、または、上記第二の情報処理方法で学習された学習済みモデルである。
【発明の効果】
【0010】
本開示によれば、学習用データのプライバシーを保護し、端末装置の負荷、データ通信量、学習時間の少なくとも一つを抑制しつつ、高精度なモデルを生成可能な、連合学習に関する情報処理方法、サーバ、情報処理プログラム、及び、学習済みモデルを提供できる。
【図面の簡単な説明】
(【0011】以降は省略されています)
この特許をJ-PlatPatで参照する
関連特許
学校法人 芝浦工業大学
フィードバックシステム
1か月前
学校法人早稲田大学
マップ更新装置、マップ更新方法、およびプログラム
2か月前
学校法人 芝浦工業大学
連合学習に関する情報処理方法、サーバ、情報処理プログラム、及び、学習済みモデル
3日前
個人
対話装置
1か月前
個人
情報処理装置
1か月前
個人
裁判のAI化
24日前
個人
情報処理システム
1か月前
個人
フラワーコートA
3日前
個人
検査システム
1か月前
個人
記入設定プラグイン
1か月前
個人
情報処理装置
1か月前
個人
介護情報提供システム
10日前
個人
設計支援システム
16日前
個人
設計支援システム
16日前
個人
情報入力装置
1か月前
株式会社サタケ
籾摺・調製設備
1か月前
個人
不動産売買システム
1か月前
キヤノン電子株式会社
携帯装置
1か月前
個人
物価スライド機能付生命保険
1か月前
株式会社カクシン
支援装置
19日前
個人
アンケート支援システム
5日前
個人
備蓄品の管理方法
1か月前
個人
マイホーム非電子入札システム
1か月前
サクサ株式会社
中継装置
1か月前
サクサ株式会社
中継装置
6日前
キヤノン株式会社
情報処理装置
1か月前
個人
ジェスチャーパッドのガイド部材
9日前
キヤノン株式会社
情報処理装置
1か月前
株式会社BONNOU
管理装置
1か月前
ホシデン株式会社
タッチ入力装置
1か月前
個人
決済手数料0%のクレジットカード
2か月前
東洋電装株式会社
操作装置
1か月前
東洋電装株式会社
操作装置
1か月前
株式会社寺岡精工
システム
9日前
株式会社東芝
電子機器
1か月前
アスエネ株式会社
排水量管理方法
1か月前
続きを見る
他の特許を見る