言語モデル学習装置およびそのプログラム、ならびに、単語推定装置およびそのプログラム

開放特許情報番号
L2022001901
開放特許情報登録日
2022/11/25
最新更新日
2022/11/25

基本情報

出願番号 特願2018-115619
出願日 2018/6/18
出願人 日本放送協会
公開番号 特開2019-219827
公開日 2019/12/26
登録番号 特許第7101057号
特許権者 日本放送協会
発明の名称 言語モデル学習装置およびそのプログラム、ならびに、単語推定装置およびそのプログラム
技術分野 情報・通信
機能 機械・部品の製造、制御・ソフトウェア
適用製品 言語モデルを学習するための言語モデル学習装置およびそのプログラム、ならびに、言語モデルを用いて接続単語を推定する単語推定装置およびそのプログラム
目的 ドメインが未知の発話文の単語列に対して、次に現れる単語を精度よく予測する言語モデルを学習する言語モデル学習装置およびそのプログラム、ならびに、その言語モデルを用いて次単語を推定する単語推定装置およびそのプログラムを提供する。
効果 発話文の単語列とともに、当該発話文に関連する画像の特徴であるキャプションに基づいて、言語モデルを学習することができる。
ドメインが未知な場合でも、発話文に関連する画像から、ドメインの素材となる情報を加味して言語モデルを学習することができ、言語モデルの推定精度を向上させることができる。
技術概要
発話文を構成する単語と当該発話文に関連する画像とで構成される複数の学習データにより、再帰型ニューラルネットワークの言語モデルを学習する言語モデル学習装置であって、
予め学習したニューラルネットワークのキャプション生成モデルを用いて、前記画像から当該画像の内容を示す複数のキャプションを生成するキャプション生成手段と、
前記キャプション生成手段で生成された複数のキャプションをベクトル化して統合することでキャプション統合ベクトルを生成するとともに、前記発話文を構成する単語ごとにベクトル化して入力単語ベクトルを生成し、前記言語モデルへの入力データを生成するモデル入力データ生成手段と、
前記発話文を構成する単語に対応する前記入力単語ベクトルと、前記発話文に対応するキャプション統合ベクトルとに基づいて、当該単語に続く次単語を教師データとして、前記言語モデルを学習する学習手段と、
を備えることを特徴とする言語モデル学習装置。
実施実績 【無】   
許諾実績 【無】   
特許権譲渡 【否】
特許権実施許諾 【可】

登録者情報

その他の情報

関連特許
国内 【無】
国外 【無】   
Copyright © 2023 INPIT