コンテンツにスキップ

英文维基 | 中文维基 | 日文维基 | 草榴社区

Word2vec

出典: フリー百科事典『ウィキペディア(Wikipedia)』
Word2Vecから転送)

Word2vecは、単語の埋め込みを生成するために使用される一連のモデル群である。これらのモデルは、単語の言語コンテキストを再構築するように訓練された浅い2層ニューラルネットワークであり、大きなコーパスを受け取って一つのベクトル空間を生成する。このベクトル空間は典型的には数百次元からなり、コーパスの個々の単語はベクトル空間内の個々のベクトルに割り当てられる。コーパス内で同じコンテキストを共有する単語ベクトルは、ベクトル空間内の近くに配置される[1]

Word2vecは、Googleトマーシュ・ミコロフ率いる研究者チームによって2013年に作成および公開され、特許を取得した。アルゴリズムは他の研究者によって分析され、説明された[2][3]。Word2vecアルゴリズムを使用して作成された埋め込みベクトルには、潜在的意味分析などの以前のアルゴリズム[1]と比べていくつかの利点がある。

CBoWモデルとskip-gramモデル

[編集]

Word2vecでは、CBoW(continuous bag-of-words)モデルおよびskip gramモデルという二つのモデル構造のいずれかを使用し、単語の分散表現を生成する。

CBoWモデルでは、周囲のコンテキスト単語から現在の単語を予測する。コンテキスト単語の順序は問わない。skip-gramモデルでは、現在の単語を使用して、周囲のコンテキスト単語を予測する。現在の単語に近ければ近いほど、コンテキスト単語の重みを大きくする[1][4]

著者のメモによれば[5]、skip-gramモデルはCBOWモデルと比較すると低速ではあるが、頻度の低い単語に対しては有用である。

パラメータ化

[編集]

Word2vecの訓練の結果はパラメータ化の影響を受ける場合がある。以下に、いくつかの重要なパラメータを列挙する。

訓練アルゴリズム

[編集]

Word2vecモデルは、階層的ソフトマックス法またはネガティブサンプリング法、ないしその両者によって訓練することができる。

モデルが最大化しようとする条件付き対数尤度を近似するために、階層的ソフトマックス法はハフマンツリーを使用して計算を減らす。一方、ネガティブサンプリング法は、サンプリングされたネガティブインスタンスの対数尤度を最小化することにより、最大化問題に取り組む。

著者によると、階層的ソフトマックス法は頻度の低い単語に対してより効果的であり、ネガティブサンプリングは頻度の高い単語や低次元ベクトルでより効果的である[5]。トレーニングエポックが増えるにつれて、階層的ソフトマックス法は役に立たなくなる[6]

サブサンプリング

[編集]

頻度の高い単語は、ほとんど情報を提供しない。頻度が特定のしきい値を超える単語は、サブサンプリングしてトレーニング速度を上げることができる[7]

次元性

[編集]

次元が高いほど単語の埋め込みの品質が向上するが、ある程度以上次元が増えると、そのメリットは逓減する[1]。通常、ベクトルの次元数は100〜1,000に設定される。

コンテキストウィンドウ

[編集]

対象となる単語の前後いくつまでの単語がコンテキスト単語として含まれるかは、コンテキストウィンドウのサイズによって決定する。筆者らによるコンテキストウインドウのサイズの推奨値は、スキップグラムの場合は10、CBOWの場合は5である[5]

拡張

[編集]

(個別の単語ではなく)ドキュメント全体から埋め込みを構築するためのword2vecの拡張が提案されている[8]。この拡張は、paragraph2vecまたはdoc2vecと呼ばれ、C、Python[9][10]およびJava / Scala[11]で実装された。JavaおよびPythonでの実装では、新しい初見の文書に対する埋め込みの推論もサポートしている。

バイオインフォマティクスのための単語ベクトル:BioVectors

[編集]

バイオインフォマティクスでの利用のために、生物学的配列(例:DNARNA、およびタンパク質)におけるn-gramのための単語ベクトルの拡張が、AsgariとMofradによって提案された[12]

バイオベクター(BioVec)はタンパク質(アミノ酸配列)に対するタンパク質ベクター(ProtVec)、遺伝子配列に対する遺伝子ベクター(GeneVec)といった生物学的配列の総称であり、プロテオミクスおよびゲノミクスにおける機械学習の実装において幅広く用いられている。BioVectorsが生化学的および生物物理学的解釈に基づいて生物学的配列を分類できることが示唆されている。

同様の変法であるdna2vecは、Needleman-Wunsch類似度スコアとdna2vecにおける単語ベクトルのコサイン類似度との間に相関があることが示されている[13]

放射線学の単語ベクトル:インテリジェントな単語埋め込み(IWE)

[編集]

構造化されていない放射線医学レポートの密なベクトル表現を作成するための単語ベクトルの拡張は、Banerjeeらによって提案された[14]

大規模コーパスではあまり使用されていなかった単語も含め、放射線科医の好みのスタイルに応じて同義語や関連語を使用できる。未知の単語や語彙外(OOV)の単語、形態学的に類似した単語をどのように処理するかは、Word2vecモデルの最大の課題の一つであり、Word2vecモデルでは初見の単語に対してランダムなベクトルを割り当ててしまう。

Intelligent Word Embedding (IWE) は、Word2vecにセマンティックディクショナリマッピングテクニックを組み合わせて、臨床テキストからの情報抽出に取り組む。臨床テキストには、口語表現の曖昧さ、語彙のバリエーション、フリーテキストのナラティブスタイルのあいまいさ、語彙のバリエーション、非文法的かつ簡潔な語句の使用、単語の順序に恣意性、および略語と頭字語の頻出などがみられる。

特に興味深いことに、単一機関で訓練されたIWEモデルが他の機関のデータセットに上手く変換されており、施設に依存しない一般性が示された。

分析

[編集]

word2vecフレームワークで単語の埋め込み学習が成功する理由はよくわかっていない。GoldbergとLevyは、word2vec目的関数が類似のコンテキストで発生する単語に類似の埋め込み(コサイン類似度で測定)をもたらすことを指摘している。これはJRファースの分布仮説と一致する。しかし、彼らはこの説明は「非常に波打つ」ものであり、より正式な説明が望ましいと主張している[2]

レヴィら(2015)[15]は、下流のタスクにおけるword2vecまたは同様の埋め込みの優れたパフォーマンスの多くは、モデル自体の結果ではなく、特定のハイパーパラメーターの選択の結果であることを示している。これらのハイパーパラメータをより「従来の」アプローチに転送すると、ダウンストリームタスクで同様のパフォーマンスが得らる。アロラらはword2vecと関連アルゴリズムを、テキストの単純な生成モデルの推論を実行するものとして説明している[16]。これには、対数線形トピックモデルに基づくランダムウォーク生成プロセスが含まれる。 彼らはこれを使用して、類推を解決するための使用を含め、単語の埋め込みのいくつかの特性を説明する。

意味的および構文的関係の保持

[編集]

単語埋め込みアプローチは、単語間の複数の異なる程度の類似性を取り込むことができる。ミコロフ等(2013)[17]は、意味論的および構文的パターンがベクトル演算を使用して再現できることを発見した。「'男→女の関係'と'兄弟→姉妹の関係'は同じ」などのパターンは、これらの単語のベクトル表現に対する代数演算によって生成できる。すなわち、「兄弟」-「男性」+「女性」のベクトル表現が「姉妹」のベクトル表現にとても近い結果を生成する。このような関係は、さまざまな意味関係(国-資本など)と構文関係(現在形-過去形など)に対して生成できる。

モデルの品質の評価

[編集]

ミコロフらは上記の意味論的および構文的パターンを引き出すword2vecモデルの品質を評価するアプローチを開発した[1]。モデルの精度をテストするためのベンチマークとして使用する、8,869の意味関係と10,675の構文関係のセットを開発した。 ベクトルモデルの品質を評価するとき、ユーザーはword2vec[18]に実装されているこの精度テストを利用するか、モデルを構成するコーパスにとって意味のある独自のテストセットを開発できる。このアプローチは、特定のテスト単語に最も類似している単語は直感的にもっともらしいと主張するだけではなく、より難しいテストも提供できる。

パラメータとモデルの品質

[編集]

異なるモデルパラメータと異なるコーパスサイズを使用すると、word2vecモデルの品質に大きく影響する可能性がある。精度は、モデル構造(CBoWモデルまたはSkip-gramモデル)の選択、トレーニングデータセットの増加、ベクトルの次元数の増加、アルゴリズムで考慮される単語のウィンドウサイズの増加など、いくつかの方法で改善できる。こうした改善策のそれぞれには、計算の複雑さが増してモデル生成時間が増加するというコストが伴う[1]

大規模なコーパスと高次元を使用するモデルでは、skip-gramモデルで最も高い精度が得られ、ほとんどの場合における構文精度だけでなく意味論的関係の精度も最大化する。ただし、CBoWでも低い計算コストで同様の精度の結果を得ることができる[1]

使用される単語の数が増えるほど、また次元の数が増えるほど、精度は全体的に向上する。ミコロフらは、トレーニングデータの量を2倍にすると、計算の複雑さが増加し、ベクトルの次元数を2倍にすることに相当することを報告した[1]

Altszylerらは、異なるコーパスサイズの2つのセマンティックテストでWord2vecのパフォーマンスを調査し、Word2vecの学習曲線が急峻であることを発見した[19]。中規模から大規模のコーパス(1,000万語以上)では別の単語埋め込み手法(LSA)よりも優れていたが、小規模のコーパスでは、LSAの方が優れていた。さらに、最適なパラメータ設定はタスクとコーパスに依存することを示した。とはいえ、中規模のコーパスを用いたskip-gramの場合、次元数50、ウィンドウサイズ15および負のサンプル10が適切なパラメーター設定のようであった。

実装

[編集]

関連項目

[編集]

脚注

[編集]

出典

[編集]
  1. ^ a b c d e f g h Mikolov, Tomas. "Efficient Estimation of Word Representations in Vector Space". arXiv:1301.3781 [cs.CL]。
  2. ^ a b Goldberg, Yoav; Levy, Omer. "word2vec Explained: Deriving Mikolov et al.'s Negative-Sampling Word-Embedding Method". arXiv:1402.3722 [cs.CL]。
  3. ^ Řehůřek, Radim. Word2vec and friends. 2015年8月14日閲覧
  4. ^ Mikolov, Tomas; Sutskever, Ilya; Chen, Kai; Corrado, Greg S.; Dean, Jeff (2013). Distributed representations of words and phrases and their compositionality. Advances in Neural Information Processing Systems. Bibcode:2013arXiv1310.4546M
  5. ^ a b c Google Code Archive - Long-term storage for Google Code Project Hosting.”. code.google.com. 2016年6月13日閲覧。
  6. ^ Parameter (hs & negative)”. Google Groups. 2016年6月13日閲覧。
  7. ^ Visualizing Data using t-SNE”. Journal of Machine Learning Research, 2008. Vol. 9, pg. 2595. 2017年3月18日閲覧。
  8. ^ Le, Quoc. "Distributed Representations of Sentences and Documents". arXiv:1405.4053 [cs.CL]。
  9. ^ Doc2Vec tutorial using Gensim”. 2015年8月2日閲覧。
  10. ^ Doc2vec for IMDB sentiment analysis”. 2016年2月18日閲覧。
  11. ^ Doc2Vec and Paragraph Vectors for Classification”. 2016年1月13日閲覧。
  12. ^ Asgari, Ehsaneddin; Mofrad, Mohammad R.K. (2015). “Continuous Distributed Representation of Biological Sequences for Deep Proteomics and Genomics”. PLOS One 10 (11): e0141287. arXiv:1503.05140. Bibcode2015PLoSO..1041287A. doi:10.1371/journal.pone.0141287. PMC 4640716. PMID 26555596. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4640716/. 
  13. ^ Ng, Patrick (2017). "dna2vec: Consistent vector representations of variable-length k-mers". arXiv:1701.06279 [q-bio.QM]。
  14. ^ Banerjee, Imon; Chen, Matthew C.; Lungren, Matthew P.; Rubin, Daniel L. (2018). “Radiology report annotation using intelligent word embeddings: Applied to multi-institutional chest CT cohort”. Journal of Biomedical Informatics 77: 11–20. doi:10.1016/j.jbi.2017.11.012. PMC 5771955. PMID 29175548. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5771955/. 
  15. ^ Levy, Omer; Goldberg, Yoav; Dagan, Ido (2015). “Improving Distributional Similarity with Lessons Learned from Word Embeddings”. Transactions of the Association for Computational Linguistics (Transactions of the Association for Computational Linguistics) 3: 211–225. doi:10.1162/tacl_a_00134. http://www.aclweb.org/anthology/Q15-1016. 
  16. ^ Arora, S (Summer 2016). “A Latent Variable Model Approach to PMI-based Word Embeddings”. Transactions of Assoc. Of Comp. Linguistics 4: 385–399. doi:10.1162/tacl_a_00106. http://aclweb.org/anthology/Q16-1028. 
  17. ^ Mikolov, Tomas; Yih, Wen-tau; Zweig, Geoffrey (2013). “Linguistic Regularities in Continuous Space Word Representations.”. HLT-Naacl: 746–751. 
  18. ^ Gensim - Deep learning with word2vec”. 10 June 2016閲覧。
  19. ^ Altszyler, E.; Ribeiro, S.; Sigman, M.; Fernández Slezak, D. (2017). “The interpretation of dream meaning: Resolving ambiguity using Latent Semantic Analysis in a small corpus of text”. Consciousness and Cognition 56: 178–187. arXiv:1610.01520. doi:10.1016/j.concog.2017.09.004. PMID 28943127.