利用者:JP okapi/sandbox
表示
ここはJP okapiさんの利用者サンドボックスです。編集を試したり下書きを置いておいたりするための場所であり、百科事典の記事ではありません。ただし、公開の場ですので、許諾されていない文章の転載はご遠慮ください。
登録利用者は自分用の利用者サンドボックスを作成できます(サンドボックスを作成する、解説)。 その他のサンドボックス: 共用サンドボックス | モジュールサンドボックス 記事がある程度できあがったら、編集方針を確認して、新規ページを作成しましょう。 |
ELMo("Embeddings from Language Model") は、単語の並びをベクトルの並びとして表現する、単語埋め込み手法である。文字レベルのトークンを入力として、単語レベルの埋め込みを行う双方向LSTM(長・短期記憶)に取り込むことができる。BERTのように、ELMoの埋め込みは文脈依存性であり、「river bank」や「bank balance」の「bank」など、同じ綴りで異なる意味の単語(同形同音異義語)に対して、異なる表現を生成する。
ELMoは、Allen Institute for AI[1]と ワシントン大学によって作成された。
関連項目
[編集]- Transformer (機械学習モデル)
- Word2vec
- オートエンコーダ
- Document-term matrix
- 特徴抽出
- 特徴学習
- Neural language models
- ベクトル空間モデル
- Thought vector
- fastText
- GloVe
- TensorFlow
脚注
[編集]出典
[編集]- ^ “AllenNLP - ELMo — Allen Institute for AI”. 2023年3月30日閲覧。