===== 分散表現 ===== 埋め込みとも言う。英語では embedding。単語に対して分散表現を作成したものが単語分散表現(単語埋め込み)。 簡単に言えば、分散表現とは単語や文などの言語表現を密にベクトル化したものだと思えばいい。 * 2023-08-10 | [[https://qiita.com/anyai_corp/items/1d66feea6102c28dd077|BERT系モデルで文章をEmbeddingする際のTips]] * 2023-06-21 | [[https://note.com/if001/n/n25d795afe571|local llmでsentence embeddingどれ使えば良いんだっけ]] * 2022-11-16 | [[https://zenn.dev/yoshikawat64m/articles/c242b11d21be68|自然言語処理 ベクトル化の手法]] * 2022-08-31 | [[https://qiita.com/yoshikawat64m/items/2e5379d616b1e95de626|自然言語処理の前処理 ベクトル化について]] * 2022-07-02 | [[https://ai-lab.lapras.com/nlp/japanese-word-embedding/|係り受けに基づく日本語単語埋め込み]] * 2022-04-26 | [[https://explosion.ai/blog/bloom-embeddings|Compact word vectors with Bloom embeddings]] * 2021-11-24 | [[https://yhayato1320.hatenablog.com/entry/2021/11/24/152533|【自然言語処理】分散表現 #まとめ編]] * 2021-09-18 | [[http://aiweeklynews.com/archives/55808263.html|自然言語処理の分散表現(Word2Vec,fastText)の課題]] * 2021-05-06 | [[https://zenn.dev/koukyo1994/articles/9b1da2482d8ba1|テーブルデータ向けの自然言語特徴抽出術]] * 2021-04-26 | [[https://qiita.com/takahashikaito94/items/372c30d3aef9ffcc6bfe|単語の分散表現の学習]] * 2021-03-27 | [[https://qiita.com/shinkai_/items/07615cc2e1a45f2488f8|【自然言語処理】AI、自然言語処理の初心者が頑張って自然言語処理と分散表現を説明してみる(出来るだけ簡単にわかりやすく)]] * 2021-02-22 | [[https://qiita.com/h_yuma/items/85a0d8c254a6aac23434|単語の分散表現とTensorBoardによる3次元空間での可視化]] * 2020-10-05 | [[https://qiita.com/kenta1984/items/6dc327c31b6c36e66863|【まとめ】自然言語処理における単語分散表現(単語ベクトル)と文書分散表現(文書ベクトル)]] - [[分散表現:word2vec]], [[分散表現:doc2vec]] * 2020-09-30 | [[https://qiita.com//you_gin/items/68b2e63d3128aa20138f|自然言語処理と関連する技術(忘備録用)]] - [[分散表現:word2vec]], [[重要度:tf-idf]] * 2020-07-06 | [[https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7|【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ]] - [[:rnnlm]], [[分散表現:word2vec]], [[分散表現:doc2vec]], [[:アテンション]], [[分散表現:glove]], [[言語モデル:seq2seq]], [[分散表現:fasttext]], [[:scdv]], [[:gnmt]], [[言語モデル:transformer]], [[分散表現:elmo]], [[:gpt]], [[言語モデル:bert]], [[:mt-dnn]], [[言語モデル:gpt:gpt-2]], [[言語モデル:ernie]], [[:xlnet]], [[言語モデル:roberta]], [[言語モデル:albert]], [[言語モデル:t5]] * 2020-01-13 | [[https://qiita.com/artisanbaggio/items/2e8784918563ea8153f0|BERTを使った単語の分散表現(ベクトル表現)の獲得]] * 2018-11-25 | [[https://ishitonton.hatenablog.com/entry/2018/11/25/200332|Embeddingについてまとめた。]] * 2017-07-01 | [[https://premium.aidemy.net/magazine/entry/2017/07/01/184421|自然言語処理の精度を向上させた”単語のベクトル表現”とは?簡単に実装してみた]] * 2017-03-08 | [[https://qiita.com/Hironsan/items/a58636f946dd51f670b0|なぜ自然言語処理にとって単語の分散表現は重要なのか?]] === 言語横断分散表現 === * 2019-08-12 | [[https://ai-scholar.tech/articles/treatise/iterative-normalization-ai-223|多言語の単語ベクトルの上手な再配置手法。もう「girls」を「猫」とは訳さない!]] === 関連ページ === * [[:分散表現:top|分散表現一覧]] * [[:言語モデル]] * [[:類似度]]