4. 在詞向量(Word Embedding)訓練方法中,GloVe(Global Vectors for Word Representation)與 Word2Vec 的主要差異為何?
(A)Word2Vec 以詞頻權重訓練詞向量,而 GloVe 以隨機初始化向量進行學習;
(B)Word2Vec 以全局統計矩陣為基礎,而 GloVe 採用神經網路進行上下文預測;
(C)Word2Vec 為基於預測的模型,而 GloVe 為基於共現統計的模型;
(D)Word2Vec 僅能用於靜態文本語料,而 GloVe 可應用於即時語料更

答案:登入後查看
統計: A(6), B(2), C(12), D(0), E(0) #3773555

詳解 (共 1 筆)

#7373109
解析:
Word2Vec 主要是「預測式模型」,常見方法有:
CBOW:
根據上下文預測中心詞。
Skip-gram:
根據中心詞預測上下文。
也就是說,Word2Vec 的核心概念是透過神經網路訓練,讓模型學會「哪些詞常出現在相似語境中」。
GloVe 則是「全局共現統計模型」。
GloVe 會先建立一個大型的詞彙共現矩陣,觀察詞與詞在整個語料庫中共同出現的統計關係,再根據這些全局統計資訊學習詞向量。
所以 GloVe 的重點是:
利用整體語料中的詞與詞共現次數,來建立詞語之間的語意關係。
0
0

私人筆記 (共 1 筆)

私人筆記#8066697
未解鎖
為什麼選 (C)?核心邏輯分析 要區分這...
(共 858 字,隱藏中)
前往觀看
1
0