本站内容由 AI 生成,可能存在错误。如发现问题,欢迎到 GitHub Issues 反馈。

Word2Vec 与 GloVe:隐式 vs 显式矩阵分解

Word2Vec 与 GloVe:隐式 vs 显式矩阵分解

更新于 2026-04-23

上一篇 MF/FM 桥接文章展示了如何将矩阵分解应用于推荐系统的评分预测。本篇揭示一个更深层的联系:词嵌入(word embedding)——看起来和矩阵分解毫无关系的神经网络方法——本质上也是在分解一个矩阵。

2013 年,Mikolov 等人提出 Word2Vec,通过简单的神经网络在大规模语料上训练出的词向量展现出惊人的语义算术能力:kingman+womanqueen\vec{king} - \vec{man} + \vec{woman} \approx \vec{queen}。这个结果轰动了 NLP 领域,但也留下了一个根本问题:Word2Vec 到底在做什么?为什么一个简单的浅层网络能学到如此丰富的语义关系?

2014 年,Levy 和 Goldberg 在 NeurIPS 论文中给出了一个优雅的回答:Word2Vec 的 skip-gram with negative sampling(SGNS)模型,本质上在隐式分解一个偏移 PMI 矩阵。 词向量 wi\mathbf{w}_i 和上下文向量 cj\mathbf{c}_j 的内积,趋向于逼近这两个词的逐点互信息(Pointwise Mutual Information, PMI)减去一个常数(见 Levy & Goldberg, 2014)。

同年,Pennington 等人提出 GloVe,走的是显式的路:直接构造共现矩阵,然后分解它的对数。两条路——一条隐式、一条显式——殊途同归,指向同一个数学真相:词嵌入 = 某种共现统计矩阵的低秩分解。

这篇文章属于 Part 1 “拆” 的应用阶段,展示矩阵分解如何以意想不到的方式出现在 NLP 的核心方法中。与 Art. 3 SVDArt. 6 PCA 建立的工具直接相关。

背景:从共现计数到词向量

分布式假说

词嵌入的理论基础是分布式假说(distributional hypothesis, Firth 1957):

“You shall know a word by the company it keeps.” 一个词的含义由它的上下文决定。

如果两个词经常出现在相似的上下文中,它们的含义相近。这个假说把语义相似性转化为共现统计的相似性——一个可以用矩阵精确表达的概念。

共现矩阵

给定一个词汇表 V\mathcal{V}(大小 V=V|\mathcal{V}| = V)和一个上下文窗口大小 LL,我们可以构造词-上下文共现矩阵 XRV×VX \in \mathbb{R}^{V \times V}

Xij=#(wi,cj)X_{ij} = \#(w_i, c_j)

其中 #(wi,cj)\#(w_i, c_j) 是词 wiw_i 和上下文词 cjc_j 在窗口内共同出现的次数。

关键观察:这个矩阵是巨大的(VV 通常在 10510^510610^6 量级),但它的有效秩远小于 VV——因为语义空间的维度远低于词汇量。这正是低秩矩阵分解的用武之地。

共现矩阵构造(窗口 L = 1)语料句子:thecatsatonthemat中心词 "sat" 的上下文窗口共现矩阵 Xthethecatcatsatsatononmatmat0101110100010101010110010Xᵢⱼ = 词 wᵢ 和上下文 cⱼ 在窗口内共现的次数,矩阵巨大(V × V)但有效秩很低

传统方法:显式矩阵 → SVD

在 Word2Vec 之前,NLP 中的词向量方法遵循一条清晰的路线:

  1. 构造共现矩阵 XX
  2. 做某种变换(TF-IDF、PPMI 等)
  3. 对变换后的矩阵做 SVD(Art. 3),截断到 kk
  4. UkΣk1/2U_k \Sigma_k^{1/2}UkΣkU_k \Sigma_k 作为词向量

这就是经典的 LSA(Latent Semantic Analysis) 路线。它的问题是:V×VV \times V 的矩阵太大,SVD 的 O(V2k)O(V^2 k) 复杂度难以承受。

Word2Vec 的贡献在于:绕过了显式矩阵构造和 SVD,直接通过 SGD 学到了等效的分解结果。

Word2Vec:Skip-Gram with Negative Sampling

Skip-Gram 模型

Skip-gram 模型的目标是:给定一个中心词 wiw_i,预测它在上下文窗口内出现的上下文词 cjc_j

模型为每个词分配两个向量:

  • 词向量 wiRd\mathbf{w}_i \in \mathbb{R}^d(作为中心词时使用)
  • 上下文向量 cjRd\mathbf{c}_j \in \mathbb{R}^d(作为上下文词时使用)

预测概率用 softmax 定义:

P(cjwi)=exp(wiTcj)cVexp(wiTc)P(c_j | w_i) = \frac{\exp(\mathbf{w}_i^T \mathbf{c}_j)}{\sum_{c \in \mathcal{V}} \exp(\mathbf{w}_i^T \mathbf{c})}

逐项理解:

  • wiTcj\mathbf{w}_i^T \mathbf{c}_j:中心词向量与上下文向量的内积,衡量词对的”亲密程度”
  • 分母 cVexp(wiTc)\sum_{c \in \mathcal{V}} \exp(\mathbf{w}_i^T \mathbf{c}):在整个词汇表上归一化,计算代价 O(V)O(V)

训练目标是最大化语料库中所有观测到的词-上下文对的对数似然:

L=(wi,cj)DlogP(cjwi)\mathcal{L} = \sum_{(w_i, c_j) \in \mathcal{D}} \log P(c_j | w_i)

Skip-Gram 模型结构中心词wᵢ (one-hot)V 词向量wᵢ ∈ ℝᵈd 维(如 300)c_{j-1}c_jc_{j+1}预测上下文W ∈ ℝ^{V×d}C ∈ ℝ^{V×d}评分 = wᵢᵀcⱼ → softmax → P(cⱼ|wᵢ)两个嵌入矩阵 W(词向量)和 C(上下文向量)的内积决定预测概率

负采样(Negative Sampling, NEG)

Softmax 的分母需要遍历整个词汇表,这在 V105V \sim 10^5 时极其昂贵。Mikolov 等人在 第二篇论文 中提出负采样(Negative Sampling)来近似这个目标。

核心思想:不再计算完整的 softmax,而是将问题转化为二分类——区分真正的词-上下文对(正样本)和随机采样的噪声对(负样本)。

对于一个真实的词-上下文对 (wi,cj)(w_i, c_j),SGNS 的目标函数是:

(wi,cj)=logσ(wiTcj)+kEcNPD[logσ(wiTcN)]\ell(w_i, c_j) = \log \sigma(\mathbf{w}_i^T \mathbf{c}_j) + k \cdot \mathbb{E}_{c_N \sim P_D} [\log \sigma(-\mathbf{w}_i^T \mathbf{c}_N)]

逐项理解:

  • σ(x)=11+ex\sigma(x) = \frac{1}{1+e^{-x}}:sigmoid 函数
  • logσ(wiTcj)\log \sigma(\mathbf{w}_i^T \mathbf{c}_j)正样本项——鼓励真实词-上下文对的内积变大(σ\sigma 值趋向 1)
  • kEcNPD[logσ(wiTcN)]k \cdot \mathbb{E}_{c_N \sim P_D}[\log \sigma(-\mathbf{w}_i^T \mathbf{c}_N)]负样本项——从噪声分布 PDP_D 中采样 kk 个负上下文,鼓励噪声对的内积变小(σ(x)\sigma(-x) 趋向 1 意味着 xx 趋向 -\infty
  • kk:负样本数(通常 k=5k = 52020
  • PD(c)=#(c)3/4c#(c)3/4P_D(c) = \frac{\#(c)^{3/4}}{\sum_{c'} \#(c')^{3/4}}:噪声分布,按词频的 3/43/4 次方采样(比均匀分布更偏向高频词,但比纯频率分布更平滑)

整个语料的训练目标是对所有观测到的词-上下文对求和:

LSGNS=(wi,cj)D#(wi,cj)(wi,cj)\mathcal{L}_{\text{SGNS}} = \sum_{(w_i, c_j) \in \mathcal{D}} \#(w_i, c_j) \cdot \ell(w_i, c_j)

训练通过 SGD(随机梯度下降)在语料上滑动窗口在线完成——从不需要构造任何矩阵

SGNS 的隐式矩阵分解路径
从语料到词向量:SGD 训练隐式地分解了偏移 PMI 矩阵
语料库滑动窗口词-上下文对(w_i, c_j)SGNSSGD 二分类词向量内积w_i^T c_jPMI - log k隐式矩阵分解Levy & Goldberg 定理: w_i^T c_j = PMI(w_i, c_j) - log k⬆ 整个过程从不构造任何矩阵 — 这就是"隐式"的含义

Levy & Goldberg 的核心定理:SGNS = 隐式矩阵分解

定理陈述

Levy 和 Goldberg (2014) 的核心结果是以下定理(见 Levy & Goldberg, 2014, Section 3):

定理:当 skip-gram with negative sampling(SGNS)的向量维度 dd 足够大(即 drank(M)d \geq \text{rank}(M))时,SGNS 的全局最优解满足:

wiTcj=PMI(wi,cj)logk\mathbf{w}_i^T \mathbf{c}_j = \text{PMI}(w_i, c_j) - \log k

其中 PMI 是逐点互信息(Pointwise Mutual Information),kk 是负采样数。

用矩阵语言表述:定义矩阵 MRV×VM \in \mathbb{R}^{V \times V},其元素为:

Mij=PMI(wi,cj)logk\boxed{M_{ij} = \text{PMI}(w_i, c_j) - \log k}

则 SGNS 的训练目标等价于将 MM 分解为两个低秩矩阵的乘积:

MWCTM \approx W C^T

其中 WRV×dW \in \mathbb{R}^{V \times d} 是词向量矩阵(第 ii 行是 wiT\mathbf{w}_i^T),CRV×dC \in \mathbb{R}^{V \times d} 是上下文向量矩阵(第 jj 行是 cjT\mathbf{c}_j^T)。

PMI 的定义与直觉

逐点互信息(Pointwise Mutual Information, PMI)衡量两个事件的共现是否超出随机预期:

PMI(wi,cj)=logP(wi,cj)P(wi)P(cj)\text{PMI}(w_i, c_j) = \log \frac{P(w_i, c_j)}{P(w_i) \cdot P(c_j)}

逐项理解:

  • P(wi,cj)=#(wi,cj)DP(w_i, c_j) = \frac{\#(w_i, c_j)}{|\mathcal{D}|}:词 wiw_i 和上下文 cjc_j 的共现概率(D|\mathcal{D}| 是总词-上下文对数)
  • P(wi)=#(wi)DP(w_i) = \frac{\#(w_i)}{|\mathcal{D}|}:词 wiw_i 的边缘概率
  • P(cj)=#(cj)DP(c_j) = \frac{\#(c_j)}{|\mathcal{D}|}:上下文 cjc_j 的边缘概率
  • 分数 P(wi,cj)P(wi)P(cj)\frac{P(w_i, c_j)}{P(w_i) P(c_j)}实际共现概率与独立假设下期望共现概率的比值

PMI 的值有三种情况:

  • PMI>0\text{PMI} > 0:共现超出随机预期——这两个词有正相关(如 “king” 和 “throne”)
  • PMI=0\text{PMI} = 0:共现等于随机预期——两个词统计独立
  • PMI<0\text{PMI} < 0:共现低于随机预期——两个词有负相关(如 “king” 和 “meow”)

因此,PMI 矩阵编码了词汇表中所有词对之间的统计关联强度。偏移 logk-\log k 将矩阵整体下移,相当于更严格的关联阈值。

完整推导

Levy & Goldberg 推导流程第一步目标函数拆分ℒ = Σᵢⱼ ℓᵢⱼ(xᵢⱼ)第二步逐元素求最优dℓᵢⱼ/dx = 0第三步代入统计量x* = log(a/b)结论SGNS = PMI 矩阵分解wᵢᵀcⱼ = PMI − log k关键洞察:SGNS 目标可拆分为 V×V 个独立子问题,每个子问题的最优解恰好是 PMI − log k

下面给出 Levy & Goldberg 定理的完整推导。这个推导的关键步骤是:将 SGNS 的目标函数从”对语料中每个词-上下文对求和”转化为”对矩阵中每个格子的独立优化”。

第一步:重写目标函数为矩阵元素级别。

SGNS 在整个语料上的目标函数可以写为:

L=(wi,cj)D[#(wi,cj)logσ(wiTcj)+k#(wi)PD(cj)logσ(wiTcj)]\mathcal{L} = \sum_{(w_i, c_j) \in \mathcal{D}} \left[ \#(w_i, c_j) \cdot \log\sigma(\mathbf{w}_i^T \mathbf{c}_j) + k \cdot \#(w_i) \cdot P_D(c_j) \cdot \log\sigma(-\mathbf{w}_i^T \mathbf{c}_j) \right]

其中第二项来自负采样的期望:对于中心词 wiw_i 出现的每一次(共 #(wi)\#(w_i) 次),我们从 PDP_D 中采样 kk 个负上下文。当语料足够大时,采样的期望等价于:

k#(wi)PD(cj)=k#(wi)#(cj)Dk \cdot \#(w_i) \cdot P_D(c_j) = k \cdot \#(w_i) \cdot \frac{\#(c_j)}{|\mathcal{D}|}

注意:这里为了推导简洁,我们假设 PD(cj)=#(cj)DP_D(c_j) = \frac{\#(c_j)}{|\mathcal{D}|}(即 unigram 分布),而非实际使用的 3/43/4 次方平滑。Levy & Goldberg 在论文中指出,3/43/4 次方平滑不影响定理的形式,只改变 PMI 中边缘概率的估计。

现在,关键的观察是:L\mathcal{L} 可以按词-上下文对 (i,j)(i, j) 拆分为独立项:

L=i=1Vj=1Vij\mathcal{L} = \sum_{i=1}^V \sum_{j=1}^V \ell_{ij}

其中:

ij=#(wi,cj)logσ(xij)+k#(wi)#(cj)Dlogσ(xij)\ell_{ij} = \#(w_i, c_j) \cdot \log\sigma(x_{ij}) + k \cdot \frac{\#(w_i) \cdot \#(c_j)}{|\mathcal{D}|} \cdot \log\sigma(-x_{ij})

这里 xij=wiTcjx_{ij} = \mathbf{w}_i^T \mathbf{c}_j 是我们要优化的变量。

第二步:对单个矩阵元素 xijx_{ij} 求最优。

固定 (i,j)(i, j)ij\ell_{ij}xijx_{ij} 的函数。为简洁起见,令 a=#(wi,cj)a = \#(w_i, c_j)b=k#(wi)#(cj)Db = k \cdot \frac{\#(w_i) \cdot \#(c_j)}{|\mathcal{D}|},则:

ij(x)=alogσ(x)+blogσ(x)\ell_{ij}(x) = a \cdot \log\sigma(x) + b \cdot \log\sigma(-x)

xx 求导。利用 σ(x)=σ(x)(1σ(x))\sigma'(x) = \sigma(x)(1 - \sigma(x))σ(x)=1σ(x)\sigma(-x) = 1 - \sigma(x)

dijdx=aσ(x)σ(x)+bσ(x)σ(x)\frac{d\ell_{ij}}{dx} = a \cdot \frac{\sigma'(x)}{\sigma(x)} + b \cdot \frac{-\sigma'(x)}{\sigma(-x)}

=a(1σ(x))bσ(x)= a \cdot (1 - \sigma(x)) - b \cdot \sigma(x)

=aaσ(x)bσ(x)= a - a\sigma(x) - b\sigma(x)

=a(a+b)σ(x)= a - (a + b)\sigma(x)

令导数为零:

a(a+b)σ(x)=0a - (a + b)\sigma(x^*) = 0

σ(x)=aa+b\sigma(x^*) = \frac{a}{a + b}

由于 σ(x)=11+ex\sigma(x) = \frac{1}{1+e^{-x}},所以 σ(x)=p\sigma(x) = p 意味着 x=logp1px = \log\frac{p}{1-p}(logit 函数)。因此:

x=loga/(a+b)b/(a+b)=logabx^* = \log\frac{a/({a+b})}{b/({a+b})} = \log\frac{a}{b}

第三步:代入 aabb 的定义。

xij=logab=log#(wi,cj)k#(wi)#(cj)Dx_{ij}^* = \log\frac{a}{b} = \log\frac{\#(w_i, c_j)}{k \cdot \frac{\#(w_i) \cdot \#(c_j)}{|\mathcal{D}|}}

=log#(wi,cj)D#(wi)#(cj)logk= \log\frac{\#(w_i, c_j) \cdot |\mathcal{D}|}{\#(w_i) \cdot \#(c_j)} - \log k

=logP(wi,cj)P(wi)P(cj)logk= \log\frac{P(w_i, c_j)}{P(w_i) \cdot P(c_j)} - \log k

xij=wiTcj=PMI(wi,cj)logk\boxed{x_{ij}^* = \mathbf{w}_i^T \mathbf{c}_j = \text{PMI}(w_i, c_j) - \log k}

推导完毕。 SGNS 的最优解使得词向量和上下文向量的内积恰好等于偏移 PMI。

推导的含义

这个推导揭示了几个深刻的事实:

  1. Word2Vec 不是在”学习语义”——它是在分解一个统计矩阵。 词向量的语义性质(如类比关系)是 PMI 矩阵结构的反映,不是神经网络的”智慧”。

  2. Mij=PMI(wi,cj)logkM_{ij} = \text{PMI}(w_i, c_j) - \log k 是一个 V×VV \times V 的矩阵,但它从未被显式构造。 这就是”隐式分解”的含义——SGD 在语料上滑动窗口,每次只更新涉及到的词对,最终逼近了对这个巨大矩阵的低秩分解。

  3. 维度 dd 的选择决定了近似的秩。d<rank(M)d < \text{rank}(M) 时,SGNS 实际上在做 MM秩-dd 近似——类似于截断 SVD(Art. 3 SVD),但不保证是 Frobenius 范数下的最优近似(因为 SGD 优化的不是 Frobenius 范数)。

  4. 负采样数 kk 的角色是偏移量。 增大 kk 相当于整体下移 PMI 矩阵,使更多”弱正相关”的词对变成负值——这增加了模型对真正强相关词对的辨别力。

SPPMI:实践中的显式版本

Levy 和 Goldberg 在 后续工作 中提出了 SGNS 的显式矩阵对应物——SPPMI(Shifted Positive PMI)矩阵

SPPMIk(wi,cj)=max(PMI(wi,cj)logk,  0)\text{SPPMI}_k(w_i, c_j) = \max\left(\text{PMI}(w_i, c_j) - \log k, \; 0\right)

将 PMI 中的负值截断为零(因为负 PMI 表示”比随机还不常共现”,信息量有限)。然后对 SPPMI 矩阵做 SVD:

SPPMIUdΣdVdT\text{SPPMI} \approx U_d \Sigma_d V_d^T

Levy 等人在 2015 年的对比实验中发现:当超参数仔细对齐时,SPPMI + SVD 的效果与 Word2Vec 相当甚至更好(见 Levy, Goldberg & Dagan, 2015)。这进一步证实了”词嵌入 = 矩阵分解”的核心论点。

PMI 矩阵可视化

下面的交互组件展示一个 8 词 × 8 上下文的 PMI 矩阵。正值(蓝色)表示词和上下文的共现超出随机预期,负值(红色)表示低于预期。可以切换到秩-2 近似(模拟词向量的低秩分解)和近似误差视图。

PMI 矩阵热力图
8 个词 × 8 个上下文的逐点互信息矩阵
皇室王位男性女性首都欧洲城市国家上下文国王女王男人女人巴黎法国柏林德国3.23.51.8-0.5-0.30.4-0.60.83.43.1-0.62.0-0.20.3-0.50.7-0.1-0.33.0-1.2-0.4-0.2-0.3-0.1-0.2-0.4-1.03.2-0.3-0.1-0.20.0-0.3-0.5-0.2-0.13.82.41.00.20.5-0.1-0.10.02.22.80.43.0-0.4-0.6-0.1-0.21.22.23.60.30.4-0.20.0-0.10.32.60.53.23.80+3.8悬停查看词对和 PMI 值

观察几个关键特征:

  1. 块结构:语义相关的词形成高 PMI 的”块”——“king/queen” 与 “royal/throne” 的交叉区域为深蓝色,“paris/berlin” 与 “capital/city” 的交叉区域也是。这就是词向量能捕获语义聚类的原因。

  2. 低秩可近似性:切换到秩-2 近似后,主要的块结构被保留——两个二维向量就能大致编码”皇室-性别”和”城市-国家”两条语义轴。这就是为什么词向量维度远小于词汇量就够用。

  3. 误差分布:近似误差集中在块的边缘和跨块区域——这些是需要更多维度才能精确编码的细微语义关系。

GloVe:显式矩阵分解路线

动机:从共现矩阵出发

GloVe(Global Vectors)由 Pennington, Socher 和 Manning 于 2014 年提出(见 Pennington et al., 2014)。与 Word2Vec 从神经网络出发不同,GloVe 直接从全局共现统计出发设计目标函数。

GloVe 的出发点是一个观察:词义的区分信息隐含在共现概率的比值中,而非绝对共现概率中。

考虑两个词 “ice”(冰)和 “steam”(蒸汽),以及几个探测上下文词(probe words):

探测词 ckc_kP(ckice)P(c_k \mid \text{ice})P(cksteam)P(c_k \mid \text{steam})比值
solid1\gg 1
gas1\ll 1
water1\approx 1
fashion1\approx 1

共现概率的比值 P(ckice)P(cksteam)\frac{P(c_k \mid \text{ice})}{P(c_k \mid \text{steam})} 比绝对概率更具区分力:与 “ice” 特别相关的词(solid)比值 1\gg 1,与 “steam” 特别相关的词(gas)比值 1\ll 1,与两者都相关或都无关的词比值 1\approx 1

GloVe 目标函数

GloVe 的目标是让词向量的内积直接拟合共现计数的对数。对于共现矩阵 XX,其中 Xij=#(wi,cj)X_{ij} = \#(w_i, c_j),GloVe 最小化:

LGloVe=i,j=1Vf(Xij)(wiTw~j+bi+b~jlogXij)2\mathcal{L}_{\text{GloVe}} = \sum_{i,j=1}^{V} f(X_{ij}) \left( \mathbf{w}_i^T \tilde{\mathbf{w}}_j + b_i + \tilde{b}_j - \log X_{ij} \right)^2

逐项理解:

  • wiRd\mathbf{w}_i \in \mathbb{R}^d:词 wiw_i 的词向量
  • w~jRd\tilde{\mathbf{w}}_j \in \mathbb{R}^d:词 cjc_j 的上下文向量(GloVe 论文用 w~\tilde{\mathbf{w}} 表示)
  • bi,b~jRb_i, \tilde{b}_j \in \mathbb{R}:词和上下文的偏置项(bias),吸收边缘频率的影响
  • logXij\log X_{ij}共现计数的对数——这就是 GloVe 要分解的”矩阵”
  • f(Xij)f(X_{ij})加权函数,降低低频共现(噪声大)和极高频共现(如停用词)的影响

加权函数 ff 的具体形式为:

f(x)={(x/xmax)αif x<xmax1otherwisef(x) = \begin{cases} (x / x_{\max})^\alpha & \text{if } x < x_{\max} \\ 1 & \text{otherwise} \end{cases}

通常 xmax=100x_{\max} = 100α=3/4\alpha = 3/4

GloVe 目标函数解剖ℒ = Σᵢⱼ f(Xᵢⱼ) · ( wᵢᵀw̃ⱼ + bᵢ + b̃ⱼ − log Xᵢⱼ )²f(Xᵢⱼ)加权函数降低极高/极低频噪声wᵢᵀw̃ⱼ低秩内积词向量 × 上下文向量bᵢ + b̃ⱼ偏置项吸收边缘频率log Xᵢⱼ分解目标共现计数的对数wᵢᵀw̃ⱼ + bᵢ + b̃ⱼ ≈ log Xᵢⱼ结构与 MF 完全对应:低秩内积 + 偏置 → 偏置吸收边缘频率后,内积逼近 PMI

GloVe 的矩阵分解视角

将 GloVe 的目标用矩阵语言重写。定义:

  • 目标矩阵 YRV×VY \in \mathbb{R}^{V \times V}Yij=logXijY_{ij} = \log X_{ij}
  • 词向量矩阵 WRV×dW \in \mathbb{R}^{V \times d}
  • 上下文向量矩阵 W~RV×d\tilde{W} \in \mathbb{R}^{V \times d}
  • 偏置向量 b,b~RV\mathbf{b}, \tilde{\mathbf{b}} \in \mathbb{R}^V
  • 权重矩阵 FRV×VF \in \mathbb{R}^{V \times V}Fij=f(Xij)F_{ij} = f(X_{ij})

则 GloVe 的目标是:

minW,W~,b,b~i,jFij([WW~T]ij+bi+b~jYij)2\min_{W, \tilde{W}, \mathbf{b}, \tilde{\mathbf{b}}} \sum_{i,j} F_{ij} \left( [W\tilde{W}^T]_{ij} + b_i + \tilde{b}_j - Y_{ij} \right)^2

这就是一个加权的低秩矩阵分解问题——分解对象是 logX\log X 矩阵,允许偏置项(吸收行列效应),权重 FF 处理异方差噪声。

和标准的矩阵分解(Art. 10 MF)对比:

r^ui=μ+bu+bi+puTqi(MF)\hat{r}_{ui} = \mu + b_u + b_i + \mathbf{p}_u^T \mathbf{q}_i \quad \text{(MF)}

wiTw~j+bi+b~jlogXij(GloVe)\mathbf{w}_i^T \tilde{\mathbf{w}}_j + b_i + \tilde{b}_j \approx \log X_{ij} \quad \text{(GloVe)}

结构完全相同:低秩内积 + 偏置。区别仅在于分解的对象不同(评分矩阵 vs 共现对数矩阵)和权重方案不同。

GloVe 与 PMI 的关系

GloVe 拟合 logXij\log X_{ij},Word2Vec 隐式分解的是 PMIlogk\text{PMI} - \log k。两者是什么关系?

将 PMI 展开:

PMI(wi,cj)=logP(wi,cj)P(wi)P(cj)=logP(wi,cj)logP(wi)logP(cj)\text{PMI}(w_i, c_j) = \log \frac{P(w_i, c_j)}{P(w_i) P(c_j)} = \log P(w_i, c_j) - \log P(w_i) - \log P(c_j)

=logXijlogXilogXj+logD= \log X_{ij} - \log X_i - \log X_j + \log |\mathcal{D}|

其中 Xi=#(wi)=jXijX_i = \#(w_i) = \sum_j X_{ij}Xj=#(cj)=iXijX_j = \#(c_j) = \sum_i X_{ij}D=ijXij|\mathcal{D}| = \sum_{ij} X_{ij}

因此:

PMI(wi,cj)=logXij(logXi+logXjlogD)可被偏置项 bi+b~j 吸收\text{PMI}(w_i, c_j) = \log X_{ij} - \underbrace{(\log X_i + \log X_j - \log |\mathcal{D}|)}_{\text{可被偏置项 } b_i + \tilde{b}_j \text{ 吸收}}

如果 GloVe 的偏置项 bib_i 学到了 logXi+12logD-\log X_i + \frac{1}{2}\log|\mathcal{D}|b~j\tilde{b}_j 学到了 logXj+12logD-\log X_j + \frac{1}{2}\log|\mathcal{D}|,那么:

wiTw~jlogXijbib~j=PMI(wi,cj)\mathbf{w}_i^T \tilde{\mathbf{w}}_j \approx \log X_{ij} - b_i - \tilde{b}_j = \text{PMI}(w_i, c_j)

因此:GloVe 的偏置项吸收了边缘频率,词向量内积逼近的实际上也是 PMI。 两种方法最终分解的是同一个矩阵。

隐式 vs 显式:对比与统一

下图对比 Word2Vec(隐式)和 GloVe(显式)的两条路径——它们从不同方向出发,最终分解的是同一个共现统计矩阵。

隐式 vs 显式矩阵分解:殊途同归
Word2Vec (隐式)GloVe (显式)语料 → 滑动窗口SGNS 目标(二分类)SGD 在线更新 w, cw_i^T c_j ≈ PMI - log k语料 → 共现矩阵 X计算 log X + 偏置加权最小二乘优化w_i^T w̃_j + b_i + b̃_j ≈ log X_ij两者都在分解共现统计矩阵(≈ PMI)

核心对比

维度Word2Vec (SGNS)GloVe
分解的矩阵Mij=PMI(wi,cj)logkM_{ij} = \text{PMI}(w_i, c_j) - \log kYij=logXijY_{ij} = \log X_{ij}(加偏置后等效 PMI)
矩阵是否显式构造否(隐式,从不存储完整矩阵)是(需要构造 XX 矩阵)
优化方式SGD,在线学习(每次处理一个词-上下文对)全局优化(需要完整共现统计)
时间复杂度与语料大小、kkdd 成正比与非零共现数、dd、迭代次数成正比
空间复杂度O(Vd)O(V \cdot d)(只存词向量)需额外存共现矩阵
加权方式自然加权(高频词对出现在更多训练样本中)显式加权函数 f(Xij)f(X_{ij})
偏置项无显式偏置(偏移 logk-\log k 整体均匀)显式偏置 bi+b~jb_i + \tilde{b}_j

数学本质的统一

尽管实现路径不同,两者的数学本质相同:

Word2Vec: wiTcjPMI(wi,cj)logk\text{Word2Vec: } \mathbf{w}_i^T \mathbf{c}_j \approx \text{PMI}(w_i, c_j) - \log k

GloVe: wiTw~j+bi+b~jlogXij    wiTw~jPMI(wi,cj)\text{GloVe: } \mathbf{w}_i^T \tilde{\mathbf{w}}_j + b_i + \tilde{b}_j \approx \log X_{ij} \iff \mathbf{w}_i^T \tilde{\mathbf{w}}_j \approx \text{PMI}(w_i, c_j)

两种方法都在做共现统计矩阵的低秩分解。Levy, Goldberg 和 Dagan (2015) 的对比实验表明,当超参数(窗口大小、向量维度、负采样数等)仔细对齐时,两者的下游任务表现非常接近。

殊途同归的启示

这个统一揭示了一个更普遍的模式:很多 ML 方法的本质是矩阵分解,即使它们的表面形式看起来完全不同。

在 Part 1 的方法谱系中:

SVD+非负NMF+偏置MF+隐式Word2Vec\text{SVD} \xrightarrow{+\text{非负}} \text{NMF} \xrightarrow{+\text{偏置}} \text{MF} \xrightarrow{+\text{隐式}} \text{Word2Vec}

Word2Vec 可以被放在这条谱系的最远端——它不仅引入了特殊的矩阵(PMI),还完全隐藏了矩阵分解的过程。但核心数学不变:将一个大矩阵分解为两个低秩因子的乘积。

数值例子:从共现到 PMI 到分解

数值例子:从共现到 PMI 到词向量语料"the cat sat""the dog sat""the cat ran""a dog ran"共现矩阵 X6 × 6稀疏计数PMI 矩阵 M6 × 6统计关联低秩分解 WCᵀ6×2 · 2×6词向量!结果:"cat" 和 "dog" 的词向量相近(共享上下文 "sat", "ran")PMI 矩阵中的统计模式 → 低秩分解 → 稠密向量中的语义关系

用一个微型语料来完整展示从原始文本到 PMI 矩阵到低秩分解的全过程。

微型语料(4 个句子,窗口大小 L=1L = 1,即只看相邻词):

  1. “the cat sat”
  2. “the dog sat”
  3. “the cat ran”
  4. “a dog ran”

词汇表V={\mathcal{V} = \{the, a, cat, dog, sat, ran}\}V=6V = 6

第一步:构造共现矩阵 XX

统计相邻词对(L=1L = 1,对称计数):

theacatdogsatran
the002100
a000100
cat200011
dog110011
sat001100
ran001100

总共现对数 D=ijXij=14|\mathcal{D}| = \sum_{ij} X_{ij} = 14

第二步:计算 PMI

PMI(cat,the)\text{PMI}(\text{cat}, \text{the}) 为例:

P(cat,the)=2140.143P(\text{cat}, \text{the}) = \frac{2}{14} \approx 0.143

P(cat)=jXcat,j14=2+0+0+0+1+114=4140.286P(\text{cat}) = \frac{\sum_j X_{\text{cat},j}}{14} = \frac{2+0+0+0+1+1}{14} = \frac{4}{14} \approx 0.286

P(the)=jXthe,j14=0+0+2+1+0+014=3140.214P(\text{the}) = \frac{\sum_j X_{\text{the},j}}{14} = \frac{0+0+2+1+0+0}{14} = \frac{3}{14} \approx 0.214

PMI(cat,the)=log0.1430.286×0.214=log0.1430.0612=log2.3330.847\text{PMI}(\text{cat}, \text{the}) = \log\frac{0.143}{0.286 \times 0.214} = \log\frac{0.143}{0.0612} = \log 2.333 \approx 0.847

k=1k = 1(负采样数 = 1),偏移 PMI:Mij=PMI(wi,cj)log1=PMI(wi,cj)M_{ij} = \text{PMI}(w_i, c_j) - \log 1 = \text{PMI}(w_i, c_j)

第三步:低秩分解

如果我们对这个 6×66 \times 6 的 PMI 矩阵做秩-2 SVD 截断,得到的词向量 wiR2\mathbf{w}_i \in \mathbb{R}^2 会将语义相似的词映射到相近的位置:“cat” 和 “dog” 的向量相近(它们共享相似的上下文 “sat”, “ran”),“sat” 和 “ran” 的向量相近(它们共享相似的上下文 “cat”, “dog”)。

这就是词向量捕获语义关系的数学机制:PMI 矩阵中的统计模式,通过低秩分解被压缩到稠密向量中。

方法谱系中的位置

在 Part 1 建立的方法谱系中,Word2Vec 和 GloVe 占据一个独特的位置——它们是从 NLP 任务倒推出来的矩阵分解

方法分解的矩阵约束优化方式
SVD(Art. 3 SVD任意 AA正交因子封闭解
PCA(Art. 6 PCA协方差 1nXTX\frac{1}{n}X^TX正交、方差最大化封闭解
NMF(Art. 9 NMF非负 AAW,H0W, H \geq 0乘法更新
MF(Art. 10 MF/FM评分矩阵偏置项SGD
Word2VecPMIlogk\text{PMI} - \log k低秩SGD(隐式)
GloVelogX\log X加权 + 偏置SGD(显式)

每种方法分解的矩阵不同、约束不同、优化方式不同——但核心操作相同:将一个大矩阵分解为两个低秩因子的乘积。

桥接:通向图嵌入和 Transformer

Word2Vec 的”隐式矩阵分解”范式深远地影响了后续的表示学习方法。

图嵌入

Part 2 Art. 19(随机游走与图嵌入) 将展示:DeepWalk 和 Node2Vec 本质上是图转移矩阵的隐式分解——它们在图上做随机游走,产生”节点-上下文”序列,然后用 Word2Vec 训练节点向量。这与本文的 Word2Vec 分析直接对应。

文本表示路径

Word2Vec 和 GloVe 是静态词向量的代表方法。它们的局限在于:每个词只有一个向量,无法处理一词多义。后来的 ELMo → BERT → GPT 系列引入了上下文相关的动态表示(contextual embeddings),但底层的矩阵运算——乘法、低秩结构、注意力矩阵——仍然与本路径 Part 3 的分析直接相关。

总结与展望

本文揭示了词嵌入方法的矩阵分解本质——这是 Part 1 “拆” 的一个精彩应用:矩阵分解以意想不到的方式出现在 NLP 的核心方法中。

关键要点:

  • Levy & Goldberg 定理:Word2Vec (SGNS) 的全局最优解满足 wiTcj=PMI(wi,cj)logk\mathbf{w}_i^T \mathbf{c}_j = \text{PMI}(w_i, c_j) - \log k,即隐式分解了偏移 PMI 矩阵
  • 推导的核心步骤:将 SGNS 的目标函数按词-上下文对拆分为独立优化 → 每个元素的最优解 → 代入统计量 → 得到 PMI
  • GloVe 显式分解 logXij\log X_{ij}:加偏置后等效于分解 PMI 矩阵
  • 殊途同归:隐式(SGD 在线)和显式(全局矩阵分解)指向同一个数学真相——词嵌入 = 共现统计矩阵的低秩分解
  • SPPMI + SVD ≈ Word2Vec:超参数对齐后,传统矩阵分解方法与神经网络方法效果相当

方法谱系中的位置:

SVD(无约束)+偏置MF+隐式Word2Vec/GloVe\text{SVD(无约束)} \xrightarrow{+\text{偏置}} \text{MF} \xrightarrow{+\text{隐式}} \text{Word2Vec/GloVe}

Word2Vec 是矩阵分解谱系中离 SVD 最远的一员——它完全隐藏了矩阵的存在。但 Levy & Goldberg 的分析让矩阵重新浮出水面,证明矩阵分解是理解词嵌入的正确框架

下一篇我们转向 Robust PCA——当数据矩阵不仅有低秩结构,还混入了稀疏的大幅度异常时,如何将两者干净地分离。