<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>GRU on 酒中仙</title><link>https://hanguangwu.github.io/blog/tags/gru/</link><description>Recent content in GRU on 酒中仙</description><generator>Hugo -- gohugo.io</generator><language>zh-cn</language><copyright>hanguangwu</copyright><lastBuildDate>Mon, 02 Feb 2026 21:34:25 -0800</lastBuildDate><atom:link href="https://hanguangwu.github.io/blog/tags/gru/index.xml" rel="self" type="application/rss+xml"/><item><title>循环神经网络</title><link>https://hanguangwu.github.io/blog/p/%E5%BE%AA%E7%8E%AF%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C/</link><pubDate>Mon, 02 Feb 2026 21:34:25 -0800</pubDate><guid>https://hanguangwu.github.io/blog/p/%E5%BE%AA%E7%8E%AF%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C/</guid><description>&lt;h1 id="循环神经网络"&gt;循环神经网络
&lt;/h1&gt;&lt;h2 id="前言"&gt;前言
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://datawhalechina.github.io/base-llm" target="_blank" rel="noopener"
&gt;本文来源于Datawhale教程&lt;/a&gt;&lt;/p&gt;
&lt;h2 id="第一节-循环神经网络工作原理"&gt;第一节 循环神经网络工作原理
&lt;/h2&gt;&lt;h3 id="一如何处理序列信息"&gt;一、如何处理序列信息？
&lt;/h3&gt;&lt;p&gt;我们已经学习了如何将文本进行分词，并通过词嵌入技术（如 Word2Vec）将每个独立的词元转换成一个静态的、稠密的词向量。这解决了模型输入的第一个问题，即文本数值化。&lt;/p&gt;
&lt;p&gt;接下来的第二个关键问题是&lt;strong&gt;如何从一个词向量序列中，有效地提取整个序列的特征&lt;/strong&gt;。例如，对于一个意图识别任务，需要将指令 &lt;strong&gt;“播放周杰伦的《稻香》”&lt;/strong&gt; 归类到 &lt;strong&gt;“音乐播放”&lt;/strong&gt;。目前已经能得到“播放”、“周杰伦”、“的”、“《稻香》”这几个词元各自的词向量，但如何将这些向量融合成一个能代表整句指令含义的 &lt;strong&gt;“文本向量”&lt;/strong&gt;，并送入分类器呢？&lt;/p&gt;
&lt;h4 id="11-简单方法的局限性"&gt;1.1 简单方法的局限性
&lt;/h4&gt;&lt;h5 id="111-词袋模型"&gt;1.1.1 词袋模型
&lt;/h5&gt;&lt;p&gt;最直接的思路是像词袋法一样，将所有词向量相加或取平均。但是这种方法完全忽略了语序信息。“我爱你” 和 “你爱我” 会得到完全相同的文本向量。更重要的是，它将所有词语视为同等重要。在“播放周杰伦的《稻香》”这句话中，“播放”和“《稻香》”显然比“的”包含更多分类所需的关键信息，但简单的求和无法体现这种差异。&lt;/p&gt;
&lt;h5 id="112-全连接网络"&gt;1.1.2 全连接网络
&lt;/h5&gt;&lt;p&gt;另一个想法是，可以用一个全连接网络（Fully Connected Network, FCN）来处理这些词向量。有两种方式：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;先求和，后 FCN&lt;/strong&gt;：这与向量求和没有本质区别，依然丢失了语序和重点信息。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;先 FCN，后求和&lt;/strong&gt;：可以对每一个词向量都进行一次全连接变换，然后再将变换后的向量相加。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;为了处理变长的句子，在每个时间步（即每个词元的位置）上使用的全连接层必须&lt;strong&gt;共享同一套权重参数&lt;/strong&gt;。这仍然存在一个致命缺陷，在计算任意一个词的输出时（如 &lt;code&gt;《稻香》&lt;/code&gt; 的输出），模型仅仅使用了 &lt;code&gt;《稻香》&lt;/code&gt; 自己的词向量，完全没有考虑到它前面出现了 “播放”、“周杰伦”、“的” 这些词。每个词元依然是被&lt;strong&gt;孤立处理&lt;/strong&gt;的，模型无法理解词元之间的顺序关系和上下文依赖，即&lt;strong&gt;没有捕获序列特征&lt;/strong&gt;。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;在处理序列数据（如文本）时，模型按顺序逐个处理序列中的元素（如词元）。&lt;strong&gt;“时间步”&lt;/strong&gt; 就是这个处理过程中的一个离散步骤。在文本处理的上下文中，&lt;strong&gt;一个时间步通常对应于处理一个词元&lt;/strong&gt;。例如，对于句子“播放周杰伦的歌”，处理“播放”是时间步 1，处理“周杰伦”是时间步 2，以此类推。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h5 id="113-卷积神经网络cnn"&gt;1.1.3 卷积神经网络（CNN）
&lt;/h5&gt;&lt;p&gt;在图像处理中大获成功的 CNN 也可以用于文本。通过使用一维卷积核（窗口）滑过整个词向量序列，CNN 能够捕捉到词语的局部依赖关系（如n-grams）。&lt;/p&gt;
&lt;p&gt;不过，CNN 的缺陷在于它的&lt;strong&gt;感受野是固定的&lt;/strong&gt;。一个大小为3的卷积核，只能看到附近3个词的关系。虽然可以通过堆叠多层CNN来扩大感受野，但对于句子开头和结尾的长距离依赖，CNN 仍然难以有效捕捉。无法预先设定一个适用于所有句子的“最佳”窗口大小。&lt;/p&gt;
&lt;h3 id="二引入记忆的-rnn"&gt;二、引入“记忆”的 RNN
&lt;/h3&gt;&lt;p&gt;为了解决上述问题，需要一种新的网络结构，它必须能够&lt;strong&gt;记住&lt;/strong&gt;在处理当前词元之前都看过了哪些信息。**循环神经网络（Recurrent Neural Network, RNN）**就是为满足这一需求而诞生的。&lt;/p&gt;
&lt;p&gt;RNN 的思路是在处理序列的每一步时，网络不仅接收当前时间步的输入 $x_t$，还会接收一个来自&lt;strong&gt;上一步的“记忆”&lt;/strong&gt;——即隐藏状态 $h_{t-1}$。网络将这两部分信息融合，生成当前步的输出 $h_t$，然后这个 $h_t$ 又会作为“记忆”传递给下一步。&lt;/p&gt;
&lt;p&gt;可以将这个过程看作是对全连接网络的改进：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;当前输入的信息&lt;/strong&gt;：和之前一样，用一个全连接层处理当前输入 $x_t$，得到 $U \cdot x_t$。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;过去记忆的信息&lt;/strong&gt;：引入另一个全连接层，处理来自上一步的隐藏状态 $h_{t-1}$，得到 $W \cdot h_{t-1}$。&lt;/p&gt;
&lt;p&gt;（3）&lt;strong&gt;融合与激活&lt;/strong&gt;：将两部分信息相加，并通过一个激活函数（如 $\tanh$），得到当前步的隐藏状态 $h_t$。&lt;/p&gt;
&lt;p&gt;如此一来， $h_t$ 就同时包含了当前输入 $x_t$ 的信息和之前所有步的信息摘要 $h_{t-1}$。&lt;/p&gt;
&lt;h4 id="21-rnn-结构"&gt;2.1 RNN 结构
&lt;/h4&gt;&lt;p&gt;这种最基础的 RNN 结构通常被称为&lt;strong&gt;简单循环神经网络（Simple Recurrent Network，SRN）&lt;/strong&gt; 或 &lt;strong&gt;Elman Network&lt;/strong&gt; [^1]。&lt;/p&gt;
&lt;p&gt;如图 3-1 展示了 RNN 单元在单个时间步内的计算流程。需要注意，为了可视化，此图将隐藏状态拆分成了两个部分（&lt;code&gt;Hidden State&lt;/code&gt; 和 &lt;code&gt;Hidden Layer&lt;/code&gt;），但在计算上它们是紧密关联的。&lt;/p&gt;
&lt;div align="center"&gt;
&lt;img src="https://cdn.jsdelivr.net/gh/Hanguangwu/MyImageBed01/img/3_1_1.svg" width="60%" alt="RNN 单元结构" /&gt;
&lt;p&gt;图 3-1 RNN 单元结构&lt;/p&gt;
&lt;/div&gt;
&lt;p&gt;可以将图中的流程分解如下，并与公式 $h_t = \tanh(U x_t + W h_{t-1} + b)$ 对应起来：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;输入（$x_t$）&lt;/strong&gt;: 左侧的 &lt;code&gt;Input&lt;/code&gt; 块代表当前时间步的输入向量 $x_t$。它通过权重矩阵 $U$ 连接到隐藏层（图中的蓝色虚线），对应公式中的 $U x_t$ 部分。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;前一时刻的隐藏状态（$h_{t-1}$）&lt;/strong&gt;: 紫色的 &amp;ldquo;Hidden State&amp;rdquo; 块（图中用 $s$ 表示）代表了来自&lt;strong&gt;上一个时间步&lt;/strong&gt;的记忆，即 $h_{t-1}$。它通过循环权重矩阵 $W$ 连接到隐藏层（图中的橙色虚线），对应公式中的 $W h_{t-1}$ 部分。&lt;/p&gt;
&lt;p&gt;（3）&lt;strong&gt;当前时刻的隐藏状态（$h_t$）&lt;/strong&gt;: 橙色的 &amp;ldquo;Hidden Layer&amp;rdquo; 块（图中用 $h$ 表示）代表了&lt;strong&gt;当前时间步&lt;/strong&gt;计算出的新隐藏状态 $h_t$。它是输入信息和旧状态信息融合并经过激活函数计算后的结果。&lt;/p&gt;
&lt;p&gt;（4）&lt;strong&gt;状态更新&lt;/strong&gt;: 新计算出的隐藏状态 $h_t$ 将作为“记忆”传递给下一个时间步，成为下一个时间步计算中的 $h_{t-1}$（图中从 &lt;code&gt;Hidden Layer&lt;/code&gt; 指向 &lt;code&gt;Hidden State&lt;/code&gt; 的紫色虚线）。&lt;/p&gt;
&lt;p&gt;（5）&lt;strong&gt;输出（$o_t$）&lt;/strong&gt;: 当前的隐藏状态 $h_t$ 也可以被用来计算当前步的最终输出（如图中从 &lt;code&gt;Hidden Layer&lt;/code&gt; 指向 &lt;code&gt;Output&lt;/code&gt; 的橙色虚线），这通常需要再经过一个独立的输出层。&lt;/p&gt;
&lt;p&gt;通过这种循环，RNN 单元在每个时间步都融合了当前输入和历史记忆，实现了信息的持续传递。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;在所有的时间步中，权重矩阵 $U$（输入到隐藏层）和 $W$（隐藏层到隐藏层）是&lt;strong&gt;共享&lt;/strong&gt;的。这一机制让 RNN 能够处理任意长度的序列，并且大幅减少了模型参数。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3 id="三rnn-工作原理解析"&gt;三、RNN 工作原理解析
&lt;/h3&gt;&lt;h4 id="31-文本分类示例"&gt;3.1 文本分类示例
&lt;/h4&gt;&lt;p&gt;回到最初的例子，看看 RNN 是如何解决 &lt;strong&gt;“播放周杰伦的《稻香》”&lt;/strong&gt; 的分类问题的。&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;准备输入&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;分词&lt;/strong&gt;：[&amp;ldquo;播放&amp;rdquo;, &amp;ldquo;周杰伦&amp;rdquo;, &amp;ldquo;的&amp;rdquo;, &amp;ldquo;《稻香》&amp;rdquo;]&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;ID化&lt;/strong&gt;：[23, 58, 102, 203]（假设）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;词嵌入&lt;/strong&gt;：得到4个词向量 $x_1, x_2, x_3, x_4$。假设每个向量是128维。输入序列的形状为 $(T, E) = (4, 128)$。&lt;/li&gt;
&lt;/ul&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;strong&gt;RNN 逐步处理&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;RNN 会按顺序处理这个向量序列，并不断更新其内部的“记忆”（隐藏状态 $h$）。假设隐藏状态是64维（$H=64$）。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;初始状态&lt;/strong&gt;：在处理第一个词之前，隐藏状态 $h_0$ 通常被初始化为零向量。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;第1步（t=1）&lt;/strong&gt;：
&lt;ul&gt;
&lt;li&gt;输入：第一个词向量 $x_1$（“播放”）和初始隐藏状态 $h_0$。&lt;/li&gt;
&lt;li&gt;计算： $h_1 = \tanh(U \cdot x_1 + W \cdot h_0 + b)$&lt;/li&gt;
&lt;li&gt;$h_1$ 现在包含了“播放”的信息。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;第2步（t=2）&lt;/strong&gt;：
&lt;ul&gt;
&lt;li&gt;输入：第二个词向量 $x_2$（“周杰伦”）和上一步的隐藏状态 $h_1$。&lt;/li&gt;
&lt;li&gt;计算： $h_2 = \tanh(U \cdot x_2 + W \cdot h_1 + b)$&lt;/li&gt;
&lt;li&gt;$h_2$ 现在融合了“播放”和“周杰伦”的信息。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;第3步（t=3）&lt;/strong&gt;：
&lt;ul&gt;
&lt;li&gt;输入：第三个词向量 $x_3$（“的”）和 $h_2$。&lt;/li&gt;
&lt;li&gt;计算： $h_3 = \tanh(U \cdot x_3 + W \cdot h_2 + b)$&lt;/li&gt;
&lt;li&gt;$h_3$ 融合了“播放周杰伦的”的信息。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;第4步（t=4）&lt;/strong&gt;：
&lt;ul&gt;
&lt;li&gt;输入：第四个词向量 $x_4$（“《稻香》”）和 $h_3$。&lt;/li&gt;
&lt;li&gt;计算： $h_4 = \tanh(U \cdot x_4 + W \cdot h_3 + b)$&lt;/li&gt;
&lt;li&gt;$h_4$ 融合了整个句子的信息。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;strong&gt;获取文本向量并分类&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;当 RNN 处理完最后一个词元后，得到的最终隐藏状态 $h_4$ 就被认为是整个句子的&lt;strong&gt;动态上下文表示&lt;/strong&gt;，即我们需要的 &lt;strong&gt;“文本向量”&lt;/strong&gt;。这个向量捕获了整个句子的语序和语义信息。最后，我们将这个 $h_4$ 向量送入一个标准的全连接分类层，就可以得到各个类别（如“音乐播放”、“天气查询”）的置信度了。通过这种方式，RNN 成功地将一个变长的词向量序列，编码成了一个蕴含序列信息的固定长度的特征向量。&lt;/p&gt;
&lt;h4 id="32-从静态到动态的飞跃"&gt;3.2 从静态到动态的飞跃
&lt;/h4&gt;&lt;p&gt;通过上面的例子，能够发现 RNN 解决了静态词向量的局限性，实现了从 &lt;strong&gt;Type&lt;/strong&gt; 到 &lt;strong&gt;Token&lt;/strong&gt; 的跨越：&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;这里的 token 并不是词元的概念。在语言学中，&lt;strong&gt;Type&lt;/strong&gt;（类型）指抽象的、通用的概念，而 &lt;strong&gt;Token&lt;/strong&gt;（标记/实例）指该概念在特定时空下的具体表现。例如，“我一边玩黑神话悟空，一边等黑神话钟馗”这句话中，有 2 个“黑神话”的 Token，但只有一个“黑神话”的 Type。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;（1）&lt;strong&gt;静态的 Type（词嵌入）&lt;/strong&gt;：Word2Vec 等模型学到的是词在字典中的静态含义。无论“周杰伦”出现在哪里，它的输入向量 $x_t$ 都是一样的。这代表了 &lt;strong&gt;Type&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;动态的 Token（隐藏状态）&lt;/strong&gt;：RNN 的隐藏状态 $h_t$ 是动态的。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;在“&lt;strong&gt;播放&lt;/strong&gt;周杰伦”中，RNN 会生成一个包含“播放”上下文的“周杰伦”向量。&lt;/li&gt;
&lt;li&gt;在“&lt;strong&gt;我喜欢&lt;/strong&gt;周杰伦”中，RNN 会生成一个包含“我喜欢”上下文的“周杰伦”向量。&lt;/li&gt;
&lt;li&gt;代表 &lt;strong&gt;Token&lt;/strong&gt;，即具体的、上下文相关的实例。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Jeffrey Elman 在其论文 [^1]中通过实验发现，即使不给网络任何语法规则，仅仅通过训练 RNN 预测序列中的下一个词，网络的隐藏状态空间也会自发地组织出&lt;strong&gt;层级结构&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;动词&lt;/strong&gt;和&lt;strong&gt;名词&lt;/strong&gt;会被映射到隐藏空间的不同区域。&lt;/li&gt;
&lt;li&gt;在名词区域内部，&lt;strong&gt;有生命&lt;/strong&gt;和&lt;strong&gt;无生命&lt;/strong&gt;的名词又会进一步区分。&lt;/li&gt;
&lt;li&gt;甚至具体的词（如 &amp;ldquo;Boy&amp;rdquo;）在不同句子位置的 Token 表示，也会根据句法角色（主语 vs 宾语）聚类在一起。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这证明了 RNN 不仅仅是在“记忆”历史，它实际上是在通过&lt;strong&gt;预测任务&lt;/strong&gt;，隐式地学会了语言的&lt;strong&gt;句法和语义结构&lt;/strong&gt;。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;动态表示 vs. 动态词向量&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;如果你听说过 ELMo 可能会有疑问：&lt;strong&gt;“实现从静态到动态跨越的，究竟是 RNN 还是后来的 ELMo？”&lt;/strong&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;从原理机制上讲，是 RNN&lt;/strong&gt;：正如本节所述，RNN 的隐藏状态 $h_t$ 本质上就是一个随上下文变化的动态向量。它最早具备了“根据语境改变数值”的核心能力。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;从 NLP 发展范式上讲，是 ELMo&lt;/strong&gt;：在 ELMo (2018) 之前，大家通常只把 Word2Vec 这种&lt;strong&gt;查表&lt;/strong&gt;得到的向量称为“词向量”，而把 RNN 的输出视为特定任务的&lt;strong&gt;中间状态&lt;/strong&gt;。ELMo 的贡献在于它确立了**“动态词向量”**这一概念，并将其作为一种通用的、可迁移的预训练特征，改变了 NLP 的开发模式。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;所以，RNN 发明了机制，而 ELMo 普及了范式。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3 id="四从零实现一个-rnn"&gt;四、从零实现一个 RNN
&lt;/h3&gt;&lt;p&gt;为了将理论付诸实践并加深理解，接下来从底层的数学公式出发，用 NumPy 手写一个 RNN。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;a class="link" href="https://github.com/FutureUnreal/base-nlp/blob/main/code/C3/01_RNN.py" target="_blank" rel="noopener"
&gt;本节完整代码&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h4 id="41-rnn-公式简化"&gt;4.1 RNN 公式简化
&lt;/h4&gt;&lt;p&gt;为了与后续的代码实现保持一致，此处采用一个不含偏置项（bias）的简化版 RNN，核心计算公式如下：&lt;/p&gt;
$$
h_t = \tanh(U x_t + W h_{t-1})
$$&lt;p&gt;其中， $h_t$ 是当前时刻的隐藏状态， $x_t$ 是当前输入， $h_{t-1}$ 是上一时刻的隐藏状态， $U$ 和 $W$ 是共享的权重矩阵。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;上述公式采用的是数学通用的&lt;strong&gt;列向量&lt;/strong&gt;表示法（即 $x_t$ 是列向量，矩阵 $U$ 在左）。而在后续的代码实现中，为了利用计算机内存布局的优势，通常采用&lt;strong&gt;行向量&lt;/strong&gt;表示法（即 $x_t$ 是行向量，矩阵 $U$ 在右，计算 $x_t U$）。两者在数学上是转置关系，本质一致。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h4 id="42-数据准备"&gt;4.2 数据准备
&lt;/h4&gt;&lt;p&gt;在实现 RNN 的计算过程之前，首先需要准备输入数据。我们可以先定义一个简单的词表，并为句子“&lt;strong&gt;播放周杰伦的《稻香》&lt;/strong&gt;”中的每个词生成一个随机的词向量，将它们组合成形状为 (1, 4, 128) 的张量，作为 RNN 模型的输入；同时也设置了一些基本参数（例如将隐藏节点数设为 3，即 H=3，以便和前文的 RNN 结构图对应，实际应用中一般会远大于 3），并通过 prepare_inputs 函数将这一数据准备过程封装起来。具体代码如下：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt; 1
&lt;/span&gt;&lt;span class="lnt"&gt; 2
&lt;/span&gt;&lt;span class="lnt"&gt; 3
&lt;/span&gt;&lt;span class="lnt"&gt; 4
&lt;/span&gt;&lt;span class="lnt"&gt; 5
&lt;/span&gt;&lt;span class="lnt"&gt; 6
&lt;/span&gt;&lt;span class="lnt"&gt; 7
&lt;/span&gt;&lt;span class="lnt"&gt; 8
&lt;/span&gt;&lt;span class="lnt"&gt; 9
&lt;/span&gt;&lt;span class="lnt"&gt;10
&lt;/span&gt;&lt;span class="lnt"&gt;11
&lt;/span&gt;&lt;span class="lnt"&gt;12
&lt;/span&gt;&lt;span class="lnt"&gt;13
&lt;/span&gt;&lt;span class="lnt"&gt;14
&lt;/span&gt;&lt;span class="lnt"&gt;15
&lt;/span&gt;&lt;span class="lnt"&gt;16
&lt;/span&gt;&lt;span class="lnt"&gt;17
&lt;/span&gt;&lt;span class="lnt"&gt;18
&lt;/span&gt;&lt;span class="lnt"&gt;19
&lt;/span&gt;&lt;span class="lnt"&gt;20
&lt;/span&gt;&lt;span class="lnt"&gt;21
&lt;/span&gt;&lt;span class="lnt"&gt;22
&lt;/span&gt;&lt;span class="lnt"&gt;23
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-python" data-lang="python"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="nn"&gt;numpy&lt;/span&gt; &lt;span class="k"&gt;as&lt;/span&gt; &lt;span class="nn"&gt;np&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# (B, T, E, H) 分别表示 批次/序列长度/输入维度/隐藏维度&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="n"&gt;B&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;E&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;H&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="mi"&gt;1&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="mi"&gt;128&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="mi"&gt;3&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;def&lt;/span&gt; &lt;span class="nf"&gt;prepare_inputs&lt;/span&gt;&lt;span class="p"&gt;():&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="s2"&gt;&amp;#34;&amp;#34;&amp;#34;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="s2"&gt; 使用 NumPy 准备输入数据
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="s2"&gt; 使用示例句子: &amp;#34;播放 周杰伦 的 《稻香》&amp;#34;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="s2"&gt; 构造最小词表和随机(可复现)词向量, 生成形状为 (B, T, E) 的输入张量。
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="s2"&gt; &amp;#34;&amp;#34;&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;random&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;seed&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="mi"&gt;42&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;vocab&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="s2"&gt;&amp;#34;播放&amp;#34;&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="s2"&gt;&amp;#34;周杰伦&amp;#34;&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="mi"&gt;1&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="s2"&gt;&amp;#34;的&amp;#34;&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="mi"&gt;2&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="s2"&gt;&amp;#34;《稻香》&amp;#34;&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="mi"&gt;3&lt;/span&gt;&lt;span class="p"&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;tokens&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="s2"&gt;&amp;#34;播放&amp;#34;&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="s2"&gt;&amp;#34;周杰伦&amp;#34;&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="s2"&gt;&amp;#34;的&amp;#34;&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="s2"&gt;&amp;#34;《稻香》&amp;#34;&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;ids&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="n"&gt;vocab&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="n"&gt;t&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt; &lt;span class="k"&gt;for&lt;/span&gt; &lt;span class="n"&gt;t&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="n"&gt;tokens&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 词向量表: (V, E)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;V&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nb"&gt;len&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;vocab&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;emb_table&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;random&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;randn&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;V&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;E&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;astype&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;float32&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 取出序列词向量并加上 batch 维度: (B, T, E)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;x_np&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;emb_table&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="n"&gt;ids&lt;/span&gt;&lt;span class="p"&gt;][&lt;/span&gt;&lt;span class="kc"&gt;None&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="k"&gt;return&lt;/span&gt; &lt;span class="n"&gt;tokens&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;x_np&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h4 id="43-基于-numpy-实现-rnn"&gt;4.3 基于 NumPy 实现 RNN
&lt;/h4&gt;&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt; 1
&lt;/span&gt;&lt;span class="lnt"&gt; 2
&lt;/span&gt;&lt;span class="lnt"&gt; 3
&lt;/span&gt;&lt;span class="lnt"&gt; 4
&lt;/span&gt;&lt;span class="lnt"&gt; 5
&lt;/span&gt;&lt;span class="lnt"&gt; 6
&lt;/span&gt;&lt;span class="lnt"&gt; 7
&lt;/span&gt;&lt;span class="lnt"&gt; 8
&lt;/span&gt;&lt;span class="lnt"&gt; 9
&lt;/span&gt;&lt;span class="lnt"&gt;10
&lt;/span&gt;&lt;span class="lnt"&gt;11
&lt;/span&gt;&lt;span class="lnt"&gt;12
&lt;/span&gt;&lt;span class="lnt"&gt;13
&lt;/span&gt;&lt;span class="lnt"&gt;14
&lt;/span&gt;&lt;span class="lnt"&gt;15
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-python" data-lang="python"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;def&lt;/span&gt; &lt;span class="nf"&gt;manual_rnn_numpy&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;x_np&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;U_np&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;W_np&lt;/span&gt;&lt;span class="p"&gt;):&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;B_local&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;T_local&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;_&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;x_np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;shape&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 初始化 h_0 为零向量&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;zeros&lt;/span&gt;&lt;span class="p"&gt;((&lt;/span&gt;&lt;span class="n"&gt;B_local&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;H&lt;/span&gt;&lt;span class="p"&gt;),&lt;/span&gt; &lt;span class="n"&gt;dtype&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;float32&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;steps&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="p"&gt;[]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 按时间步循环&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="k"&gt;for&lt;/span&gt; &lt;span class="n"&gt;t&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="nb"&gt;range&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;T_local&lt;/span&gt;&lt;span class="p"&gt;):&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;x_t&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;x_np&lt;/span&gt;&lt;span class="p"&gt;[:,&lt;/span&gt; &lt;span class="n"&gt;t&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="p"&gt;:]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 核心公式实现&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;h_t&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;tanh&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;x_t&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;U_np&lt;/span&gt; &lt;span class="o"&gt;+&lt;/span&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;W_np&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;steps&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;append&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;h_t&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;h_t&lt;/span&gt; &lt;span class="c1"&gt;# 更新状态&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="k"&gt;return&lt;/span&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;stack&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;steps&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;axis&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mi"&gt;1&lt;/span&gt;&lt;span class="p"&gt;),&lt;/span&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;这段代码展示了 RNN 的工作原理，将公式 $h_t = \tanh(U x_t + W h_{t-1})$ 转换为了具体的计算步骤：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;初始化&lt;/strong&gt;: &lt;code&gt;h_prev = np.zeros(...)&lt;/code&gt; 创建了一个全零的初始隐藏状态，作为处理&lt;strong&gt;每个序列&lt;/strong&gt;开始前的“空白记忆”。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;逐帧处理&lt;/strong&gt;: &lt;code&gt;for t in range(T_local):&lt;/code&gt; 循环遍历序列中的每一个时间步（即每一个词元）。&lt;/p&gt;
&lt;p&gt;（3）&lt;strong&gt;核心计算&lt;/strong&gt;: 在循环内部，&lt;code&gt;h_t = np.tanh(x_t @ U_np + h_prev @ W_np)&lt;/code&gt; 这一行完美复现了 RNN 的核心逻辑：
- &lt;code&gt;x_t @ U_np&lt;/code&gt;：对当前时间步的输入 $x_t$ 进行线性变换。
- &lt;code&gt;h_prev @ W_np&lt;/code&gt;：对上一步的隐藏状态 $h_{t-1}$ 进行线性变换。
- 将两者相加，再通过 &lt;code&gt;tanh&lt;/code&gt; 激活函数，就得到了融合了当前输入和过去记忆的新隐藏状态 $h_t$。&lt;/p&gt;
&lt;p&gt;（4）&lt;strong&gt;状态更新&lt;/strong&gt;: &lt;code&gt;h_prev = h_t&lt;/code&gt; 实现了“循环”的精髓。当前计算出的 $h_t$ 会作为下一个时间步的 &lt;code&gt;h_prev&lt;/code&gt;，将信息传递下去。&lt;/p&gt;
&lt;p&gt;（5）&lt;strong&gt;结果保存&lt;/strong&gt;: &lt;code&gt;steps.append(h_t)&lt;/code&gt; 将每一步计算出的隐藏状态都保存下来，最终通过 &lt;code&gt;np.stack&lt;/code&gt; 组合成一个包含所有时间步输出的张量。&lt;/p&gt;
&lt;h4 id="44-pytorch-的-nnrnn-实现"&gt;4.4 PyTorch 的 &lt;code&gt;nn.RNN&lt;/code&gt; 实现
&lt;/h4&gt;&lt;p&gt;PyTorch 提供了高度封装的 &lt;code&gt;nn.RNN&lt;/code&gt; 模块，它内部完成了与我们手写版本相同的循环计算，但经过了优化，效率更高。&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt; 1
&lt;/span&gt;&lt;span class="lnt"&gt; 2
&lt;/span&gt;&lt;span class="lnt"&gt; 3
&lt;/span&gt;&lt;span class="lnt"&gt; 4
&lt;/span&gt;&lt;span class="lnt"&gt; 5
&lt;/span&gt;&lt;span class="lnt"&gt; 6
&lt;/span&gt;&lt;span class="lnt"&gt; 7
&lt;/span&gt;&lt;span class="lnt"&gt; 8
&lt;/span&gt;&lt;span class="lnt"&gt; 9
&lt;/span&gt;&lt;span class="lnt"&gt;10
&lt;/span&gt;&lt;span class="lnt"&gt;11
&lt;/span&gt;&lt;span class="lnt"&gt;12
&lt;/span&gt;&lt;span class="lnt"&gt;13
&lt;/span&gt;&lt;span class="lnt"&gt;14
&lt;/span&gt;&lt;span class="lnt"&gt;15
&lt;/span&gt;&lt;span class="lnt"&gt;16
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-python" data-lang="python"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;def&lt;/span&gt; &lt;span class="nf"&gt;pytorch_rnn_forward&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;x&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;U&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;W&lt;/span&gt;&lt;span class="p"&gt;):&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;rnn&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;nn&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;RNN&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;input_size&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;E&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;hidden_size&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;H&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;num_layers&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mi"&gt;1&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;nonlinearity&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="s1"&gt;&amp;#39;tanh&amp;#39;&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;bias&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="kc"&gt;False&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;batch_first&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="kc"&gt;True&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;bidirectional&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="kc"&gt;False&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="k"&gt;with&lt;/span&gt; &lt;span class="n"&gt;torch&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;no_grad&lt;/span&gt;&lt;span class="p"&gt;():&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# PyTorch 内部存放的是转置后的权重&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;rnn&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;weight_ih_l0&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;copy_&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;U&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;T&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;rnn&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;weight_hh_l0&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;copy_&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;W&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;T&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;y&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;h_n&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;rnn&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;x&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="k"&gt;return&lt;/span&gt; &lt;span class="n"&gt;y&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;h_n&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;squeeze&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;&lt;strong&gt;&lt;code&gt;nn.RNN&lt;/code&gt; 参数解析：&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;input_size&lt;/code&gt;（$E$）: 输入特征 $x_t$ 的维度。在 NLP 中，这通常是词嵌入的维度 &lt;code&gt;embedding_dim&lt;/code&gt;。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;hidden_size&lt;/code&gt;（$H$）: 隐藏状态 $h_t$ 的维度。这代表了 RNN “记忆”的容量，也是其隐藏层的节点数。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;num_layers&lt;/code&gt;: RNN 的层数。默认是1。如果大于1，会构成一个“堆叠 RNN”，即前一层RNN在所有时间步的输出，会作为后一层 RNN 的输入。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;bias&lt;/code&gt;: 是否使用偏置项。默认为 &lt;code&gt;True&lt;/code&gt;。如果为真，则公式会变为 $h_t = \tanh(U x_t + b_{ih} + W h_{t-1} + b_{hh})$。在示例中设为 &lt;code&gt;False&lt;/code&gt; 以便与手写版本对齐。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;batch_first&lt;/code&gt;: 一个非常重要的维度顺序参数。默认为 &lt;code&gt;False&lt;/code&gt;，此时输入张量的形状应为 &lt;code&gt;(T, B, E)&lt;/code&gt;。在代码中设为 &lt;code&gt;True&lt;/code&gt;，使得输入形状为更符合直觉的 &lt;code&gt;(B, T, E)&lt;/code&gt;，其中 &lt;code&gt;B&lt;/code&gt;是批次大小，&lt;code&gt;T&lt;/code&gt;是序列长度。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;bidirectional&lt;/code&gt;: 是否构建一个双向RNN。默认为 &lt;code&gt;False&lt;/code&gt;。双向RNN能同时考虑过去和未来的上下文，后续章节将对此进行介绍。&lt;/li&gt;
&lt;/ul&gt;
&lt;h4 id="45-数值对齐验证"&gt;4.5 数值对齐验证
&lt;/h4&gt;&lt;p&gt;验证用 NumPy 手写的 RNN 和 PyTorch 官方的&lt;code&gt;nn.RNN&lt;/code&gt;模块在给定相同输入和相同权重时，其输出是否完全相同。&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt;1
&lt;/span&gt;&lt;span class="lnt"&gt;2
&lt;/span&gt;&lt;span class="lnt"&gt;3
&lt;/span&gt;&lt;span class="lnt"&gt;4
&lt;/span&gt;&lt;span class="lnt"&gt;5
&lt;/span&gt;&lt;span class="lnt"&gt;6
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-python" data-lang="python"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# 将NumPy结果转回PyTorch张量&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="n"&gt;out_manual&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;torch&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;from_numpy&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;out_manual_np&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# 使用 allclose 进行浮点数精度下的严格比较&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="nb"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="s2"&gt;&amp;#34;逐步输出一致:&amp;#34;&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;torch&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;allclose&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;out_manual&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;out_torch&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;atol&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mf"&gt;1e-6&lt;/span&gt;&lt;span class="p"&gt;))&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# 输出: True&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;得到 &lt;code&gt;True&lt;/code&gt; 的结果，证明我们对 RNN 数学原理的理解是正确的，而且 &lt;code&gt;nn.RNN&lt;/code&gt; 模块内部确实执行了所理解的循环计算过程。&lt;/p&gt;
&lt;h3 id="五双向循环神经网络"&gt;五、双向循环神经网络
&lt;/h3&gt;&lt;p&gt;在前面的讨论中，RNN 结构在处理序列时，信息是单向流动的——即在计算任意时刻 $t$ 的状态时，只利用了 $t$ 时刻及之前的信息。但在很多自然语言处理任务中，一个词的含义往往不仅依赖于它前面的词，还与它后面的词密切相关。例如，在句子“&lt;strong&gt;苹果&lt;/strong&gt;味道不错。”中，仅凭“&lt;strong&gt;苹果&lt;/strong&gt;”，模型很难断定“苹果”是指水果还是苹果公司。但如果能看到后文“味道不错”，就能基本确定它指的是水果；反之，如果后文是“股票大涨”，则指的是公司。&lt;/p&gt;
&lt;p&gt;为了利用未来的信息，一种早期的尝试是&lt;strong&gt;引入“时间延迟”（Time Delay）&lt;/strong&gt;：即在预测 $t$ 时刻的输出时，允许模型看到 $t+M$ 时刻的输入。然而，这个延迟窗口 $M$ 是一个需要人工调整的超参数——窗口太小，未来信息不足；窗口太大，模型反而难以聚焦于局部。为了更优雅地同时利用过去（前文）和未来（后文）的上下文信息，&lt;strong&gt;双向循环神经网络（Bidirectional RNN, BiRNN）&lt;/strong&gt; 被提出 [^2]。&lt;/p&gt;
&lt;h4 id="51-birnn-的结构与原理"&gt;5.1 BiRNN 的结构与原理
&lt;/h4&gt;&lt;p&gt;BiRNN 的原理很简单：它由两个完全独立的 RNN 构成，并将它们叠加在一起处理信息。&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;一个正向 RNN&lt;/strong&gt;：按照从左到右的顺序读取输入序列（例如，从 $x_1$到 $x_T$），计算出一系列正向隐藏状态 $(\overrightarrow{h_1}, \overrightarrow{h_2}, &amp;hellip;, \overrightarrow{h_T})$。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;一个反向 RNN&lt;/strong&gt;：按照从右到左的顺序读取输入序列（例如，从 $x_T$ 到 $x_1$），计算出一系列反向隐藏状态 $(\overleftarrow{h_1}, \overleftarrow{h_2}, &amp;hellip;, \overleftarrow{h_T})$。&lt;/p&gt;
&lt;p&gt;在任意时间步 $t$，BiRNN 的最终输出 $h_t$ 是将该时间步对应的正向 RNN 隐藏状态 $\overrightarrow{h_t}$ 和反向 RNN 隐藏状态 $\overleftarrow{h_t}$ 进行拼接（Concatenate）得到的：&lt;/p&gt;
$$
h_t = [\overrightarrow{h_t} ; \overleftarrow{h_t}]
$$&lt;p&gt;通过这种方式， $h_t$ 就同时包含了输入序列中 $t$ 时刻左右两侧的上下文信息。需要注意，正向和反向的两个 RNN 拥有各自独立的权重参数，它们在训练过程中被 &lt;strong&gt;同时优化&lt;/strong&gt;。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;为什么不直接训练两个独立的 RNN 然后合并结果？&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;当然可以分别训练一个正向 RNN 和一个反向 RNN，最后将它们的输出取平均（线性意见池）或几何平均（对数意见池）。但 BiRNN 的优势在于它是在同一个损失函数下&lt;strong&gt;同时训练&lt;/strong&gt;两个方向的权重。所以正向和反向的特征提取是协同进行的，能够更好地适应目标任务，而不需要假设两个方向的预测是相互独立的。而且，BiRNN 彻底消除了对“时间延迟”参数 $M$ 的依赖，模型自动利用所有可用的过去和未来信息。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;由于最终的输出是两个独立 RNN 隐藏状态的拼接，如果每个 RNN 的 &lt;code&gt;hidden_size&lt;/code&gt; 都为 $H$，那么 BiRNN 在每个时间步的输出维度将变为 $2H$。&lt;/p&gt;
&lt;p&gt;在 PyTorch 的 &lt;code&gt;nn.RNN&lt;/code&gt; 模块中，只需将 &lt;code&gt;bidirectional&lt;/code&gt; 参数设置为 &lt;code&gt;True&lt;/code&gt; 即可轻松构建一个双向 RNN。其输出 &lt;code&gt;y&lt;/code&gt; 的最后一个维度（特征维度）将是 &lt;code&gt;hidden_size&lt;/code&gt; 的两倍，而最终隐藏状态 &lt;code&gt;h_n&lt;/code&gt; 的第一个维度将是 &lt;code&gt;num_layers * 2&lt;/code&gt;，分别存储了正向和反向 RNN 在最后一个时间步的隐藏状态。&lt;/p&gt;
&lt;h4 id="52-birnn-的作用与局限"&gt;5.2 BiRNN 的作用与局限
&lt;/h4&gt;&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;作用&lt;/strong&gt;：BiRNN 的价值在于，它为序列中的每个元素都提取了更完整的上下文相关的特征，而不是像单向 RNN 那样只依赖于过去的信息。这使得它在许多 NLP 任务中（如命名实体识别、情感分析、机器翻译等）都取得了比单向 RNN 更好的效果。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;局限&lt;/strong&gt;：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;BiRNN 并没有解决 RNN 的&lt;strong&gt;长距离依赖&lt;/strong&gt;问题。无论是正向还是反向的 RNN，它们本身依然会面临梯度消失或梯度爆炸的挑战。&lt;/li&gt;
&lt;li&gt;由于需要处理完整的序列才能计算反向信息，BiRNN 无法被用于需要实时预测的场景（例如，根据用户已输入的内容实时推荐下一个词）。&lt;/li&gt;
&lt;/ol&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="六随时间反向传播"&gt;六、随时间反向传播
&lt;/h3&gt;&lt;p&gt;前面已经了解了 RNN 如何通过正向传播逐个处理序列信息。接下来，将探讨其训练机制。RNN 的训练实质是标准反向传播（Backpropagation, BP）在时间展开图上的直接应用，称为&lt;strong&gt;随时间反向传播（Backpropagation Through Time, BPTT）&lt;/strong&gt; [^3]。具体而言，该方法将 RNN 沿时间维度展开，可视作一个各层参数共享的深层前馈网络，进而在此结构上执行通用的反向传播算法。&lt;/p&gt;
&lt;p&gt;假设整个序列的总损失 $L$ 是所有时间步损失 $L_t$ 的总和： $L = \sum_{t=1}^{T} L_t$。我们的目标是计算损失 $L$ 对共享参数 $U$ 和 $W$ 的梯度。&lt;/p&gt;
&lt;p&gt;根据加法求导法则，总梯度等于每个时间步损失所贡献的梯度的总和：&lt;/p&gt;
$$
\frac{\partial L}{\partial W} = \sum_{t=1}^{T} \frac{\partial L_t}{\partial W}
$$&lt;p&gt;主要的挑战在于计算单个时间步的梯度 $\frac{\partial L_t}{\partial W}$。由于 $W$ 在每个时间步都参与了计算，当前时刻的隐藏状态 $h_t$ 不仅依赖于当前输入 $x_t$，还通过 $h_{t-1}$ 间接依赖于之前所有时间步的输入和状态。因此，在 $t$ 时刻的损失，其梯度必须沿着时间反向传播，一直追溯到序列的开端。&lt;/p&gt;
&lt;p&gt;使用链式法则（向量-导数矩阵形式）， $\frac{\partial L_t}{\partial W}$ 可分解为：&lt;/p&gt;
$$
\frac{\partial L_t}{\partial W} = \sum_{k=1}^{t} \underbrace{\frac{\partial L_t}{\partial h_t}}_{\text{梯度}} \cdot \underbrace{\frac{\partial h_t}{\partial h_k}}_{\text{导数矩阵连乘}} \cdot \underbrace{\frac{\partial h_k}{\partial W}}_{\text{直接影响}}
$$&lt;p&gt;其中， $\frac{\partial h_k}{\partial W}$ 是 $h_k$ 关于参数 $W$ 的导数矩阵； $\frac{\partial h_t}{\partial h_k}$ 表示从第 $k$ 步到第 $t$ 步的“传播的导数矩阵”，其本身是导数矩阵的连乘：&lt;/p&gt;
$$
\frac{\partial h_t}{\partial h_k} = \prod_{i=k+1}^{t} \frac{\partial h_i}{\partial h_{i-1}}
$$&lt;p&gt;这个连乘的形式正是 RNN 产生问题的根源所在。&lt;/p&gt;
&lt;h3 id="七rnn-的局限性"&gt;七、RNN 的局限性
&lt;/h3&gt;&lt;p&gt;尽管 RNN 在理论上可以捕捉长距离依赖，但在实践中，基于 BPTT 的反向传播在时间维度上的导数矩阵连乘，带来了以下问题：&lt;/p&gt;
&lt;h4 id="71-梯度消失与梯度爆炸"&gt;7.1 梯度消失与梯度爆炸
&lt;/h4&gt;&lt;p&gt;BPTT 链式求导的关键，在于梯度的反向传播路径上会形成一个连乘项 $\prod_{i=k+1}^{t} \frac{\partial h_i}{\partial h_{i-1}}$。以 $h_i = \tanh(U x_i + W h_{i-1})$ 为例，其传播的导数矩阵近似为：&lt;/p&gt;
$$
\frac{\partial h_i}{\partial h_{i-1}} \approx J_{\tanh}(U x_i + W h_{i-1}) \cdot W
$$&lt;p&gt;其中 $J_{\tanh}$ 表示 $\tanh$ 的导数矩阵。这意味着，从遥远的 $k$ 步到当前 $t$ 步的梯度传递，需要经历 $t-k$ 次与权重矩阵 $W$ 和激活函数导数矩阵的相乘。&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;梯度消失（Vanishing Gradients）&lt;/strong&gt;：在 RNN 中，权重矩阵 $W$ 的值通常会被初始化为较小的值。如果 $W$ 的范数（可以理解为其对向量的缩放能力）小于1，或者激活函数的导数（如 $\tanh&amp;rsquo;$ 最大为 1，通常小于 1）导致连乘项变小，那么多次相乘之后，梯度值会以指数级速度衰减，迅速趋近于0。当序列很长时（即 $t-k$ 很大），来自遥远过去的梯度信号在传播到当前步时，几乎完全消失。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;梯度爆炸（Exploding Gradients）&lt;/strong&gt;：反之，如果 $W$ 的范数大于1，梯度值则会指数级增长，最终变成一个非常大的数值（Inf 或 NaN），导致模型训练崩溃。梯度爆炸问题相对容易发现和处理，一种常见的解决方法是&lt;strong&gt;梯度裁剪（Gradient Clipping）&lt;/strong&gt;，即当梯度的范数超过某个阈值时，就将其缩放到该阈值。&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h4 id="72-长距离依赖"&gt;7.2 长距离依赖
&lt;/h4&gt;&lt;p&gt;梯度消失在实践中比梯度爆炸更棘手，它直接导致了&lt;strong&gt;长距离依赖问题（Long-term Dependency Problem）&lt;/strong&gt; [^4]。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;反向传播视角&lt;/strong&gt;：梯度消失意味着，模型无法学习到序列中相距遥远的词之间的依赖关系。正如 Werbos 所指出的，BPTT 本身是计算梯度的精确方法，但深层网络（或长序列）中的连乘效应是数学上的必然。例如，在句子 “孙悟空初到天庭时，被玉帝封为‘&lt;strong&gt;弼马温&lt;/strong&gt;’，他嫌官小，心中不忿，便打出天门，返回花果山，自封‘齐天大圣’，后来又大闹天宫，搅乱了蟠桃盛会，偷吃了老君的金丹，最终被如来佛祖镇压在五行山下。五百年后，当有神仙旧事重提，用这个官职来称呼他时，依然是在&lt;strong&gt;嘲讽&lt;/strong&gt;他。” 中，要正确理解结尾处“&lt;strong&gt;嘲讽&lt;/strong&gt;”的含义，模型必须能关联到句子最开头的“&lt;strong&gt;弼马温&lt;/strong&gt;”是一个低微官职这一事实。但由于两者之间间隔了极长的叙述，误差梯度在从“嘲讽”反向传播到“弼马温”时，可能已经衰减为零，导致模型无法捕捉到这种关键的远距离语义依赖。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;正向传播视角&lt;/strong&gt;：也可以理解为&lt;strong&gt;信息遗忘&lt;/strong&gt;或&lt;strong&gt;近期偏置&lt;/strong&gt;。在正向计算过程中，每一步的信息都会被新的输入和循环权重 $W$ “稀释”或“覆盖”。经过足够多的时间步后，序列最初的信息在隐藏状态中可能已所剩无几。这就好像两个句子，即使开头的词不同，在经过很长的相同后续序列后，它们最终的隐藏状态也可能变得几乎没有差别，模型“遗忘”了最初的差异。&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4 id="73-单向性"&gt;7.3 单向性
&lt;/h4&gt;&lt;p&gt;常规 RNN 的信息流是单向的， $t$ 时刻的计算只能利用 $t$ 时刻之前的信息，无法利用未来的上下文信息。但在很多 NLP 任务中（如完形填空、机器翻译），一个词的含义同时取决于它的前文和后文。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;双向循环神经网络&lt;/strong&gt; 能够通过结合正向和反向的信息流来解决单向性的问题。此外，为了学习更复杂的特征表示，还可以将多个 RNN 层堆叠起来，构成&lt;strong&gt;深度循环神经网络&lt;/strong&gt;。然而，这些变体都未能从根本上解决梯度传播带来的长距离依赖问题。为了攻克这一核心难题，研究者们设计了两种更为精巧的门控 RNN 结构——&lt;strong&gt;长短期记忆网络&lt;/strong&gt;和&lt;strong&gt;门控循环单元&lt;/strong&gt;，下一节将对此进行详细探讨。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3 id="练习"&gt;练习
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;不使用大模型自行实现 RNN 手写代码，数据准备部分可直接复制 &lt;code&gt;prepare_inputs&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;h3 id="参考文献1"&gt;参考文献1
&lt;/h3&gt;&lt;p&gt;[1]: &lt;a class="link" href="https://doi.org/10.1207/s15516709cog1402_1" target="_blank" rel="noopener"
&gt;Elman, J. L. (1990). &lt;em&gt;Finding structure in time&lt;/em&gt;. Cognitive Science, 14(2), 179-211.&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[2]: &lt;a class="link" href="https://doi.org/10.1109/78.650093" target="_blank" rel="noopener"
&gt;Schuster, M., &amp;amp; Paliwal, K. K. (1997). &lt;em&gt;Bidirectional recurrent neural networks&lt;/em&gt;. IEEE Transactions on Signal Processing, 45(11), 2673-2681.&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[3]: &lt;a class="link" href="https://doi.org/10.1109/5.58337" target="_blank" rel="noopener"
&gt;Werbos, P. J. (1990). &lt;em&gt;Backpropagation through time: what it does and how to do it&lt;/em&gt;. Proceedings of the IEEE, 78(10), 1550-1560.&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[4]: &lt;a class="link" href="https://doi.org/10.1109/72.279181" target="_blank" rel="noopener"
&gt;Bengio, Y., Simard, P., &amp;amp; Frasconi, P. (1994). &lt;em&gt;Learning long-term dependencies with gradient descent is difficult&lt;/em&gt;. IEEE Transactions on Neural Networks, 5(2), 157-166.&lt;/a&gt;&lt;/p&gt;
&lt;h2 id="第二节-lstm-与-gru"&gt;第二节 LSTM 与 GRU
&lt;/h2&gt;&lt;p&gt;在了解了 RNN 的基本架构及其固有的缺陷后，本节将探讨两种经典的 RNN 改进方案——长短期记忆网络 (LSTM) 与门控循环单元 (GRU)，并剖析它们是如何通过精巧的结构设计来克服长距离依赖这一挑战的。&lt;/p&gt;
&lt;h3 id="一lstm-与门控机制"&gt;一、LSTM 与门控机制
&lt;/h3&gt;&lt;p&gt;常规 RNN 的问题在于，其内部状态的更新方式是“粗暴”的。每一步的新信息都会与旧信息（隐藏状态）无差别地混合，并通过权重矩阵 $W$ 进行变换。这种强制性的矩阵乘法，无论信息重要与否，都会在反向传播中形成梯度累乘，导致梯度信号的衰减或爆炸。&lt;/p&gt;
&lt;p&gt;LSTM 的设计哲学是&lt;strong&gt;赋予网络自行决定信息取舍的能力&lt;/strong&gt;。它不再强制性地混合所有信息，而是引入了 &lt;strong&gt;“门控机制”（Gating Mechanism）&lt;/strong&gt;，让模型在训练过程中学会&lt;strong&gt;有选择地&lt;/strong&gt;让信息通过、遗忘旧信息或输出信息 [^1]。&lt;/p&gt;
&lt;h4 id="11-从单一状态到双轨并行"&gt;1.1 从单一状态到双轨并行
&lt;/h4&gt;&lt;p&gt;与 RNN 只有一个隐藏状态 $h_t$ 在时间步之间传递不同，LSTM 引入了两个独立的状态向量在时间轴上并行传递：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;细胞状态（Cell State, $c_t$）&lt;/strong&gt;: 这是 LSTM 的核心，原始论文中称之为 &lt;strong&gt;“恒定误差旋转木马”（Constant Error Carousel, CEC）&lt;/strong&gt;。可以把它想象成一条“信息高速公路”或“传送带”，负责在整个序列中传递&lt;strong&gt;长期记忆&lt;/strong&gt;。信息可以直接在这条传送带上流动，仅经过按元素的加权与相加，没有额外的矩阵连乘，从而极大地缓解了梯度消失问题。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;隐藏状态（Hidden State, $h_t$）&lt;/strong&gt;: 与 RNN 中的隐藏状态类似，代表了当前时间步的&lt;strong&gt;短期记忆&lt;/strong&gt;和&lt;strong&gt;最终输出&lt;/strong&gt;。$h_t$ 的计算依赖于当前的细胞状态 $c_t$。&lt;/p&gt;
&lt;p&gt;LSTM 通过门控单元，来控制细胞状态 $c_t$ 这条“高速公路”在每个时间点应该&lt;strong&gt;遗忘&lt;/strong&gt;什么旧内容，以及应该&lt;strong&gt;写入&lt;/strong&gt;什么新内容。&lt;/p&gt;
&lt;h4 id="12-门的结构"&gt;1.2 门的结构
&lt;/h4&gt;&lt;p&gt;LSTM 中的“门”是一种让信息选择性通过的结构，设计灵感来源于数字电路中的逻辑门。它的实现非常简单，就是一个全连接层，其激活函数为 &lt;strong&gt;Sigmoid&lt;/strong&gt;。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;输入&lt;/strong&gt;：通常是当前时间步的输入 $x_t$ 和上一个时间步的隐藏状态 $h_{t-1}$ 的拼接。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;计算&lt;/strong&gt;：对输入进行线性变换，然后通过 Sigmoid 函数。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;输出&lt;/strong&gt;：一个元素值在 &lt;strong&gt;(0, 1)&lt;/strong&gt; 区间内的向量。这个向量将与另一个向量进行&lt;strong&gt;按元素乘法&lt;/strong&gt;。
&lt;ul&gt;
&lt;li&gt;当门输出向量的某个元素接近 &lt;strong&gt;1&lt;/strong&gt; 时，意味着“允许”对应维度的信息完全通过。&lt;/li&gt;
&lt;li&gt;当门输出向量的某个元素接近 &lt;strong&gt;0&lt;/strong&gt; 时，意味着“阻止”对应维度的信息通过，即“遗忘”或“忽略”它。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;从另一个角度看，门控机制也是为了解决&lt;strong&gt;权重冲突&lt;/strong&gt;问题：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;输入门&lt;/strong&gt;保护细胞状态不受无关&lt;strong&gt;输入&lt;/strong&gt;的干扰。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;输出门&lt;/strong&gt;保护其他单元不受当前细胞状态中无关&lt;strong&gt;记忆&lt;/strong&gt;的干扰。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;LSTM 内部署了三个这样的门，来精确控制信息的流动。&lt;/p&gt;
&lt;h3 id="二lstm-单元结构"&gt;二、LSTM 单元结构
&lt;/h3&gt;&lt;p&gt;一个 LSTM 单元在 $t$ 时刻接收三个输入，当前输入 $x_t$、前一时刻的隐藏状态 $h_{t-1}$ 和前一时刻的细胞状态 $c_{t-1}$。然后，如图 3-2 所示它通过内部的三个门和一个 &lt;code&gt;tanh&lt;/code&gt; 层，计算出新的细胞状态 $c_t$ 和隐藏状态 $h_t$。&lt;/p&gt;
&lt;div align="center"&gt;
&lt;img src="https://cdn.jsdelivr.net/gh/Hanguangwu/MyImageBed01/img/3_2_1.svg" width="100%" alt="LSTM 单元结构" /&gt;
&lt;p&gt;图 3-2 LSTM 单元结构&lt;/p&gt;
&lt;/div&gt;
&lt;p&gt;为了方便后续公式的表述，首先将当前输入 $x_t$ 和前一时刻的隐藏状态 $h_{t-1}$ 拼接起来，记为 $[h_{t-1}, x_t]$。LSTM 内部的每一次线性变换，都是作用在这个拼接后的向量上，只是各自使用不同的权重矩阵。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;这种拼接操作是一种常见的计算优化。将两个向量拼接后再进行一次矩阵乘法，与对两个向量分别进行矩阵乘法然后相加，其结果是等价的。例如， $W \cdot [h_{t-1}, x_t]$ 等价于 $W_h \cdot h_{t-1} + W_x \cdot x_t$，其中 $W$ 被相应地拆分为 $W_h$ 和 $W_x$ 两部分。这样做可以利用深度学习框架中优化过的大矩阵乘法操作，提升计算效率。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;在深入公式之前，可以将上图中的计算模块与公式对应起来，以便理解信息流：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;图中每一个 &lt;code&gt;σ&lt;/code&gt; （Sigmoid） 符号都对应一个&lt;strong&gt;门&lt;/strong&gt;的计算，即遗忘门、输入门和输出门。&lt;/li&gt;
&lt;li&gt;图中的 &lt;code&gt;tanh&lt;/code&gt; 符号有两个，分别负责：
&lt;ul&gt;
&lt;li&gt;生成&lt;strong&gt;候选记忆&lt;/strong&gt;（$\tilde{c}_t$）。&lt;/li&gt;
&lt;li&gt;对细胞状态 $c_t$ 进行处理，将其值压缩到 [-1, 1] 区间，用于计算最终的隐藏状态 $h_t$。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;图中的 &lt;code&gt;⊙&lt;/code&gt;（圆圈）符号代表&lt;strong&gt;按元素乘法&lt;/strong&gt;，这是门控机制发挥作用的关键。&lt;/li&gt;
&lt;li&gt;图中的 &lt;code&gt;+&lt;/code&gt;（圆圈）符号代表&lt;strong&gt;按元素加法&lt;/strong&gt;，用于更新细胞状态。&lt;/li&gt;
&lt;/ul&gt;
&lt;h4 id="21-第一步遗忘门forget-gate"&gt;2.1 第一步：遗忘门（Forget Gate）
&lt;/h4&gt;&lt;p&gt;LSTM 的第一步是决定我们从细胞状态中丢弃什么信息。这个决定由被称为“遗忘门”的 Sigmoid 层完成。它会审视 $h_{t-1}$ 和 $x_t$，然后为 $c_{t-1}$ 中的每个数值输出一个介于 0 和 1 之间的“遗忘系数”。当该系数接近 1 时表示“几乎完全保留”，当其接近 0 时表示“几乎完全丢弃”。&lt;/p&gt;
$$
f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + b_f)
$$&lt;blockquote&gt;
&lt;p&gt;1997 年提出的原始 LSTM 结构中并没有遗忘门，这一机制是由 Gers 等人在 2000 年引入的 [^2]。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h4 id="22-第二步输入门与候选记忆input-gate--candidate-memory"&gt;2.2 第二步：输入门与候选记忆（Input Gate &amp;amp; Candidate Memory）
&lt;/h4&gt;&lt;p&gt;下一步是决定我们在细胞状态中存储什么新信息。这由两部分共同完成：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;输入门&lt;/strong&gt;：首先，一个 Sigmoid 层（即图中的“输入门”）决定了更新哪些值。&lt;/p&gt;
$$
i_t = \sigma(W_i \cdot [h_{t-1}, x_t] + b_i)
$$&lt;p&gt;（2）&lt;strong&gt;候选记忆&lt;/strong&gt;：然后，一个 &lt;code&gt;tanh&lt;/code&gt; 层（即图中的“候选值”模块）创建一个新的候选记忆向量 $\tilde{c}_t$，这是准备添加到细胞状态中的新内容。这部分的计算与常规 RNN 的计算非常相似。&lt;/p&gt;
$$
\tilde{c}_t = \tanh(W_c \cdot [h_{t-1}, x_t] + b_c)
$$&lt;h4 id="23-第三步更新细胞状态-cell-state-update"&gt;2.3 第三步：更新细胞状态 (Cell State Update)
&lt;/h4&gt;&lt;p&gt;现在，可以更新细胞状态了，我们将把旧状态 $c_{t-1}$ 更新为新状态 $c_t$。此步骤对应于图中细胞状态传送带上的核心操作：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;首先，将旧状态 $c_{t-1}$ 与遗忘门 $f_t$ 的输出进行&lt;strong&gt;逐元素相乘&lt;/strong&gt;，丢弃掉决定要忘记的部分。&lt;/li&gt;
&lt;li&gt;然后，将输入门 $i_t$ 与候选记忆 $\tilde{c}_t$ &lt;strong&gt;逐元素相乘&lt;/strong&gt;，筛选出需要加入的新信息。&lt;/li&gt;
&lt;li&gt;最后，将这两部分&lt;strong&gt;相加&lt;/strong&gt;，得到新的细胞状态 $c_t$。&lt;/li&gt;
&lt;/ul&gt;
$$
c_t = (f_t \odot c_{t-1}) + (i_t \odot \tilde{c}_t)
$$&lt;h4 id="24-第四步输出门output-gate"&gt;2.4 第四步：输出门（Output Gate）
&lt;/h4&gt;&lt;p&gt;最后，我们需要决定输出什么。输出将基于我们的细胞状态，但会是一个过滤后的版本。输出的生成分为两步：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;输出门&lt;/strong&gt;：一个 Sigmoid 层（“输出门”）决定了细胞状态的哪些部分将被输出。&lt;/p&gt;
$$
o_t = \sigma(W_o \cdot [h_{t-1}, x_t] + b_o)
$$&lt;p&gt;（2）&lt;strong&gt;计算隐藏状态&lt;/strong&gt;：将刚刚更新的细胞状态 $c_t$ 通过 &lt;code&gt;tanh&lt;/code&gt; 函数（将其值规范化到 -1 和 1 之间），并将其与输出门 $o_t$ 的结果&lt;strong&gt;逐元素相乘&lt;/strong&gt;，最终只输出我们决定的那部分信息作为隐藏状态 $h_t$。&lt;/p&gt;
$$
h_t = o_t \odot \tanh(c_t)
$$&lt;p&gt;这个 $h_t$ 将作为当前时间步的最终输出，并传递给下一个时间步。&lt;/p&gt;
&lt;h3 id="三lstm-如何缓解长距离依赖"&gt;三、LSTM 如何缓解长距离依赖
&lt;/h3&gt;&lt;p&gt;现在，回到最初的问题。LSTM 是如何通过这套复杂的门控机制来缓解梯度消失问题的？关键在于&lt;strong&gt;细胞状态 $c_t$ 的更新法则&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;在 RNN 中，梯度在时间步之间反向传播时，每一步都必须乘以同一个权重矩阵 $W$。当序列很长时，这种连乘操作（$W \cdot W \cdot W \dots$）极易导致梯度消失或爆炸。&lt;/p&gt;
&lt;p&gt;而在 LSTM 中，梯度的传播路径被分成了两条。一条是通过隐藏状态 $h_t$ 传递的，与 RNN 类似，依然会经过激活函数的导数和权重矩阵，存在梯度衰减的风险。但另一条，也是更重要的一条，是通过细胞状态 $c_t$ 传递的。&lt;/p&gt;
&lt;p&gt;我们来考察损失 $L$ 对前一时刻细胞状态 $c_{t-1}$ 的梯度，根据链式法则：&lt;/p&gt;
$$
\frac{\partial L}{\partial c_{t-1}} = \frac{\partial L}{\partial c_t} \frac{\partial c_t}{\partial c_{t-1}}
$$&lt;p&gt;其中，细胞状态的更新公式为 $c_t = (f_t \odot c_{t-1}) + (i_t \odot \tilde{c}&lt;em&gt;t)$。可以看到，$c_t$ 对 $c&lt;/em&gt;{t-1}$ 的偏导数直接就是遗忘门 $f_t$（另一项与 $c_{t-1}$ 无关，导数为0）。因此：&lt;/p&gt;
$$
\frac{\partial L}{\partial c_{t-1}} = \frac{\partial L}{\partial c_t} \odot f_t
$$&lt;p&gt;这个关系非常关键。它表明，从 $t$ 时刻的细胞状态反向传播到 $t-1$ 时刻，梯度仅仅是&lt;strong&gt;按元素乘以&lt;/strong&gt;了遗忘门 $f_t$ 的值，而&lt;strong&gt;没有经过权重矩阵的乘法&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;如果将这个链条一直追溯到更早的 $k$ 时刻，梯度就变成了：&lt;/p&gt;
$$
\frac{\partial L}{\partial c_k} = \frac{\partial L}{\partial c_t} \odot (f_t \odot f_{t-1} \odot \dots \odot f_{k+1})
$$&lt;p&gt;这意味着：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;梯度的“高速公路”&lt;/strong&gt;：从序列末端到开端的梯度传递，主要取决于一系列遗忘门 $f_t$ 的连乘。由于 $f_t$ 是一个独立的门控单元，它的值是在每次计算中动态生成的。如果模型在训练中发现某个早期信息非常重要，它可以通过学习将中间所有时间步的遗忘门 $f_t$ 的值都设置为接近 1。在这种情况下，梯度就可以几乎无衰减地从序列末端传播到序列开端，就像在一条高速公路上一样。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;可学习的依赖关系&lt;/strong&gt;：与常规 RNN 的结构性缺陷不同，LSTM 将长距离依赖问题转化成了一个&lt;strong&gt;可学习&lt;/strong&gt;的问题。模型可以通过优化损失函数，自行调整门控单元的参数，来决定哪些信息需要长期记忆（通过将 $f_t$ 设置为 $\approx 1$ 来“记住”），哪些信息可以被舍弃（通过将 $f_t$ 设置为 $\approx 0$ 来“遗忘”）。&lt;/p&gt;
&lt;p&gt;所以，我们不说 LSTM &lt;strong&gt;解决&lt;/strong&gt;了梯度消失问题，而是极大地&lt;strong&gt;缓解&lt;/strong&gt;了它。因为即使 $f_t$ 的值很接近1（例如0.99），在足够长的序列上连乘后，梯度依然会衰减。但相比 RNN 几十步就会出现问题的窘境，LSTM 已经实现了巨大的飞跃。&lt;/p&gt;
&lt;h3 id="四从零实现一个-lstm"&gt;四、从零实现一个 LSTM
&lt;/h3&gt;&lt;p&gt;为了更深刻地理解 LSTM 内部复杂的信息流动，可以像实现 RNN 一样，基于公式，用 NumPy 手写一个 LSTM 的前向传播过程。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;a class="link" href="https://github.com/FutureUnreal/base-nlp/blob/main/code/C3/02_LSTM.py" target="_blank" rel="noopener"
&gt;本节完整代码&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h4 id="41-公式回顾"&gt;4.1 公式回顾
&lt;/h4&gt;&lt;p&gt;这里我们同样实现一个不含偏置项的简化版 LSTM，其计算公式如下：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;遗忘门&lt;/strong&gt;: $f_t = \sigma(U_f x_t + W_f h_{t-1})$&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;输入门&lt;/strong&gt;: $i_t = \sigma(U_i x_t + W_i h_{t-1})$&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;候选记忆&lt;/strong&gt;: $\tilde{c}&lt;em&gt;t = \tanh(U_c x_t + W_c h&lt;/em&gt;{t-1})$&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;细胞状态更新&lt;/strong&gt;: $c_t = f_t \odot c_{t-1} + i_t \odot \tilde{c}_t$&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;输出门&lt;/strong&gt;: $o_t = \sigma(U_o x_t + W_o h_{t-1})$&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;隐藏状态更新&lt;/strong&gt;: $h_t = o_t \odot \tanh(c_t)$&lt;/li&gt;
&lt;/ul&gt;
&lt;h4 id="42-基于-numpy-实现-lstm"&gt;4.2 基于 NumPy 实现 LSTM
&lt;/h4&gt;&lt;p&gt;下面的 &lt;code&gt;manual_lstm_numpy&lt;/code&gt; 函数将上述六个公式转换为了具体的计算步骤。它接收当前序列的输入 &lt;code&gt;x_np&lt;/code&gt; 和包含了八个独立权重矩阵的元组 &lt;code&gt;weights&lt;/code&gt;。&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt; 1
&lt;/span&gt;&lt;span class="lnt"&gt; 2
&lt;/span&gt;&lt;span class="lnt"&gt; 3
&lt;/span&gt;&lt;span class="lnt"&gt; 4
&lt;/span&gt;&lt;span class="lnt"&gt; 5
&lt;/span&gt;&lt;span class="lnt"&gt; 6
&lt;/span&gt;&lt;span class="lnt"&gt; 7
&lt;/span&gt;&lt;span class="lnt"&gt; 8
&lt;/span&gt;&lt;span class="lnt"&gt; 9
&lt;/span&gt;&lt;span class="lnt"&gt;10
&lt;/span&gt;&lt;span class="lnt"&gt;11
&lt;/span&gt;&lt;span class="lnt"&gt;12
&lt;/span&gt;&lt;span class="lnt"&gt;13
&lt;/span&gt;&lt;span class="lnt"&gt;14
&lt;/span&gt;&lt;span class="lnt"&gt;15
&lt;/span&gt;&lt;span class="lnt"&gt;16
&lt;/span&gt;&lt;span class="lnt"&gt;17
&lt;/span&gt;&lt;span class="lnt"&gt;18
&lt;/span&gt;&lt;span class="lnt"&gt;19
&lt;/span&gt;&lt;span class="lnt"&gt;20
&lt;/span&gt;&lt;span class="lnt"&gt;21
&lt;/span&gt;&lt;span class="lnt"&gt;22
&lt;/span&gt;&lt;span class="lnt"&gt;23
&lt;/span&gt;&lt;span class="lnt"&gt;24
&lt;/span&gt;&lt;span class="lnt"&gt;25
&lt;/span&gt;&lt;span class="lnt"&gt;26
&lt;/span&gt;&lt;span class="lnt"&gt;27
&lt;/span&gt;&lt;span class="lnt"&gt;28
&lt;/span&gt;&lt;span class="lnt"&gt;29
&lt;/span&gt;&lt;span class="lnt"&gt;30
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-python" data-lang="python"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;def&lt;/span&gt; &lt;span class="nf"&gt;manual_lstm_numpy&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;x_np&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;weights&lt;/span&gt;&lt;span class="p"&gt;):&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;U_f&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;W_f&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;U_i&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;W_i&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;U_c&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;W_c&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;U_o&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;W_o&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;weights&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;B_local&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;T_local&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;_&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;x_np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;shape&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;zeros&lt;/span&gt;&lt;span class="p"&gt;((&lt;/span&gt;&lt;span class="n"&gt;B_local&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;H&lt;/span&gt;&lt;span class="p"&gt;),&lt;/span&gt; &lt;span class="n"&gt;dtype&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;float32&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;c_prev&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;zeros&lt;/span&gt;&lt;span class="p"&gt;((&lt;/span&gt;&lt;span class="n"&gt;B_local&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;H&lt;/span&gt;&lt;span class="p"&gt;),&lt;/span&gt; &lt;span class="n"&gt;dtype&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;float32&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;steps&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="p"&gt;[]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 按时间步循环&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="k"&gt;for&lt;/span&gt; &lt;span class="n"&gt;t&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="nb"&gt;range&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;T_local&lt;/span&gt;&lt;span class="p"&gt;):&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;x_t&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;x_np&lt;/span&gt;&lt;span class="p"&gt;[:,&lt;/span&gt; &lt;span class="n"&gt;t&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="p"&gt;:]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 1. 遗忘门&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;f_t&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;sigmoid&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;x_t&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;U_f&lt;/span&gt; &lt;span class="o"&gt;+&lt;/span&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;W_f&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 2. 输入门与候选记忆&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;i_t&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;sigmoid&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;x_t&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;U_i&lt;/span&gt; &lt;span class="o"&gt;+&lt;/span&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;W_i&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;c_tilde_t&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;tanh&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;x_t&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;U_c&lt;/span&gt; &lt;span class="o"&gt;+&lt;/span&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;W_c&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 3. 更新细胞状态&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;c_t&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;f_t&lt;/span&gt; &lt;span class="o"&gt;*&lt;/span&gt; &lt;span class="n"&gt;c_prev&lt;/span&gt; &lt;span class="o"&gt;+&lt;/span&gt; &lt;span class="n"&gt;i_t&lt;/span&gt; &lt;span class="o"&gt;*&lt;/span&gt; &lt;span class="n"&gt;c_tilde_t&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="c1"&gt;# 4. 输出门与隐藏状态&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;o_t&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;sigmoid&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;x_t&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;U_o&lt;/span&gt; &lt;span class="o"&gt;+&lt;/span&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt; &lt;span class="o"&gt;@&lt;/span&gt; &lt;span class="n"&gt;W_o&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;h_t&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;o_t&lt;/span&gt; &lt;span class="o"&gt;*&lt;/span&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;tanh&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;c_t&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;steps&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;append&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;h_t&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;c_prev&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;h_t&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;c_t&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="n"&gt;outputs&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;np&lt;/span&gt;&lt;span class="o"&gt;.&lt;/span&gt;&lt;span class="n"&gt;stack&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;steps&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;axis&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mi"&gt;1&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt; &lt;span class="k"&gt;return&lt;/span&gt; &lt;span class="n"&gt;outputs&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;h_prev&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;c_prev&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;代码逻辑清晰地反映了 LSTM 的工作流程：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;初始化&lt;/strong&gt;: &lt;code&gt;h_prev&lt;/code&gt; 和 &lt;code&gt;c_prev&lt;/code&gt; 分别被初始化为零向量，作为处理序列开始前的“短期记忆”和“长期记忆”。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;逐帧处理&lt;/strong&gt;: &lt;code&gt;for&lt;/code&gt; 循环遍历序列中的每一个时间步。&lt;/p&gt;
&lt;p&gt;（3）&lt;strong&gt;核心计算&lt;/strong&gt;: 循环内部的计算严格遵循了 LSTM 的四个步骤：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;计算&lt;strong&gt;遗忘门&lt;/strong&gt; &lt;code&gt;f_t&lt;/code&gt;，决定要从 &lt;code&gt;c_prev&lt;/code&gt; 中忘记多少信息。&lt;/li&gt;
&lt;li&gt;接着计算&lt;strong&gt;输入门&lt;/strong&gt; &lt;code&gt;i_t&lt;/code&gt; 和&lt;strong&gt;候选记忆&lt;/strong&gt; &lt;code&gt;c_tilde_t&lt;/code&gt;，准备要写入的新信息。&lt;/li&gt;
&lt;li&gt;然后，通过 &lt;code&gt;c_t = f_t * c_prev + i_t * c_tilde_t&lt;/code&gt; &lt;strong&gt;更新细胞状态&lt;/strong&gt;，实现了信息的遗忘和记忆。&lt;/li&gt;
&lt;li&gt;最后计算&lt;strong&gt;输出门&lt;/strong&gt; &lt;code&gt;o_t&lt;/code&gt; 并生成新的&lt;strong&gt;隐藏状态&lt;/strong&gt; &lt;code&gt;h_t&lt;/code&gt;。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;（4）&lt;strong&gt;状态更新&lt;/strong&gt;: &lt;code&gt;h_prev, c_prev = h_t, c_t&lt;/code&gt; 将当前计算出的状态传递给下一个时间步，完成“循环”过程。&lt;/p&gt;
&lt;p&gt;通过这个实现，可以直观地看到 LSTM 是如何通过门控机制，在每个时间步对信息流进行控制的。&lt;/p&gt;
&lt;h4 id="43-lstm-实现层面的优化"&gt;4.3 LSTM 实现层面的优化
&lt;/h4&gt;&lt;p&gt;在实际的深度学习框架（如 PyTorch、TensorFlow）中，为了提高计算效率，LSTM 的实现通常会进行一项优化。&lt;/p&gt;
&lt;p&gt;回顾 LSTM 的计算过程，遗忘门、输入门、候选记忆和输出门都对拼接向量 $[h_{t-1}, x_t]$ 进行了独立的线性变换：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;$f_t$ : $W_f \cdot [h_{t-1}, x_t] + b_f$&lt;/li&gt;
&lt;li&gt;$i_t$ : $W_i \cdot [h_{t-1}, x_t] + b_i$&lt;/li&gt;
&lt;li&gt;$\tilde{c}&lt;em&gt;t$ : $W_c \cdot [h&lt;/em&gt;{t-1}, x_t] + b_c$&lt;/li&gt;
&lt;li&gt;$o_t$ : $W_o \cdot [h_{t-1}, x_t] + b_o$&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这相当于对同一个输入进行了四次独立的线性层计算。为了优化，框架会将这四个权重矩阵和偏置项在内部进行&lt;strong&gt;拼接&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;将与输入 $x_t$ 相关的权重 $W_{fx}, W_{ix}, W_{cx}, W_{ox}$ 拼接成一个大的权重矩阵 $W_{x}$。&lt;/li&gt;
&lt;li&gt;将与隐藏状态 $h_{t-1}$ 相关的权重 $W_{fh}, W_{ih}, W_{ch}, W_{oh}$ 拼接成一个大的权重矩阵 $W_{h}$。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这样，四次独立的矩阵乘法就可以被合并成两次更大规模的矩阵乘法，然后再将结果切分成四份，分别送入各自的激活函数。这种方式能更好地利用 GPU 的并行计算能力，提升运算速度。&lt;/p&gt;
&lt;h3 id="五门控循环单元gru"&gt;五、门控循环单元（GRU）
&lt;/h3&gt;&lt;p&gt;GRU 由 Cho 等人在 2014 年提出 [^3]。它最初是在 &lt;strong&gt;RNN Encoder-Decoder&lt;/strong&gt; 框架下被提出的，旨在解决统计机器翻译中的短语表示问题。实验表明，这种结构能够很好地捕捉短语的语义和句法结构，并且相比 LSTM 更易于训练。&lt;/p&gt;
&lt;h4 id="51-gru-的主要改进"&gt;5.1 GRU 的主要改进
&lt;/h4&gt;&lt;p&gt;GRU 对 LSTM 做了两大核心改动：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;合并细胞状态与隐藏状态&lt;/strong&gt;：GRU 不再区分细胞状态 $c_t$ 和隐藏状态 $h_t$。它只有一个状态向量 $h_t$ 在时间步之间传递。这个 $h_t$ 既包含了长期记忆，也作为当前时间步的输出，类似于 RNN 的结构。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;简化门控结构&lt;/strong&gt;：GRU 将 LSTM 的三个门（遗忘、输入、输出）简化为了两个门：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;更新门（Update Gate, $z_t$）&lt;/strong&gt;: 它的作用类似于 LSTM 中耦合的遗忘门和输入门。它同时决定了要从前一状态 $h_{t-1}$ 中&lt;strong&gt;保留&lt;/strong&gt;多少信息，以及要从当前的&lt;strong&gt;候选状态&lt;/strong&gt;中接收多少新信息。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;重置门（Reset Gate, $r_t$）&lt;/strong&gt;: 决定在计算候选状态时，要&lt;strong&gt;忽略&lt;/strong&gt;多少来自前一状态 $h_{t-1}$ 的信息。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这种设计使得每个隐藏单元能够自适应地捕捉不同时间尺度的依赖关系，从而更灵活地处理长短句法结构。&lt;/p&gt;
&lt;h4 id="52-gru-单元结构与公式"&gt;5.2 GRU 单元结构与公式
&lt;/h4&gt;&lt;p&gt;一个 GRU 单元如图 3-3 在 $t$ 时刻接收两个输入，当前输入 $x_t$ 和前一时刻的隐藏状态 $h_{t-1}$。然后，它通过内部的两个门，计算出新的隐藏状态 $h_t$。&lt;/p&gt;
&lt;div align="center"&gt;
&lt;img src="https://cdn.jsdelivr.net/gh/Hanguangwu/MyImageBed01/img/3_2_2.svg" width="60%" alt="GRU 单元结构" /&gt;
&lt;p&gt;图 3-3 GRU 单元结构&lt;/p&gt;
&lt;/div&gt;
&lt;p&gt;其计算过程可以分解为以下四步：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;重置门（$r_t$）&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;决定如何将新输入 $x_t$ 与之前的记忆 $h_{t-1}$ 结合。这个门控制着哪些旧信息可以被用来计算“候选记忆”。&lt;/p&gt;
$$
r_t = \sigma(W_r \cdot [h_{t-1}, x_t] + b_r)
$$&lt;p&gt;（2）&lt;strong&gt;更新门（$z_t$）&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;控制前一时刻的状态信息 $h_{t-1}$ 有多少能够被直接带入到当前时刻。这与 LSTM 的遗忘门功能相似。&lt;/p&gt;
$$
z_t = \sigma(W_z \cdot [h_{t-1}, x_t] + b_z)
$$&lt;p&gt;（3）&lt;strong&gt;候选记忆（$\tilde{h}_t$）&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;计算当前时间步的候选隐藏状态。这个计算受到了&lt;strong&gt;重置门&lt;/strong&gt; $r_t$ 的影响。$r_t$ 与 $h_{t-1}$ 逐元素相乘，如果 $r_t$ 的某个元素接近 0，则表示在计算候选记忆时，将完全忽略掉 $h_{t-1}$ 对应维度的信息。&lt;/p&gt;
$$
\tilde{h}_t = \tanh(W_h \cdot [r_t \odot h_{t-1}, x_t] + b_h)
$$&lt;p&gt;（4）&lt;strong&gt;最终隐藏状态（$h_t$）&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;结合更新门 $z_t$、旧状态 $h_{t-1}$ 和候选记忆 $\tilde{h}_t$，生成当前时间步的最终输出 $h_t$。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;$z_t \odot h_{t-1}$：这部分表示对旧状态 $h_{t-1}$ 中需要&lt;strong&gt;保留&lt;/strong&gt;的信息。&lt;/li&gt;
&lt;li&gt;$(1-z_t) \odot \tilde{h}_t$：这部分表示从候选记忆 $\tilde{h}_t$ 中需要&lt;strong&gt;选择&lt;/strong&gt;的新信息。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这个更新机制非常巧妙，更新门 $z_t$ 的值在 0 到 1 之间，可以看作是一个“开关”。当 $z_t$ 接近 1 时，模型则倾向于保留更多的旧信息 $h_{t-1}$；当 $z_t$ 接近 0 时，模型倾向于保留更多的新信息（候选记忆）。&lt;/p&gt;
$$
h_t = z_t \odot h_{t-1} + (1 - z_t) \odot \tilde{h}_t
$$&lt;h3 id="六lstm-的常见变体"&gt;六、LSTM 的常见变体
&lt;/h3&gt;&lt;p&gt;标准的 LSTM 结构本身已经非常强大，但在其发展过程中，研究者们也提出了一些有趣的变体，用于简化计算或增强性能。其中两种著名的变体是“窥孔连接”和“耦合的输入/遗忘门”。&lt;/p&gt;
&lt;h4 id="61-窥孔连接peephole-connections"&gt;6.1 窥孔连接（Peephole Connections）
&lt;/h4&gt;&lt;p&gt;在标准 LSTM 中，三个门（遗忘、输入、输出）的决策依据仅来自当前输入 $x_t$ 和前一时刻的隐藏状态 $h_{t-1}$。但正如 Gers 和 Schmidhuber 在 &lt;strong&gt;《Recurrent Nets that Time and Count》&lt;/strong&gt; 一文中指出的，这种机制有一个潜在的弱点，&lt;strong&gt;门控单元无法直接“看到”它们控制的细胞状态&lt;/strong&gt; [^4]。&lt;/p&gt;
&lt;p&gt;特别是当输出门关闭时，隐藏状态 $h_{t-1}$ 接近于 0，此时门控单元失去了关于细胞内部状态的重要信息。为了解决这个问题，研究者提出了&lt;strong&gt;窥孔连接&lt;/strong&gt;，允许门控单元直接访问细胞状态：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;遗忘门和输入门&lt;/strong&gt;：在做决策时，会“窥视” &lt;strong&gt;前一时刻的细胞状态 $c_{t-1}$&lt;/strong&gt;。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;输出门&lt;/strong&gt;：在做决策时，会“窥视” &lt;strong&gt;当前刚刚更新的细胞状态 $c_t$&lt;/strong&gt;。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;实验表明，带有窥孔连接的 LSTM 在处理需要精确计时和计数的任务（如学习生成具有特定时间间隔的脉冲序列）时，性能显著优于标准 LSTM。&lt;/p&gt;
&lt;p&gt;公式上的变化体现为，在计算每个门时，额外加入一个与细胞状态相关的项：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;$f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + V_f \odot c_{t-1} + b_f)$&lt;/li&gt;
&lt;li&gt;$i_t = \sigma(W_i \cdot [h_{t-1}, x_t] + V_i \odot c_{t-1} + b_i)$&lt;/li&gt;
&lt;li&gt;$o_t = \sigma(W_o \cdot [h_{t-1}, x_t] + V_o \odot c_t + b_o)$&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;其中 $V_f, V_i, V_o$ 是新增的对角权重矩阵，代表窥孔连接的权重。由于细胞状态的维度通常与隐藏状态一致，所以这里的运算通常是按元素相乘，这意味着每个门的激活只受到其对应细胞单元状态的影响，保持了计算的局部性。&lt;/p&gt;
&lt;h4 id="62-耦合的输入与遗忘门coupled-input-and-forget-gate"&gt;6.2 耦合的输入与遗忘门（Coupled Input and Forget Gate）
&lt;/h4&gt;&lt;p&gt;该变体的思想是&lt;strong&gt;遗忘旧信息和写入新信息是紧密耦合的两个决策&lt;/strong&gt;。应该遗忘多少旧信息，恰恰是因为准备写入等量的新信息。&lt;/p&gt;
&lt;p&gt;基于此，它将输入门和遗忘门合并为一个决策。不再单独计算输入门 $i_t$，而是直接令 $i_t = 1 - f_t$。当遗忘门 $f_t$ 的某个元素为 0.8（保留 80% 的旧信息）时，对应的输入门元素就必须是 0.2（只允许 20% 的新信息进入）。细胞状态的更新公式因此变得更加简洁：&lt;/p&gt;
$$
c_t = (f_t \odot c_{t-1}) + ((1 - f_t) \odot \tilde{c}_t)
$$&lt;p&gt;这种方式不仅使得模型逻辑更直观，还减少了模型的参数量。Greff 等人在大规模实验研究中验证了这一点，发现 CIFG 可以在不降低模型性能的前提下有效减少计算开销 [^5]。&lt;/p&gt;
&lt;p&gt;除了验证 CIFG 的有效性外，该研究还对 LSTM 的架构进行了详尽的探索，得出了一些对工程实践极具价值的结论：&lt;/p&gt;
&lt;p&gt;（1）&lt;strong&gt;核心组件&lt;/strong&gt;：&lt;strong&gt;遗忘门&lt;/strong&gt;和&lt;strong&gt;输出激活函数&lt;/strong&gt;是 LSTM 中最关键的组件，移除它们会显著降低性能。&lt;/p&gt;
&lt;p&gt;（2）&lt;strong&gt;超参数独立性&lt;/strong&gt;：超参数之间几乎是独立的，这意味着可以单独调整学习率等参数，而无需进行复杂的组合搜索。&lt;/p&gt;
&lt;p&gt;（3）&lt;strong&gt;动量作用有限&lt;/strong&gt;：在在线随机梯度下降训练中，动量对 LSTM 的性能影响微乎其微。&lt;/p&gt;
&lt;h3 id="练习-1"&gt;练习
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;在前面的练习中，我们构建了一个基于全连接层的文本分类模型。现在，尝试将其改造为使用 LSTM 网络结构，以更好地捕捉文本中的序列信息。（可以参考&lt;a class="link" href="https://github.com/datawhalechina/base-nlp/blob/main/docs/chapter7/01_text_classification.md" target="_blank" rel="noopener"
&gt;文本分类简单实现&lt;/a&gt;）&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;h3 id="参考文献2"&gt;参考文献2
&lt;/h3&gt;&lt;p&gt;[1]: &lt;a class="link" href="https://doi.org/10.1162/neco.1997.9.8.1735" target="_blank" rel="noopener"
&gt;Hochreiter, S., &amp;amp; Schmidhuber, J. (1997). &lt;em&gt;Long short-term memory&lt;/em&gt;. Neural Computation, 9(8), 1735-1780.&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[2]: &lt;a class="link" href="https://doi.org/10.1162/089976600300015015" target="_blank" rel="noopener"
&gt;Gers, F. A., Schmidhuber, J., &amp;amp; Cummins, F. (2000). &lt;em&gt;Learning to forget: Continual prediction with LSTM&lt;/em&gt;. Neural Computation, 12(10), 2451-2471.&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[3]: &lt;a class="link" href="https://arxiv.org/abs/1406.1078" target="_blank" rel="noopener"
&gt;Cho, K., Van Merriënboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., &amp;amp; Bengio, Y. (2014). &lt;em&gt;Learning phrase representations using RNN encoder-decoder for statistical machine translation&lt;/em&gt;. Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), 1724-1734.&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[4]: &lt;a class="link" href="https://doi.org/10.1109/IJCNN.2000.861302" target="_blank" rel="noopener"
&gt;Gers, F. A., Schmidhuber, J. (2000). &lt;em&gt;Recurrent nets that time and count&lt;/em&gt;. Proceedings of the IEEE-INNS-ENNS International Joint Conference on Neural Networks (IJCNN), 3, 189-194.&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[5]: &lt;a class="link" href="https://doi.org/10.1109/TNNLS.2016.2582924" target="_blank" rel="noopener"
&gt;Greff, K., Srivastava, R. K., Koutník, J., Steunebrink, B. R., &amp;amp; Schmidhuber, J. (2017). &lt;em&gt;LSTM: A search space odyssey&lt;/em&gt;. IEEE Transactions on Neural Networks and Learning Systems, 28(10), 2222-2232.&lt;/a&gt;&lt;/p&gt;</description></item></channel></rss>