为什么 AI 写到第 5 章就忘了你的小说(以及如何修复)

AI 写作工具会迅速丢失上下文。本文解释其原因——上下文窗口、token 限制、无状态生成——并提供 4 种在长篇小说中保持故事连贯性的实用方法。

19 分钟阅读

你一直在用 AI 写小说。前三章很棒——文笔紧凑、角色一致、情节稳步推进。然后第 5 章出了问题:AI 把一个已经在第 2 章出场过的角色当成新人物介绍。你精心铺设的情节线被无视。文风从文学小说突变为青少年读物。

你没做错什么。AI 只是忘了你的小说。

这不是 bug——这是大语言模型的根本工作方式。一旦你理解了其中的机制,就能找到应对方法。本文解释 AI 为什么会丢失上下文、这到底有多大代价,以及四种保持连贯性的实用方法——从免费的手动技巧到自动化方案。

AI 为什么会忘记:技术现实(通俗版)

每个 AI 模型都有一个上下文窗口——它一次能"看到"的最大文本量。把它想象成 AI 的工作记忆。截至 2026 年:

| 模型 | 上下文窗口 | 大约相当于 | |------|-----------|-----------| | GPT-4o | 128K tokens | ~5 万字(一部短篇小说) | | Claude Sonnet | 200K tokens | ~8 万字 | | Gemini Pro | 1M tokens | ~40 万字 |

这些数字看起来很慷慨,但问题在于:

1. 上下文窗口 ≠ 可用上下文。 你的提示、系统指令和模型自身的输出都计入限额。128K 的窗口可能只给你留下 80K 用于实际的故事上下文——如果你运气好的话。

2. 中间部分的质量会下降。 研究一致表明,大语言模型对上下文窗口的开头结尾关注最多,中间的内容关注最少——所谓的"中间迷失"(lost in the middle)问题。所以即使你第 3 章的摘要在技术上放得下窗口,AI 也可能没有充分考虑它。

3. 每次生成都是无状态的。 这是关键。当你开始一条新的聊天消息或 API 调用时,AI 对之前的调用零记忆,除非你明确包含了那些上下文。它不是在"遗忘"——它从来就不知道。每次生成都从头开始,只有你放进提示里的内容。

4. 上下文窗口是昂贵的。 每次生成都发送 10 万 token 的上下文既慢又贵。你在为 AI "阅读"你的整部小说买单,只为了写一段话。

丢失连贯性的真实代价

角色不一致是最明显的症状。但丢失连贯性会导致更深层的结构性问题:

  • 情节线蒸发。 第 4 章埋下的推理线索永远不会被解决,因为 AI 在写第 20 章时根本不知道它的存在。
  • 节奏崩塌。 不知道前面章节的节奏,AI 就无法保持张力的积累或在恰当的时机提供缓解。
  • 世界规则被违反。 你的魔法体系在第 1 章确立了具体的限制条件。到第 15 章,角色们用的魔法方式打破了那些规则。
  • 伏笔落空。 AI 无法兑现它不知道的铺垫。

结果:你的小说读起来像是每几章就换了一个作者。因为从某种意义上说,确实如此——每次生成都是一个没有历史记忆的全新 AI。

方法一:手动上下文注入(免费,适用于任何工具)

最易上手的方法。每次生成前,你手动将相关上下文粘贴到提示中。

需要包含的内容:

1. 故事前提(2-3 句话)
2. 当前相关的角色档案
3. 最近 3 章的摘要
4. 未解决的情节线
5. 当前章节计划

优点:

  • 适用于任何 AI 工具(ChatGPT、Claude 等)
  • 你完全控制 AI 看到的上下文
  • 免费

缺点:

  • 耗时:每章 15-30 分钟的准备工作
  • 容易出错:漏掉一个细节,AI 也会漏掉
  • 不可扩展:到第 20 章时,决定包含什么本身就成了一个项目

时间成本估算: 对于一部 30 章的小说,预计仅在上下文管理上就要花费 8-15 小时——这些时间本可以用在创作决策上。

建议: 创建一个持续更新的"上下文文档",每写完一章就更新。用标题结构化组织,这样可以快速复制相关部分。这比每次提示前重新阅读之前的章节要快。

方法二:结构化摘要(免费,适用于任何工具)

相比原始上下文注入的一个改进。你不是粘贴全文,而是维护结构化的摘要。

每章结束后写:

  • 摘要(3-5 句话):这一章发生了什么。
  • 结局(3-5 句话):发生了什么变化。揭示的新信息、关系转变、角色状态变化、打开或关闭的情节线。
  • 活跃线索(要点列表):哪些未解决的问题或铺垫延续到后面。

为什么这比全文有效: 摘要高效地压缩信息。不需要把第 3 章的 5000 字全部发给 AI,你只需发送 100 字就能捕获关键事实。这意味着你可以在同样的窗口中装入更多章节的上下文。

示例:

第 7 章摘要: 马伦在图书馆档案中发现了密码信息。她解读了其中一部分——指向北海岸的坐标——但被沃斯局长打断,后者没收了她的笔记。

结局: 马伦现在知道了位置但失去了实体笔记。她记住了坐标但没记住信息的后半段。沃斯现在知道了她的调查。马伦和沃斯之间的信任破裂。

活跃线索: 坐标指向哪里?信息后半段说了什么?沃斯会对他看到的信息采取行动吗?

时间成本: 每章 5-10 分钟来写摘要。比原始注入可扩展得多。

方法三:基于 RAG 的方法(技术性,DIY)

检索增强生成(RAG)是一种技术,不是把所有内容都塞进上下文窗口,而是将小说数据存储在可搜索的数据库中,只检索每次生成相关的片段。

概念工作流程:

  1. 将所有章节、角色档案和世界设定存储在向量数据库中
  2. 生成第 15 章时,系统搜索与第 15 章计划相关的内容
  3. 只有最相关的片段被注入到提示中

优点:

  • 可扩展到非常长的小说
  • 相关上下文自动选择
  • 高效利用上下文窗口

缺点:

  • 需要技术搭建(向量数据库、嵌入模型、检索流程)
  • 检索不完美——可能遗漏没有明显关键词重叠的相关上下文
  • 对大多数作者来说不是开箱即用的方案

适合谁: 如果你是一个把写小说当爱好的程序员,这是个有趣的项目。如果你是一个想写作的作者,这可能不值得投入工程成本。

方法四:专用小说工具(自动化)

一些工具专门为长篇小说设计,将上下文管理作为核心功能而非事后补丁。

自动化上下文管理是什么样的:

  • 角色档案存储在持久数据库中,而非聊天记录中
  • 每章完成后,摘要和结局会自动提取
  • 生成新章节时,系统自动注入:小说背景 + 相关角色档案 + 所有之前章节的摘要/结局 + 当前章节计划
  • 你永远不需要手动粘贴任何东西

权衡: 你被锁定在特定工具的工作流中,而不是自由使用通用 AI。

Noveble 是这种方法的一个例子。它永久存储角色档案,自动生成章节摘要和结局,并在每次生成中注入完整的上下文链。结果是:当你生成第 20 章时,AI 知道第 1-19 章发生的一切——情节线、角色发展、未解决的问题——你不需要粘贴一个字。

选择你的方法

| 方法 | 搭建时间 | 每章成本 | 最适合 | |------|---------|---------|--------| | 手动注入 | 无 | 15-30 分钟 | 短篇小说(< 10 章) | | 结构化摘要 | 1 小时 | 5-10 分钟 | 中篇小说,任何工具 | | RAG | 10+ 小时 | 极少 | 程序员,超长小说 | | 专用工具 | 30 分钟 | 1-2 分钟 | 认真的长篇项目 |

对于大多数写 15 章以上小说的作者来说,结构化摘要是最低可行方案。它免费,适用于任何 AI 工具,而且能大幅提升连贯性。

如果你正在计划一部 30 章以上的小说,不想在上下文管理上花费大量时间,专用工具仅凭节省的时间就值回票价。

每章连贯性检查清单

无论你使用哪种方法,在定稿每一章之前过一遍这个清单:

  1. 角色事实 —— 有没有任何人做了与已设定的特征或能力矛盾的事?
  2. 情节线 —— 这一章是否提及了所有应该在此相关的活跃线索?
  3. 信息一致性 —— 每个角色是否只知道他们实际上已经了解到的信息?
  4. 文风和语言 —— 写作风格是否与前面的章节一致?
  5. 因果关系 —— 这一章中的一切是否从前面发生的事情中合乎逻辑地推导出来?
  6. 铺垫与回收 —— 如果这一章解决了一个铺垫,解决方式是否与最初设定一致?

这只需 5 分钟,就能捕捉到大多数连贯性错误——那种让读者说"等等,他们不是已经……"的错误。


想让上下文管理自动完成?Noveble 会跨整部小说追踪每一个情节点、角色细节和章节结局——让你可以专注于故事本身,而不是 AI 忘了什么。30 个免费积分,无需信用卡。

准备好开始你的小说了吗?

用 AI 辅助将你的故事创意变成一部完整的小说。免费试用,无需信用卡。

相关文章

您可能还会喜欢这些文章