Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.


翻译:伏笔与呼应是普遍存在的叙事手法,作者通过它们在故事早期引入承诺,并通过具体可观察的结果予以解决。然而,尽管故事生成技术有所进展,大型语言模型(LLMs)在连接这些长程叙事依赖关系时仍经常失败,即使必要的上下文存在,也常常留下未响应的“契诃夫之枪”。现有的评估在很大程度上忽视了这种结构性失败,侧重于表面连贯性而非叙事铺垫的逻辑实现。本文提出编码化伏笔-呼应生成(CFPG),这是一个通过呼应实现视角重构叙事质量的新颖框架。认识到LLMs难以直观把握伏笔事件的“触发机制”,CFPG将叙事连续性转化为一组可执行的因果谓词。通过从BookSum语料库中挖掘并编码“伏笔-触发-呼应”三元组,我们提供了结构化监督,确保伏笔承诺不仅被提及,而且在时间和逻辑上得到实现。实验表明,CFPG在呼应准确性和叙事一致性方面显著优于标准提示基线。我们的研究结果表明,显式编码叙事机制对于推动LLMs从表面流畅性迈向真正的叙事能力至关重要。

0
下载
关闭预览

相关内容

【COLT 2025最新教程】语言生成
专知会员服务
16+阅读 · 2025年7月18日
《使用生成式大语言模型进行多语言事件提取》最新85页
《大型语言模型代码生成》综述
专知会员服务
68+阅读 · 2024年6月4日
使用多模态语言模型生成图像
专知会员服务
32+阅读 · 2023年8月23日
高效的文本生成方法 — LaserTagger 现已开源
TensorFlow
30+阅读 · 2020年2月27日
自然语言生成资源列表
专知
17+阅读 · 2020年1月4日
强化学习与文本生成
微信AI
41+阅读 · 2019年4月4日
最新论文解读 | 基于预训练自然语言生成的文本摘要方法
微软研究院AI头条
57+阅读 · 2019年3月19日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
基于深度学习的文本生成【附217页PPT下载】
专知
35+阅读 · 2018年11月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
高效的文本生成方法 — LaserTagger 现已开源
TensorFlow
30+阅读 · 2020年2月27日
自然语言生成资源列表
专知
17+阅读 · 2020年1月4日
强化学习与文本生成
微信AI
41+阅读 · 2019年4月4日
最新论文解读 | 基于预训练自然语言生成的文本摘要方法
微软研究院AI头条
57+阅读 · 2019年3月19日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
基于深度学习的文本生成【附217页PPT下载】
专知
35+阅读 · 2018年11月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员