We show that it is provable in PA that there is an arithmetically definable sequence $\{φ_{n}:n \in ω\}$ of $Π^{0}_{2}$-sentences, such that - PRA+$\{φ_{n}:n \in ω\}$ is $Π^{0}_{2}$-sound and $Π^{0}_{1}$-complete - the length of $φ_{n}$ is bounded above by a polynomial function of $n$ with positive leading coefficient - PRA+$φ_{n+1}$ always proves 1-consistency of PRA+$φ_{n}$. One has that the growth in logical strength is in some sense "as fast as possible", manifested in the fact that the total general recursive functions whose totality is asserted by the true $Π^{0}_{2}$-sentences in the sequence are cofinal growth-rate-wise in the set of all total general recursive functions. We then develop an argument which makes use of a sequence of sentences constructed by an application of the diagonal lemma, which are generalisations in a broad sense of Hugh Woodin's "Tower of Hanoi" construction as outlined in his essay "Tower of Hanoi" in Chapter 18 of the anthology "Truth in Mathematics". The argument establishes the result that it is provable in PA that $P \neq NP$. We indicate how to pull the argument all the way down into SEFA.


翻译:我们证明在PA中可证存在一个算术可定义的$Π^{0}_{2}$语句序列$\{φ_{n}:n \in ω\}$,满足以下条件:- PRA+$\{φ_{n}:n \in ω\}$是$Π^{0}_{2}$可靠且$Π^{0}_{1}$完备的;- $φ_{n}$的长度被一个具有正首项系数的$n$的多项式函数上界控制;- PRA+$φ_{n+1}$总能证明PRA+$φ_{n}$的1-一致性。该序列逻辑强度的增长在某种意义上是“尽可能快的”,这体现在:序列中真$Π^{0}_{2}$语句所断言其完全性的全体一般递归函数,在增长速率的意义上与所有全体一般递归函数的集合是共尾的。随后,我们提出一个论证,该论证利用通过对角线引理应用所构造的一个语句序列,这些语句在广义上是Hugh Woodin在其文集《数学中的真理》第18章文章“Tower of Hanoi”中概述的“汉诺塔”构造的推广。该论证确立了在PA中可证$P \neq NP$的结果。我们进一步说明了如何将这一论证完全下放到SEFA系统中。

0
下载
关闭预览

相关内容

数学上,序列是被排成一列的对象(或事件);这样每个元素不是在其他元素之前,就是在其他元素之后。这里,元素之间的顺序非常重要。
AI大模型证明了NP=P
专知会员服务
8+阅读 · 2025年8月30日
GPT-4在97轮对话中探索世界难题,给出P≠NP结论
专知会员服务
27+阅读 · 2023年9月15日
【2023新书】程序证明,Program Proofs,642页pdf
专知会员服务
67+阅读 · 2023年3月29日
专知会员服务
122+阅读 · 2021年1月31日
《动手学深度学习》(Dive into Deep Learning)PyTorch实现
专知会员服务
121+阅读 · 2019年12月31日
面试题:简单说说贝叶斯定理
七月在线实验室
12+阅读 · 2019年6月12日
考考你的眼力+细心度!
程序猿
11+阅读 · 2019年1月15日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
用PyTorch实现各种GANs(附论文和代码地址)
干货|掌握机器学习数学基础之优化[1](重点知识)
机器学习研究会
10+阅读 · 2017年11月19日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月18日
Arxiv
0+阅读 · 2月17日
VIP会员
相关资讯
面试题:简单说说贝叶斯定理
七月在线实验室
12+阅读 · 2019年6月12日
考考你的眼力+细心度!
程序猿
11+阅读 · 2019年1月15日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
用PyTorch实现各种GANs(附论文和代码地址)
干货|掌握机器学习数学基础之优化[1](重点知识)
机器学习研究会
10+阅读 · 2017年11月19日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员