We show that no total functional can uniformly transform $Π_1$ primality into explicit $Σ_1$ witnesses without violating normalization in $\mathsf{HA}$. The argument proceeds through three complementary translations: a geometric interpretation in which compositeness and primality correspond to local and global packing configurations; a proof-theoretic analysis demonstrating the impossibility of uniform $Σ_1$ extraction; and a recursion-theoretic formulation linking these constraints to the absence of total Skolem functions in $\mathsf{PA}$. The formal analysis in constructive logic is followed by heuristic remarks interpreting the results in informational terms.


翻译:我们证明,在$\mathsf{HA}$中,任何全函数都无法在不违反正规化条件的情况下,将$Π_1$型素数性质一致地转化为显式的$Σ_1$型见证。论证通过三种互补的翻译展开:一种几何解释,其中合数与素数分别对应局部与全局的填充构型;一种证明论分析,展示一致提取$Σ_1$型见证的不可能性;以及一种递归论表述,将这些约束与$\mathsf{PA}$中全斯科伦函数的缺失相联系。构造性逻辑的形式分析之后,附有从信息论角度解读结果的启发性评注。

0
下载
关闭预览

相关内容

【牛津博士论文】无限维空间中的广义变分推断
专知会员服务
19+阅读 · 2025年8月11日
【NeurIPS2022】黎曼扩散模型
专知会员服务
43+阅读 · 2022年9月15日
NeurIPS 2021 | 寻找用于变分布泛化的隐式因果因子
专知会员服务
17+阅读 · 2021年12月7日
专知会员服务
50+阅读 · 2021年6月2日
专知会员服务
42+阅读 · 2021年4月2日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月8日
VIP会员
相关VIP内容
【牛津博士论文】无限维空间中的广义变分推断
专知会员服务
19+阅读 · 2025年8月11日
【NeurIPS2022】黎曼扩散模型
专知会员服务
43+阅读 · 2022年9月15日
NeurIPS 2021 | 寻找用于变分布泛化的隐式因果因子
专知会员服务
17+阅读 · 2021年12月7日
专知会员服务
50+阅读 · 2021年6月2日
专知会员服务
42+阅读 · 2021年4月2日
相关资讯
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员