We present Graded Projection Recursion (GPR), a framework for converting certain blocked recursive algorithms into model-honest (i.e., reflects full bit complexity) near-quadratic procedures under bounded intermediate budgets. Part I gives a proof-complete {\em integral specification} of a three-band packing identity and a two-round middle-band extractor, and shows how per-node centering and sqrt-free dyadic l2 normalization (recursive invariant amplification) gives a sufficient packing base that grows linearly with the scaling depth (i.e., logarithmic bit-growth) in exact arithmetic. On fixed-width hardware, exact evaluation of the packed recursion generally requires either an extended-precision path or digit-band (slice) staging} that emulates b(n) bits of mantissa precision using w-bit words, incurring only polylogarithmic overhead; This leads to a soft-quadratic bit cost O(n^2) when b(n)=Θ(\log n) in the basic 2x2 recursion). Part II introduces execution-format comparators (e.g., IEEE-754), a drift ledger, and a decision-invariance theorem that supports commensurate-accuracy claims in floating arithmetic (and that cleanly accounts for any staged/truncated auxiliary drift). Part III provides case-study reductions (LUP/solve/det/inv, LDL^T, blocked QR, SOI/SPD functions, GSEVP, dense LP/SDP IPM kernels, Gaussian process regression, and representative semiring problems) showing how to export the kernel advantage without reintroducing uncontrolled intermediate growth. Part IV abstracts admissible packings and extractors via a master condition and an easily checkable BWBM sufficient condition, and sketches extensions to multilinear/multigraded kernels and non-rounding extractors (e.g., CRT and semiring bucket projections).


翻译:暂无翻译

0
下载
关闭预览

相关内容

NeurIPS 2025|从层次化掩码的视角统一并增强 Graph Transformer
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
赛尔译文|基础模型的风险与机遇(五)
哈工大SCIR
11+阅读 · 2021年11月30日
赛尔译文 | 基础模型的机遇与风险 (三)
哈工大SCIR
12+阅读 · 2021年10月26日
【Github】GPT2-Chinese:中文的GPT2训练代码
AINLP
52+阅读 · 2019年8月23日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
李宏毅-201806-中文-Deep Reinforcement Learning精品课程分享
深度学习与NLP
15+阅读 · 2018年6月20日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
相关VIP内容
NeurIPS 2025|从层次化掩码的视角统一并增强 Graph Transformer
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
相关资讯
赛尔译文|基础模型的风险与机遇(五)
哈工大SCIR
11+阅读 · 2021年11月30日
赛尔译文 | 基础模型的机遇与风险 (三)
哈工大SCIR
12+阅读 · 2021年10月26日
【Github】GPT2-Chinese:中文的GPT2训练代码
AINLP
52+阅读 · 2019年8月23日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
李宏毅-201806-中文-Deep Reinforcement Learning精品课程分享
深度学习与NLP
15+阅读 · 2018年6月20日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员