Let $X$ be a projective nested product of fields and let $δ_X(d)$ be the minimum distance in degree $d\geq 1$ of the projective nested Cartesian code $C_X(d)$. The regularity index ${\rm reg}(δ_X)$ of the minimum distance function $δ_X$ is the minimum integer $d_0\geq 0$ such that $δ_X(d)=1$ for $d\geq d_0$. We give a formula for ${\rm reg}(δ_X)$ by determining an indicator function of least degree for each point of $X$ and using the fact that ${\rm reg}(δ_X)$ is the ${\rm v}$-number of the vanishing ideal $I_X$ of $X$. Then we give an arithmetical criterion that characterizes when $X$ is Cayley--Bacharach.


翻译:设 $X$ 为域的射影嵌套积,并令 $δ_X(d)$ 为射影嵌套笛卡尔码 $C_X(d)$ 在次数 $d\geq 1$ 下的最小距离。最小距离函数 $δ_X$ 的正则指标 ${\rm reg}(δ_X)$ 是使得对于所有 $d\geq d_0$ 均有 $δ_X(d)=1$ 的最小整数 $d_0\geq 0$。我们通过确定 $X$ 中每个点的最低次指示函数,并利用 ${\rm reg}(δ_X)$ 等于 $X$ 的消去理想 $I_X$ 的 ${\rm v}$-数这一事实,给出了 ${\rm reg}(δ_X)$ 的公式。随后,我们给出了刻画 $X$ 何时为 Cayley--Bacharach 性质的算术判别准则。

0
下载
关闭预览

相关内容

损失函数,在AI中亦称呼距离函数,度量函数。此处的距离代表的是抽象性的,代表真实数据与预测数据之间的误差。损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
【康奈尔大学】度量数据粒度,Measuring Dataset Granularity
专知会员服务
13+阅读 · 2019年12月27日
近期语音类前沿论文
深度学习每日摘要
14+阅读 · 2019年3月17日
用于数学的 10 个优秀编程语言
算法与数据结构
13+阅读 · 2018年1月5日
最新|深度离散哈希算法,可用于图像检索!
全球人工智能
14+阅读 · 2017年12月15日
各种相似性度量及Python实现
机器学习算法与Python学习
11+阅读 · 2017年7月6日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
认知战与交战性质的改变:神经战略视角
专知会员服务
5+阅读 · 5月8日
相关VIP内容
【康奈尔大学】度量数据粒度,Measuring Dataset Granularity
专知会员服务
13+阅读 · 2019年12月27日
相关资讯
近期语音类前沿论文
深度学习每日摘要
14+阅读 · 2019年3月17日
用于数学的 10 个优秀编程语言
算法与数据结构
13+阅读 · 2018年1月5日
最新|深度离散哈希算法,可用于图像检索!
全球人工智能
14+阅读 · 2017年12月15日
各种相似性度量及Python实现
机器学习算法与Python学习
11+阅读 · 2017年7月6日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员