Regulated AI workflows (such as clinical trials, medical decision support, and financial compliance) must satisfy strict auditability and integrity requirements. Existing audit-trail mechanisms rely on variable-length records, bulky cryptographic transcripts, or ad-hoc schemas, suffering from metadata leakage, irregular performance, and weak alignment with formal security notions.This paper introduces constant-size cryptographic evidence structures, a general abstraction for verifiable audit evidence in regulated AI workflows. Each evidence item is a fixed-size tuple of cryptographic fields designed to (i) bind strongly to workflow events and configurations, (ii) support constant-size storage and uniform verification cost per event, and (iii) compose cleanly with hash-chain and Merkle-based audit constructions. We formalize a model of regulated AI workflows, define syntax and algorithms for evidence structures, and prove security properties (evidence binding, tamper detection, and non-equivocation) via game-based definitions under standard assumptions (collision-resistant hashing and EUF-CMA signatures).We present a generic hash-and-sign construction using a collision-resistant hash function and a standard signature scheme, and show how to integrate it with hash-chained logs, Merkle-tree anchoring, and trusted execution environments. We implement a prototype library and report microbenchmarks on commodity hardware, demonstrating that per-event overhead is small and predictable. This work aims to provide a foundation for standardized audit mechanisms in regulated AI, with implications for clinical trial management, pharmaceutical compliance, and medical AI governance.


翻译:受监管人工智能工作流(如临床试验、医疗决策支持与金融合规)必须满足严格的审计性与完整性要求。现有审计追踪机制依赖变长记录、庞大加密记录或临时方案,存在元数据泄露、性能不稳定及与形式化安全概念契合度不足等问题。本文提出恒定大小加密证据结构——一种适用于受监管人工智能工作流中可验证审计证据的通用抽象。每个证据项均为固定大小的加密字段元组,其设计目标为:(1)与工作流事件及配置建立强绑定关系;(2)支持恒定大小存储与统一的事件验证开销;(3)与哈希链及Merkle树审计结构实现简洁组合。我们形式化建立了受监管人工智能工作流模型,定义了证据结构的语法与算法,并通过基于博弈的定义在标准假设(抗碰撞哈希与EUF-CMA签名)下证明了安全特性(证据绑定、篡改检测与不可抵赖性)。我们提出采用抗碰撞哈希函数与标准签名方案的通用哈希-签名构造,并展示其与哈希链日志、Merkle树锚定及可信执行环境的集成方案。通过实现原型库并在商用硬件上进行微基准测试,证明单事件开销小且可预测。本工作旨在为受监管人工智能领域的标准化审计机制奠定基础,对临床试验管理、制药合规及医疗人工智能治理具有重要影响。

0
下载
关闭预览

相关内容

工程可信赖的机器学习运维——基于零知识证明
专知会员服务
9+阅读 · 2025年5月27日
机密计算保障人工智能系统安全研究报告
专知会员服务
19+阅读 · 2025年1月20日
专知会员服务
63+阅读 · 2021年7月5日
央行发布《人工智能算法金融应用评价规范》,28页pdf
专知会员服务
76+阅读 · 2021年5月2日
《人工智能安全框架(2020年)》白皮书,68页pdf
专知会员服务
167+阅读 · 2021年1月9日
面向人工智能的计算机体系结构
计算机研究与发展
14+阅读 · 2019年6月6日
【大数据】大数据参考架构和关键技术(综合)
产业智能官
14+阅读 · 2018年11月22日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
智能时代如何构建金融反欺诈体系?
数据猿
12+阅读 · 2018年3月26日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
VIP会员
相关VIP内容
工程可信赖的机器学习运维——基于零知识证明
专知会员服务
9+阅读 · 2025年5月27日
机密计算保障人工智能系统安全研究报告
专知会员服务
19+阅读 · 2025年1月20日
专知会员服务
63+阅读 · 2021年7月5日
央行发布《人工智能算法金融应用评价规范》,28页pdf
专知会员服务
76+阅读 · 2021年5月2日
《人工智能安全框架(2020年)》白皮书,68页pdf
专知会员服务
167+阅读 · 2021年1月9日
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员