Don't Trust! Verify.

我们是什么

ZeroClave 是面向敏感场景的隐私推理平台。我们通过 TEE 可信执行、PII 脱敏还原、路由约束与证明链,为企业提供真正可落地的隐私推理能力。

TEE 可信执行 PII 脱敏还原 路由约束 多种集成方式
不是口头承诺 而是执行依据 以及审计线索
TEE
隐私推理和策略处理发生在可信执行环境内
Trust
通过远程证明、约束和签名建立可信基础
PII
自动脱敏与还原,外部模型只看到占位符

为什么选我们

ZeroClave 的价值不只是把模型接起来,而是把硬件级安全、敏感数据保护、可认证路由和长期可信能力一起交付给企业。

面向真实生产环境,决定能不能上线的,往往不是模型效果本身,而是安全边界、数据暴露风险、上游可控性和长期可信背书。
TDX Security
优势一:TDX 硬件级安全加密能力
ZeroClave 基于 Intel TDX 构建可信执行边界,让敏感数据与关键推理逻辑在硬件保护的执行环境中运行,连平台运营方也不能直接接触明文。
内存加密保护 硬件级隔离 明文边界可控
这意味着企业不再只能依赖“我们不会看”的承诺,而是拥有一条建立在硬件安全基础上的可信路径。
PII Protection
优势二:PII 脱敏是企业接入 AI 的必要能力
在真实业务里,姓名、手机号、邮箱、证件号、地址、订单号和合同金额等字段会高频进入模型链路。没有系统级脱敏,就很难真正把 AI 用到敏感场景。
敏感字段识别 占位符替换 响应自动还原
ZeroClave 把这套能力收拢在可信边界内,让外部模型保留语义上下文,同时尽量不暴露真实身份数据。
Verifiable Routing
优势三:可认证路由决定你是否真正可控
当采购、法务或客户要求模型必须发往指定供应商时,普通代理的“不会偷偷换模型”并不足够。企业需要的是可证明、可复核的路由结果。
供应商绑定 不可暗中替换 路由可复核
ZeroClave 提供的不只是路由能力,而是带有证据链的路由控制能力,让“发给谁”这件事变得真正可信。
Research Strength
优势四:团队具备长期可信技术积累
ZeroClave 背后团队在国际顶级学术论文、发明专利和机密计算方向都有长期积累,在国内机密计算与可信执行领域处于领先梯队。
顶级论文积累 发明专利布局 机密计算领先
了解团队学术背景 ->
这让我们的产品不只是工程拼装,而是建立在持续研究、底层能力和长期技术判断之上的可信基础设施。

我们怎么实现

ZeroClave 通过多种方式实现隐私推理能力,覆盖可信执行、链路保护、敏感数据处理与集成交付。

🏛 独有
TEE 硬件隔离
内存加密保护,连平台运营商也无法访问明文。基于硬件的零信任架构,当前实现基于 Intel TDX。
🔗 可验证
可信认证与调用存证
三层信任链:TEE 证明 → Session 签名 → Turn 签名。用户可随时离线验证每一次 LLM 调用的完整性,无需信任运营方。
🌐 企业级
多模型路由·可证明
一个 Key 接入 DeepSeek / Qwen / GPT-4o / Claude 等主流模型。除自动 Fallback 外,还提供路由证明,证明 `codex` 一定请求 OpenAI,`claude` 一定请求官方模型提供方,而不是被平台私自替换。
🔐 独有
PII 自动脱敏·还原
中文 NER + 正则引擎,20+ 类型全覆盖,检测率 >90%。支持自定义规则和白名单,外部模型只看到占位符。
🚫 零日志
明文永不落盘
只记录 token 用量、延迟、模型元数据。不做 Prompt 回放,不存储对话内容。合规审计与隐私保护两不误。
🔑 可选增强
E2EE 端到端加密
ECDH X25519 密钥交换 + AES-256-GCM 加密,连网关也无法解密传输内容。适用于最高安全等级场景。

技术可信之外,也要回答上线顾虑

企业真正关心的不只是“能不能做”,还包括“为什么值得这样做”和“会不会影响现有业务”。

为什么不直接在业务代码里自己写脱敏逻辑?
应用侧手写脱敏规则很容易散落在多个服务里,策略难统一、白名单难管理、映射表也缺少可信边界。ZeroClave 把识别、替换、还原和签名收拢到 TEE 内,既减少重复工程,也让控制面更清晰。
占位符会不会影响模型效果?
对大部分摘要、分类、问答、审阅、生成任务来说,模型真正需要的是语义结构而不一定是真实身份值。我们保留上下文关系,只替换敏感值本身;如果某些字段必须保留,也可以通过白名单和策略做细粒度调整。
怎么证明平台运营方确实看不到明文?
ZeroClave 把明文处理限制在 TEE 内,并提供从执行环境证明到每轮调用签名的验证链。也就是说,你不需要只凭口头承诺相信“我们不会看”,而是可以验证“我们看不到”。
怎么证明平台没有偷偷把模型换掉?
这也是我们会专门提供证明的一部分。除了证明请求发生在可信执行环境内,我们还会给出路由层面的可验证证据,证明 `codex` 的请求确实发往 OpenAI,`claude` 的请求确实发往官方提供方,而不是被平台代理悄悄改成别的模型或别的上游。

把真实企业数据安全接进 AI

留下邮箱和主要场景,我们会基于你的数据类型给出接入建议与隐私策略方向。

提交后我们会结合你的场景,优先建议适合保留、脱敏和白名单放行的数据类型。
OpenAI SDK 兼容 明文不落盘 可验证调用链
已收到,我们会尽快联系你