
边缘 AI + 可解释性 + 隐私计算,三大技术支柱构建值得信赖的健康 AI 平台


边缘 AI 计算
本地智能,数据不出设备
可解释 AI
不仅给出结果,还解释原因
隐私优先架构
用户数据主权的技术保障
AI 告诉你为什么
不仅给出结果,还解释决策过程,让 AI 真正值得信赖
推理路径可视化
将 AI 决策过程呈现为流程图,用户可追溯每个节点背后的逻辑
示例输出
心率异常 → 睡眠不足(权重 0.4)+ 压力指标(权重 0.3)+ 运动量(权重 0.3)→ 建议休息
特征贡献分析
定量展示每个输入特征对预测结果的影响
示例输出
皮肤状况评分:饮水量 32% + 睡眠质量 28% + 紫外线暴露 25%...
自然语言解释
AI 生成人类可读的解释,而非纯数字结果
示例输出
"你的疲劳指数较高,主要原因是过去 3 天平均睡眠仅 5.2 小时,建议今晚提前 1 小时入睡"
置信度 透明
每个预测都包含置信区间,让用户了解 AI 的"确定程度"
示例输出
健康风险评估:72 分(置信区间:68-76,置信度:87%)

传统 AI vs Orbiva 可解释 AI
传统黑盒 AI
输出: "你的健康评分是 72" 用户疑问:为什么是 72?哪些需要改善?
Orbiva 可解释 AI
输出: "你的健康评分是 72" + 睡眠质量(-15):过去 3 天平均仅 5.2 小时 + 运动量(-8):本周步数低于目标 40% + 建议:今晚提前 1 小时入睡,明天增加 3000 步
你的数据,你做主
隐私不是附加功能,而是我们的核心设计原则
本地优先处理
敏感数据在设备端分析,从不上传
端到端加密
AES-256 加密,传输过程也安全
差分隐私
对聚合数据添加噪声,保护个人隐私
完全用户控制
随时查看、导出或删除你的所有数据
合规认证

ISO 27001
信息安全管理

GDPR
欧盟数据保护

SOC 2
服务组织控制

HIPAA
医疗信息合规
核心研究团队
与计算机科学与工程学院深度合作,联合共建 AI 健康边缘计算实验室

Prof. Lim Joo Hwee
首席研究员

Dr. Chen Wei
联合研究员

Prof. Ong Yew Soon
顾问
代表性论文
面向多模态健康预测的深度学习
Nature Digital Medicine, 2024
可穿戴设备的隐私保护边缘计算
Nature Digital Medicine, 2024
面向多模态健康预测的深度学习
Nature Digital Medicine, 2024
面向多模态健康预测的深度学习
Nature Digital Medicine, 2024
