DC超人票房亮眼,神奇四侠首战恐难超越
阅读全文

锤刻创思寰宇网
随着消费者、企业和政府纷纷拥抱廉价、快速且看似神奇的AI工具,一个无法回避的问题始终存在:如何保障数据隐私?
即便在企业自认为数据受保护的场景下,OpenAI、Anthropic、xAI、谷歌等科技巨头仍在暗中收集并保留用户数据,用于改进模型或安全监控。对于监管严格的行业或前沿领域的公司而言,这种灰色地带可能成为合作障碍。医疗、金融和政府机构对数据流向、可见性及使用方式的担忧,正在延缓AI技术的应用进程。
总部位于旧金山的初创企业Confident Security立志成为“AI领域的Signal(加密通讯应用)”。其产品CONFSEC是一款端到端加密工具,可包裹基础模型,确保即使模型提供商或第三方也无法存储、查看或将用户提示词与元数据用于AI训练。
“数据交给他人的瞬间,隐私就已受损。”Confident Security创始人兼CEO乔纳森·莫滕森(Jonathan Mortensen)向TechCrunch表示,“我们的产品就是要消除这种妥协。”据悉,该公司近日结束隐匿模式,获得由Decibel、South Park Commons、Ex Ante和Swyx投资的420万美元种子轮融资。
CONFSEC借鉴了苹果私有云计算(PCC)架构。该系统首先通过Cloudflare等服务平台加密路由数据实现匿名化,使服务器无法获取原始信息;随后采用高级加密技术,仅允许在“不记录数据、不用于训练、不向任何人披露”等严格条件下解密;最后,AI推理软件运行日志将公开供专家核验。
“当行业还在讨论AI信任问题时,Confident Security已洞察到未来取决于基础设施内生的信任机制。”投资方Decibel合伙人杰斯·莱昂(Jess Leão)评价道。尽管成立仅一年,CONFSEC已完成测试和外部审计,目前正与银行、浏览器及搜索引擎等客户洽谈部署事宜。
“您提供AI,我们守护隐私。”莫滕森这样定义公司的使命。该技术同样适用于Perplexity新推出的Comet等AI浏览器,确保敏感数据不会留存于可能被企业或黑客访问的服务器,工作相关提示词也不会被用于“训练替代人类的AI”。