人工智能个人助理的普及让隐私保护成为焦点。用户与人工智能聊天机器人交互时,个人信息常被母公司留存,甚至可能用于广告投放。Signal联合创始人Moxie Marlinspike去年12月推出的Confer项目,通过独特架构设计,为注重隐私的用户提供了替代方案。这款服务虽界面类似ChatGPT,但后端完全避免数据收集,并延续Signal的开源安全理念,确保对话内容不会被用于模型训练或定向广告。

Marlinspike强调,聊天界面是“主动诱导用户坦白的技术”,其信息获取能力远超传统人工智能工具。他直言:“当这类技术与广告结合,就像有人付费让心理咨询师说服你消费。”为应对这一风险,Confer采用多层加密机制:消息通过WebAuthn密钥系统加密,在移动设备或Sequoia系统Mac上效果最佳,Windows和Linux用户也可通过密码管理器实现;服务器端推理处理全部在可信执行环境(TEE)中完成,并配备远程认证系统,防止系统被入侵。TEE内嵌开源基础模型,处理所有用户查询,从源头切断数据泄露可能。
尽管技术架构比标准推理系统更复杂,Confer兑现了对用户的核心承诺:敏感对话全程加密,信息零泄露风险。服务提供免费和付费套餐,前者每日限发20条消息、同时进行5个聊天;后者月费35美元,支持无限访问、高级模型及个性化设置。虽然价格高于ChatGPT Plus,但Marlinspike认为:“隐私保护从来不是廉价的服务。”这一模式为人工智能行业提供了新思路——在技术进步与隐私保护间寻求平衡,或将成为未来竞争的关键。









