国内平台使用生成式人工智能导致用户数据泄露的典型实例如下:一、某科研机构研究人员泄密事件2025年7月,国家安全部通报某科研机构研究人员小李在撰写研究报告时,为提高效率将核心实验数据、未公开科研成果等涉密信息上传至某AI应用软件。该AI平台默认存储并分析用户输入数据,导致涉密信息被捕获并泄露,造成研究领域重大安全风险。涉事人员因违反保密规定受到严肃处理,包括党纪政务处分及法律追责。此事件暴露了AI工具数据上传隐患:用户输入的核心数据可能被平台留存,或因黑客攻击、内部人员违规操作导致泄露。二、2024年8月国安部紧急通报的AI写作泄密事件部分涉密人员在起草涉密材料时,违规将涉密素材、文件内容输入AI写作小程序生成文章。AI工具通过自动采集输入信息用于模型训练,导致国家秘密被境外情报机构窃取。此类事件中,AI小程序的“数据回传”机制成为泄密关键路径——用户输入的敏感信息可能被传输至境外服务器,或通过算法筛选被定向获取。国家安全部明确指出,此类行为严重危害国家安全利益,涉事人员可能构成《刑法》中“为境外非法提供国家秘密罪”。三、三星公司机密外泄事件(国内关联案例)2023年3月,三星引入ChatGPT后,国内员工将半导体设备数据、源代码等敏感信息输入AI提问,导致机密内容进入学习数据库并外泄。尽管三星为跨国企业,但国内员工的操作直接参与了数据泄露过程,且泄露机制与国内平台风险一致:AI工具的算法黑箱与境外控制可能导致敏感信息被非法获取。例如,境外AI平台可能通过后门程序或算法筛选,定向窃取技术专利、商业机密等高价值数据。技术风险与防范建议上述案例揭示了生成式AI的三大核心风险:数据上传隐患:AI工具默认存储用户输入,核心数据可能被平台留存或遭黑客攻击;算法黑箱与境外控制:境外AI工具可能通过算法筛选敏感信息,或嵌入后门程序窃取数据;提示词攻击:恶意攻击者可通过设计提示词诱导AI泄露内部指令或敏感数据。防范措施包括:禁止在互联网或非涉密设备中使用AI处理涉密信息;优先选用国产可控AI工具,并关闭数据同步功能;发现泄密风险时,立即通过12339电话或国家安全部网络平台举报。



































