哥大首位华裔女副校长周以真认为因果关系是AI和机器学习的下一个前沿领域,这一观点基于当前AI技术对相关性依赖的局限性及因果推理在统计学中的长期研究基础。周以真的学术背景与研究方向周以真(Jeannette M. Wing)是美籍华人计算机科学家,现任哥伦比亚大学副校长,也是该校首位华裔女副校长。她的研究领域涵盖形式化方法、可信计算、分布式系统及编程语言等。1993年,她与图灵奖得主芭芭拉·利斯科夫合作提出Liskov代换原则,成为面向对象编程的核心原则之一。此外,她曾担任微软研究院全球业务副总裁,管理全球研究实验室,并在卡内基梅隆大学任教期间担任计算机科学系主任和学院学术事务副院长。因果关系为何成为AI前沿领域?周以真指出,当前AI和机器学习模型的核心能力是模式识别、相关性分析与关联发现,但它们无法回答关键问题:“是这个因素导致了那个结果吗?”“如果采取某些行动,会发生什么?”例如,医疗AI可能通过X光片数据预测癌症概率(如“75%可能性为恶性”),但无法解释“哪些具体因素导致了恶性结果”。这种局限性源于现有模型对概率性输出的依赖,而缺乏对因果机制的推理能力。统计学与计算机科学的交叉推动周以真强调,因果推理并非全新领域。统计学界已研究因果关系数十年,但计算机科学界此前对其重视不足。她认为,大数据与因果推理的结合将推动AI技术突破:统计学贡献:提供了因果推断的理论框架(如潜在结果模型、因果图)。AI需求:需要将这些理论转化为可计算的算法,以解决实际问题(如政策评估、医疗决策)。例如,在公共卫生领域,AI结合因果推理可分析“疫苗接种”与“疾病传播”的因果关系,而非仅统计两者相关性。(来源:《麻省理工科技评论》)可信AI与因果关系的关联周以真提出的可信AI框架(涵盖安全性、可靠性、隐私性、公平性及可解释性)中,因果关系是解决以下问题的关键:公平性:识别数据中的偏见因果链(如“性别→职业选择→收入”)。鲁棒性:分析输入扰动对输出的因果影响(如“图像噪声如何导致分类错误”)。可解释性:通过因果推理解释模型决策(如“为何拒绝贷款申请”)。她指出,传统计算系统是确定性的(0或1),而AI系统是概率性的,这要求研究者从形式化推理转向概率与统计推理,而因果关系正是这一转型的核心。学术贡献与行业影响周以真的观点反映了学术界对AI局限性的深刻认知。例如:图灵奖得主Yoshua Bengio曾呼吁加强因果推理研究,认为其是“下一代AI的关键”。DeepMind等机构已将因果学习纳入研究议程,尝试构建可解释的AI模型。周以真的独特性在于,她结合了产业经验(微软研究院)与学术洞察(卡内基梅隆大学、哥伦比亚大学),并从可信计算的角度强调因果关系的实践价值。总结周以真认为因果关系是AI和机器学习下一阶段的核心方向,原因包括:技术瓶颈:现有模型依赖相关性,无法解决“为什么”和“怎么办”的问题。学科交叉:统计学提供了理论工具,计算机科学需将其转化为算法。可信AI需求:因果推理是提升公平性、鲁棒性和可解释性的关键。她的观点不仅为学术研究指明方向,也为产业应用(如医疗、金融)提供了理论支撑。



































