学术月讲座回顾 | 任晓明教授:人工智能范式变革与因果认知

2023-12-18 12:32:00 来源:华南师范大学哲学与社会发展学院 点击: 收藏本文

 2023年11月28日上午,华南师范大学哲学与社会发展学院「哲学·社会·思想」学术月暨第三届哲学月第七场讲座顺利召开。四川大学特聘教授、南开大学教授、博士生导师任晓明教授受邀做了题为“人工智能范式变革与因果认知”的讲座,本次讲座由华南师范大学哲学与社会发展学院闫坤如教授主持,学院多名老师以及部分在读博士、硕士和本科生参与了本次讲座。

1.jpg

1 主讲人任晓明教授

 首先,任教授对人工智能发展历史进行简要介绍。他指出人工智能研究范式从第一代向第二代的发展,即早期符号主义AI到联结主义AI的发展通常是以复杂性和可解释性为代价来获得更高的准确性。而随着AI机器对重要领域的介入,如交通、医疗、金融等领域,人工智能在2015年迎来了第三代研究范式——可解释人工智能(XAI)。

2.jpg

2 主持人闫坤如教授

 其次,任教授对智能认知能力进行定义。他引用美国计算机科学家和神经科学家杰夫•霍金斯(Jeff Hawkins)的观点指出,人们通常将“智能”等同为“表现智能的行为”,然而真正“理解”智能是无法通过外部行为来测量,它实际上是一个内在度量的指标。智能是一种“预测未来的能力”,预测的实质是“生物的应激性”在“内部反应机制”和“环境压力”下所激发出来的适应能力。任教授还进一步地指出,预测不仅仅是计算,更是算计,是一种对各种可能性的有利把握。

 接着,任教授对符号主义AI模型和联结主义AI模型不具备“智能”认知能力的原因进行阐述。他指出,由于符号主义AI认为智能就是编程,没有尝试模拟人脑的组织模式以及自学的学习方式,这种内部反应机制决定了符号主义AI本身不是智能的,它只是在某种程度上实现了智能的行为。联结主义AI比符号主义AI更具智能的地方在于模拟了人脑神经元的组织模式,但仍无法与人脑的复杂结构相媲美。因此,联结主义AI还无法达到理想的智能认知状态。

 任教授认为当前的联结主义模型(大语言模型等)虽然目前已经实现了“浅层理解”,但要达到“深度理解”还需要凭借新一代XAI技术。他对XAI因果机制部分内容的介绍,主要从复杂性和可解释性的角度对因果推理的两大认知框架,即依赖框架和倾向框架的优势和缺陷对进行梳理。在此问题上,任教授提出了自己的创见,认为机器学习中“没有免费午餐定理”对相关研究者或许能有所启发,并有概率形成新一代因果认知理论。

 由此,任教授总结道,人工智能研究范式变革推动论认知科学研究范式的深刻变革,这将推动因果认知的不同框架、理论的互补和融合,从而进一步推进认知科学、逻辑哲学、语言哲学等相关领域的发展。同时,因果认知框架催生的更多可解释性技术或深度学习模型也将再次反哺人工智能的发展和变革。

3.jpg

3 老师提问

 讲座最后,闫坤如教授对任教授的讲座做了简要总结,任教授则对老师与同学们提出的问题,包含“复杂性和可解释性的意义”“结构对智能的重要性”“人工智能的可控性问题如何考虑”等问题进行细心解答,这也引发师生们进一步的热烈讨论。

4.jpg

4 合影留念

 讲座结束后,任晓明教授与参会人员合影留念。至此,本次讲座圆满结束!

文案|蔡姿淇

图片|学术月采写组

校对|刘瑞敏

初审|陈思婷

复审|高贝贝 孙楹

终审|熊明