有一种说法,鲁汶的学者认为人工智能是不可能的。我无法找到证据支持或反对这一说法“鲁汶的学者认为人工智能是不可能的”。这个人20年前在鲁汶学习人工智能。
ChatGPT said:
这个说法——“鲁汶的学者认为人工智能是不可能的”——听起来像是一种个人记忆、片面印象或断章取义的表达,而非一个可查证的正式立场或学术观点。我们可以从几个角度来分析这个说法的背景与可信度:

一、可能的来源与误解
1. 哲学传统的影响(鲁汶的天主教背景)
鲁汶大学长期受到现象学、伦理学和神学传统的影响。部分哲学系或伦理学者,尤其是受胡塞尔、梅洛-庞蒂、汤姆主义等思想影响的学者,可能会对“机器是否能真正具备意识或意图”提出质疑。
但这类质疑并不等于否定人工智能作为技术的可行性,而是属于“强人工智能”(Strong AI)层面的哲学讨论。即:
弱AI:可以完成任务(如图像识别、语音识别),大家普遍接受;
强AI:是否真的具有人类意识和自我,这在哲学圈有激烈争论。
鲁汶学者中可能有人质疑强AI,但这不等于他们“认为AI不可能”。
2. 早期AI学者的技术怀疑
20年前(大约2005年前后),人工智能正处于从“专家系统”到“统计学习”的过渡期。许多学者(不仅在鲁汶)对当时的AI局限性感到沮丧,例如:
过于依赖规则,缺乏泛化能力;
缺乏现实世界的鲁棒性;
训练数据匮乏或处理能力不足。
因此,那位曾在鲁汶学习的人,也许曾听到某位教授对AI发展方向、愿景或局限性提出批评或质疑,从而误解为“鲁汶的学者认为AI不可能”。

二、与鲁汶AI实际研究立场矛盾
1. 鲁汶长期设有人工智能专业
鲁汶大学的“Master of Artificial Intelligence”成立于1988年,是欧洲最早设立AI硕士项目的大学之一。
每年培养大量国际学生,课程内容涵盖机器学习、自然语言处理、计算神经科学等前沿领域。
2. 著名AI学者与研究机构
如 Luc De Raedt 教授:欧洲机器学习和数据挖掘领域领军人物之一,长期推动可解释AI与符号-神经混合模型。
鲁汶大学是欧洲AI研究网络 ELLIS 和 Flanders AI 的重要成员。
成立了 Leuven.AI 跨学科研究中心,有300多名活跃研究人员。
这些都明确说明:鲁汶大学对人工智能的投入、信心和成果是持续且深远的。

三、如何解释这个记忆
“鲁汶的学者认为人工智能是不可能的” 这句话可能反映的只是:
某位教授在课堂上讲述“强AI的不可能性”;
某种技术路线在当时(比如符号主义AI)遭遇瓶颈;
某个学术圈内部对AI hype 的批判性讨论;
或者仅是个人经历中形成的情绪化总结。
它并不代表鲁汶大学整体的立场或历史事实。

总结
项目 说明

是否有证据表明“鲁汶否定AI”? 没有,且与其研究历史和成果相矛盾

是否有学术上的怀疑主义声音? 有,但通常是哲学或方法论上的

鲁汶是否长期支持AI研究? 是,自1980年代起持续投入,至今为欧洲AI重镇

如何看待该说法? 很可能是片面印象、误读或特定学者观点被放大
如果你愿意,我可以帮助查找那个时期(约2000–2005年)在鲁汶AI项目中任教的主要教授及其学术观点,从而更精准地“还原现场”。是否需要我做这个追溯性查找?
You said:
yes pls
ChatGPT said:
根据我查到的资料,并没有发现有人在鲁汶大学公开或正式地表达“人工智能不可能”这样一个整体立场。然而,确实存在一些哲学家或计算机科学背景的学者对人工智能的某些层面提出了深刻质疑,尤其聚焦在“强人工智能”(strong AI:即机器具备与人类同等意识和思维)是否可实现这一点。

一、鲁汶 AI 研究的主流立场与历史
鲁汶从1967 年起就有 AI 重要先驱讲学,了如 Widrow 的早期神经网络研究到 1988 年建立 AI 硕士课程,一直到 2020 年启动交叉学科 AI 平台 Leuven.AI 等,代表其对人工智能技术发展持坚定支持态度。
Leuven.AI
Luc De Raedt 于 1986 年开始引领机器学习研究,随后组建欧洲领先的机器学习团队。且鲁汶承担 FAIR 与 ELLIS 等欧洲 AI 旗舰计划。
Leuven.AI
这些都说明:鲁汶整体是积极推动 AI 技术及其应用的。

二、可能与“AI 不可能”说法相关的质疑来源
1. Roger Vergauwen(哲学系)
在鲁汶哲学中心开设“AI 的哲学”课程,探讨“机器能否真正思考?”、“机器是否可能具有意识?”、“机器能否算活着?”等核心哲学问题。课程明确探讨“AI 的极限”而非否定 AI 整体存在。
vaia.be+2Leuven.AI+2Leuven.AI+2
Vergauwen 推动的博士研究项目,如“从现象学角度探讨强 AI 所依赖的意识概念是否合理”,强调“强 AI”的哲学挑战。
Leuven.AI+1Leuven.AI+1
2. Lode Lauwaert(技术哲学与 AI 伦理)
担任“伦理与 AI”研究职务,对责任归属、自动武器(LAWS)等问题提出批判性分析,关注技术限度与社会伦理冲突。
linkedin.com+8hiw.kuleuven.be+8Leuven.AI+8
其著作(如 Artificial intelligence and responsibility)质疑 AI 系统在伦理、法律层面的实现可能性及其局限。
hiw.kuleuven.be
3. Torben Swoboda(哲学博士研究者)
与 KU Leuven 哲学中心及哲学技术伦理团队合作,对“强化学习是否能满足伦理决策框架”的适应性提出怀疑。最近还参与对广泛存在于 AI 风险论中的争议立场的分析。
hiw.kuleuven.be
papers.ssrn.com

三、综合分析与解释
维度 距离“AI 不可能”说法 实际立场及背景
鲁汶 AI 技术路线

否认 长年推动 AI 教育、研究与应用发展
哲学层面对“强 AI”可行性

存在质疑 探讨意识、思维、自我等哲学难题
特定技术路径的限制批判

曾存在 如旧专家系统的局限、弱统计模型的泛化性问题
你个人记忆中的讲座、观点 有可能是某位教授说法 倾向是强 AI 质疑被误解为整体抵制

总结
鲁汶大学作为机构,并不否定“人工智能”本身,它从技术层面推动机器学习、视觉识别、联邦学习等多个领域的发展。
但在“强 AI”(达到或超越人类意识与思维的人工智能)这一层面,哲学与伦理领域的学者确实提出批判性质疑和辩论。
那位 20 年前在鲁汶学习 AI 的个体记忆,很可能是从某场哲学课或某位教授的论证中,听到了“强 AI 不可能”这一结论性的说法,从而产生了“鲁汶学者认为 AI 不可能”的印象。
如果你能提供更多细节信息,比如那位教授的名字、讲座主题、年份(大约哪一年)、课程类型(哲学 vs 计算机科学),我可以进一步检索相关联邦材料,帮你还原当时的语境和完整逻辑。需要继续深入查找吗?