理性人工智能的哲学谜题|麻省理工学院新闻

人工系统在多大程度上可以是理性的? 麻省理工学院的一门新课程, 6.S044/24.S00 (人工智能和理性)并不试图回答这个问题。相反,它挑战学生通过人工智能研究的视角探索这个问题和其他哲学问题。对于下一代学者来说,理性和能动性的概念可能会成为人工智能决策中不可或缺的一部分,特别是当受到人类如何理解自己的认知极限以及他们对理性或非理性的有限、主观看法的影响时。 这种探究植根于计算机科学和哲学之间的深厚关系,它们长期以来一直合作,将形成理性信念、从经验中学习以及在追求目标的过程中做出理性决策的形式化。 “你可能会认为计算机科学和哲学相距甚远,但它们总是有交叉的。哲学的技术部分确实与人工智能重叠,尤其是早期人工智能,”麻省理工学院松下计算机科学与工程系教授莱斯利·凯尔布林 (Leslie Kaelbling) 说,这让人想起了计算机科学家和哲学家艾伦·图灵 (Alan Turing)。凯尔布林本人拥有斯坦福大学哲学学士学位,她指出当时还没有计算机科学作为专业。 语言学和哲学系教授布莱恩·赫登 (Brian Hedden) 是麻省理工学院施瓦茨曼计算学院的教授,与电气工程和计算机科学系 (EECS) 共同担任该系主任,并与 Kaelbling 一起授课。他指出,这两个学科比人们想象的更加一致,并补充说“差异在于侧重点和视角”。 进一步理论思考的工具克 Kaelbling 和 Hedden 于 2025 年秋季首次推出人工智能和理性,作为 计算机教育的共同点, 麻省理工学院施瓦茨曼计算学院的一项跨领域举措,将多个部门聚集在一起开发和教授新课程,并推出将计算与其他学科相结合的新项目。 人工智能和理性有超过两打学生注册,是两个具有哲学基础的共同点课程之一,另一个是 6.C40/24.C40(计算伦理)。 虽然计算伦理探讨了对快速发展的技术的社会影响的担忧,但人工智能和理性通过考虑几个组成部分来审视有争议的理性定义:理性代理的本质、完全自主和智能代理的概念,以及对这些系统的信念和愿望的归属。 由于人工智能的实施范围极其广泛,并且每个用例都会引发不同的问题,因此 Kaelbling 和 Hedden 集思广益,可以在计算机科学和哲学的两种观点之间提供富有成效的讨论和参与。 “当我与学习机器学习或机器人技术的学生一起工作时,重要的是他们要退一步并检查他们所做的假设,”Kaelbling 说。 “从哲学角度思考问题可以帮助人们更好地支持和理解如何将他们的工作置于实际背景中。” 两位讲师都强调,这并不是一门课程,它不能为设计理性智能体的意义的问题提供具体答案。 赫登说:“我认为这门课程是为他们奠定基础。我们并不是给他们提供一套理论来学习、记忆然后应用。我们为他们配备了工具,让他们在进入自己选择的职业生涯时以批判性的方式思考问题,无论是在研究领域、工业界还是政府部门。” 人工智能的快速进步也给学术界带来了一系列新的挑战。凯尔布林认为,预测五年后学生可能需要知道什么是一项不可能完成的任务。 “我们需要做的是为他们提供更高层次的工具——思维习惯、思维方式——这将帮助他们处理我们目前无法预料的事情,”她说。 融合学科并质疑假设 到目前为止,该课程吸引了来自各个学科的学生——从那些扎实的计算机基础到其他有兴趣探索人工智能如何与自己的研究领域相交叉的人。 在整个学期的阅读和讨论中,学生们努力理解理性的不同定义,以及他们如何反驳各自领域的假设。 EECS 的大四学生阿曼达·帕雷德斯·里奥博 (Amanda Paredes Rioboo) 谈到这门课程让她感到惊讶的地方,她说:“我们被教导说,数学和逻辑是黄金标准或真理。这堂课向我们展示了各种人类行为与这些数学和逻辑框架不一致的例子。我们揭开了这整套蠕虫的谜底,是否人类是非理性的?是我们设计的机器学习系统非理性吗?是数学和逻辑本身吗?” 大脑与认知科学系的博士生朱尼尔·奥科罗阿福(Junior Okoroafor)很欣赏班级面临的挑战,以及理性主体的定义可能会根据学科而变化的方式。 “在正式框架中代表每个领域的理性意味着什么,可以清楚地明确哪些假设在各个领域是共享的,哪些是不同的。” […]

引导学习让“不可训练”的神经网络发挥其潜力 |麻省理工学院新闻

他们的研究结果表明,许多所谓的“无效”网络可能只是从不太理想的起点开始,而短期指导可以将它们置于一个使网络更容易学习的位置。 该团队的指导方法的工作原理是鼓励目标网络在训练期间匹配指导网络的内部表示。与知识蒸馏等专注于模仿教师输出的传统方法不同,指导将结构性知识直接从一个网络转移到另一个网络。这意味着目标学习指南如何组织每一层内的信息,而不是简单地复制其行为。值得注意的是,即使未经训练的网络也包含可以转移的架构偏差,而训练有素的指南还可以传达学习的模式。 “我们发现这些结果非常令人惊讶,”Vighnesh Subramaniam ’23、MEng ’24、麻省理工学院电气工程与计算机科学系 (EECS) 博士生和 CSAIL 研究员说道,他是一项研究的主要作者 纸 介绍这些发现。 “令人印象深刻的是,我们可以利用表征相似性来使这些传统上‘蹩脚’的网络真正发挥作用。” 引导天使 一个核心问题是指导是否必须在整个培训过程中持续进行,或者其主要作用是否是提供更好的初始化。为了探索这一点,研究人员使用深度全连接网络(FCN)进行了实验。在针对实际问题进行训练之前,网络使用随机噪声与另一个网络进行了几个步骤的练习,例如运动前的伸展运动。结果是惊人的:通常过度拟合的网络会立即保持稳定,实现较低的训练损失,并避免标准 FCN 中出现的典型性能下降。这种调整对于网络来说就像是一次有益的热身,表明即使是短暂的练习也可以带来持久的好处,而不需要持续的指导。 该研究还将指导与知识蒸馏进行了比较,知识蒸馏是一种流行的方法,学生网络试图模仿教师的输出。当教师网络未经训练时,蒸馏完全失败,因为输出不包含有意义的信号。相比之下,指导仍然产生了很大的改进,因为它利用的是内部表征而不是最终预测。这一结果强调了一个重要的见解:未经训练的网络已经编码了有价值的架构偏差,可以引导其他网络进行有效的学习。 除了实验结果之外,这些发现对于理解神经网络架构也具有广泛的意义。研究人员认为,成功或失败通常较少取决于特定于任务的数据,而更多地取决于网络在参数空间中的位置。通过与指导网络保持一致,可以将架构偏差的贡献与所学知识的贡献分开。这使得科学家能够确定网络设计的哪些特征支持有效学习,以及哪些挑战仅仅源于不良的初始化。 拯救绝望的人 “人们普遍认为不同的神经网络架构有特定的优点和缺点,”约翰·霍普金斯大学认知科学助理教授 Leyla Isik 说,她没有参与这项研究。 “这项令人兴奋的研究表明,一种类型的网络可以继承另一种架构的优势,而不会失去其原有的功能。值得注意的是,作者表明这可以使用小型的、未经训练的‘引导’网络来完成。本文介绍了一种新颖而具体的方法,可以将不同的归纳偏差添加到神经网络中,这对于开发更高效、更人性化的人工智能至关重要。” Subramaniam 与 CSAIL 同事共同撰写了这篇论文:研究科学家 Brian Cheung;博士生 David Mayo ’18,工程硕士 ’19;助理研究员科林·康威尔;首席研究员 Boris Katz(CSAIL 首席研究科学家)和 Tomaso Poggio(麻省理工学院脑与认知科学教授);和前 CSAIL 研究科学家 Andrei Barbu。他们的工作部分得到了大脑、思维和机器中心、国家科学基金会、麻省理工学院 CSAIL 机器学习应用计划、麻省理工学院-IBM 沃森人工智能实验室、美国国防高级研究计划局 (DARPA)、美国空军人工智能加速器部和美国空军科学研究办公室的支持。 他们的工作最近在神经信息处理系统 (NeurIPS) 会议和研讨会上进行了展示。 1766094515 2025-12-18 21:20:00 #引导学习让不可训练的神经网络发挥其潜力 […]