张成岗(CZ)的博客世界分享 http://blog.sciencenet.cn/u/zcgweb 脑损伤与脑保护;神经认知;生物信息;蛋白质组;辐射损伤与防护

博文

[转载]“机器人伦理1.0”学术研讨会暨哲学与认知科学跨学科交叉平台年度规划启动仪式

已有 270 次阅读 2021-6-12 12:18 |系统分类:科研笔记|文章来源:转载

http://phi.ruc.edu.cn/Index/news_cont/id/6442.html 

“机器人伦理1.0”学术研讨会暨哲学与认知科学跨学科交叉平台年度规划启动仪式

日期: 2021-06-11

640.jpeg

2021年5月28日,由中国人民大学哲学与认知科学跨学科交叉平台主办的“机器人伦理1.0”学术研讨会暨平台年度规划启动仪式在京召开。中国人民大学发展规划处副处长陈敏鹏教授、哲学院副院长张霄教授、平台首席专家和研究员,以及人工智能界、计算机科学界、认知科学界、哲学界和艺术界的近百名专家学者参加了本次会议。本次会议聚焦于机器人的伦理问题,采取特邀报告和圆桌对话相结合的形式。而人工智能的哲学、逻辑、伦理与政治问题研究也是平台总体研究规划实施的一个部分

640-1.jpeg

会议第一时段是研讨会开幕式暨平台2021年度规划启动仪式,由心理学系系主任、平台首席专家胡平主持。发展规划处副处长陈敏鹏教授、哲学院副院长张霄教授分别致辞,平台首席专家刘晓力、朱锐和胡平三位教授分别就平台工作和新一轮启动计划进行汇报。

640-2.jpeg

640-3.jpeg





发展规划处副处长陈敏鹏教授致辞

首先,陈敏鹏副处长致辞,肯定了自2018年6月至今,人民大学哲学与认知科学跨学科交叉平台作为国家投入、学校重点建设的一个非常重要的双一流跨学科重大创新平台,三年来在人才培养、科学研究和体制机制等各个方面所取得的丰富成果,甚至在文理交叉平台运行机制上都有建设性的启发意义。在此基础上陈处长进一步对平台未来的发展提出新的期望,希望平台能够深化创新并进一步完善。她表示,规划处未来也将继续全力支持平台建设,打造一批成熟的双一流跨学科重大创新平台,建立中国人民大学完整的平台体系。

640-4.jpeg

哲学院副院长张霄教授致辞

张霄副院长在致辞中首先指出,在人民大学众多交叉学科研究平台之中,哲学与认知科学跨学科交叉平台是走在前列、特别重视人文与理工学科交叉合作的一个杰出典型,并表示哲学院将继续大力支持平台建设。随后他从伦理学研究的专业视角,强调了在机器人伦理学研究中关于机器人主体、伦理嵌入、机器人算法与相关性等前沿话题的重要价值。

640-5.jpeg

平台首席专家刘晓力教授汇报

刘晓力教授接下来重点汇报了平台的主要研究方向、研究目标,以及2021年的年度规划。她首先回顾了哲学院联合心理学系正式成立交叉平台,三年来在学校和哲学院、心理学系的大力支持下,取得了累累硕果,无论在研究产出还是贡献学术、社会服务方面,都有很好的表现,在平台评估中也获得专家高度评价。在2021年,平台在原有基础上还计划打造一个以交叉研究主题为核心的知识社区图谱数据库:从哲学、心理、脑神经科学、人工智能、认知语言学和艺术的交叉视野,对知觉、表征、认知局限、理解、洞见、主体性、无知与偏见、意识、意向性、预测心智等涉身性认知研究主题建立路径指南性平台。2021年将继续主编《认知科学》杂志、出版译著和专著系列;继续举办已经有非常大影响力的“明德讲坛”系列及线上线下学术会议。

640-6.jpeg640-6.jpeg




640-7.jpeg

平台首席专家朱锐教授汇报

朱锐教授从具体的交叉合作与国际学术交流层面作了细致的部署和展望。特别对于学术交流的主题设置、科研活动的具体安排、理论成果的推广与宣传等方面都提出了实际有效、富有可行性的建议。鼓励平台研究员与合作院校和机构共同筹办4-6个不同学科和行业的圆桌会议等,真正实现充实有效、高品质的跨学科、跨行业、多视角的学术交流。

640-8.jpeg

平台首席专家胡平教授汇报

胡平教授着重强调了平台在哲学与社会科学交叉研究中的社会现实意义和当前时代中的重要实践面向。胡平教授指出,在当前的时代,人工智能和机器人等技术飞速发展。在这样的时代之中,我们每个人都面对海量数据。而机器根据大数据所计算出来的某种“人格”是否等同于一个真实的人格和自己?关于人与动物的区分、基于人格的预测、意识和心灵的本质等,也是心理学和认知科学研究面临的非常深刻的话题,而这些问题随着技术的不断发展都迫切呼唤跨学科的交流与对话。文理学科之间深刻的交流和交融,才能对很多现实社会面临到的重要问题提供更有效的支持和帮助。

640-9.jpeg


启动仪式最后一项是哲学与认知科学跨学科交叉平台2021年度研究员聘任仪式。随后,会议进入第二阶段——“机器人伦理1.0”学术研讨会特邀报告环节。第一场特邀报告由刘晓力教授主持。


640-10.jpeg

贾福新先生介绍了《机器人伦理学》一书的出版情况。他认为当前随着智能机器人技术的不断发展,社会各界注定要直面机器人技术所带来的伦理问题,而这正是人机共生时代的每个人都需要从《机器人伦理学》这样的书中所追问和探索的重要话题。因而,《机器人伦理学》一书具有极高的社会价值。

640-11.jpeg

640-13.jpeg

薛少华:生态式进路的机器人伦理学

接下来,《机器人伦理学》一书的中译者、平台研究员、北京理工大学人文学院科学技术与社会研究所副所长薛少华做了“生态式进路的机器人伦理学”专题报告。他首先简要回顾了翻译工作的艰辛历程,以及在北京理工大学连续4年开设“人工智能伦理”课程的教学经历。他在报告中指出,机器人伦理学是涉猎领域非常广泛的学问,涉及哲学、人工智能、军事、法律、医学、人造人、社交、陪护、依恋、宗教、编程等各种各样的、几乎涵盖了人类方方面面的众多领域。而这也恰恰反映了在我们所身处的当今时代,机器人已经深入到了各个领域。关于机器人伦理学研究的前沿进展,薛少华着重分析了机器人伦理的生态式研究路径。他首先从“生命之树”提出以下问题:与人类自组织的生命相比,机器人生命是否具有所谓生命之树上的生态学位置?机器人生命是否可以看做生命之树的一种新的演化模式?结合生态心理学家和哲学家吉布森的生态学研究理论、“吉普森环境”、生态机器人,以及机器人在军事、社交陪护等领域的应用,薛少华指出了机器人伦理学讨论在当下社会的重要现实价值,这其中涉及到人的强烈情感投射。在人口老龄化的未来,社交陪护机器人的人格化问题以及机器人和人的交互也影响着军事、宗教等广泛领域。薛少华指出,机器人作为一种高密度与人类进行交互的种群,应当具有某种意义上的生态位。薛少华提出,机器人生态研究路径主要有三种,分别是机器人学的生态路径,机器人交互设计的生态路径和机器人伦理的生态路径。

640-14.jpeg

陈小平:什么是机器人伦理的重大挑战?

中国人工智能学会人工智能伦理道德专业委员会主任、中国科学技术大学机器人实验室主任陈小平教授带来了题为“什么是机器人伦理的重大挑战?”的特邀报告。陈小平教授提出,在机器人伦理这样一个大的课题中,主要存在以下三个方面的重大挑战。首先,第一个重大挑战在于如何理解人工智能和机器伦理的终极使命。他认为这种终极使命应在于增进人类的福祉,无论是“负责任的AI”,还是“可信赖的AI”,都是在对人类福祉负责的角度上谈的。第二个重大挑战在于AI发展中所遇到的问题恰恰并非因为技术发展太快所导致,而是源于全球AI发展不够快,特别是在产业落地上做得不够好。他认为现有人工智能的技术条件,也就是封闭性准则,在当下未得到充分关注。人工智能技术以及相关伦理问题,都应该被放置在其真实的情况和技术条件下去研究。随后,陈小平提到机器人伦理问题的第三个重大挑战在于长期效应和界外效应。他以“机器换人”现象为例,分析了产业需求和机器人应用到产业所引发的一些可能的长期效应以及社会层面的考虑,而这些都是技术带来的长期效应和界外效应的体现。最后一个重大挑战在于情感上的人机交互。陈小平认为情感人-机器人交互的社会需求非常大,涉及空巢群体、新生代文化群体、少儿教育娱乐、心理干预等多方面。而这项技术带来的长期后果可能是出现“非人非物、亦人亦物”的第三类存在,也将对人机关系本身造成长远影响。在情感人机交互的这一重大挑战面前,应该坚持公义原则,将市场要素和非市场要素的公义性组合,兼顾人性原则与商业利益。

640-15.jpeg

曾毅:人工智能的近期与远期伦理挑战

中国科学院自动化研究所研究员、类脑智能研究中心副主任曾毅教授做了题为“人工智能的近期与远期伦理挑战”的特邀报告。曾毅主要围绕人工智能技术的伦理风险问题展开论述。他首先提醒技术学者注意一个重要的问题,即当下人工智能技术的发展过程中,存在一些用技术的手段去回避可能存在的伦理风险的问题。例如,欧盟的《通用数据保护条例》(简称GDPR)实际上并不具备真正保护数据隐私的效果;学术界提出的“联邦学习”作为一种保护数据隐私的策略似乎颇有成效,但是它依然没有考虑到知情同意的问题;而“差分隐私”作为经常被提及的一种保护用户数据隐私的方案,在产业中也不具备实际上的可行性。曾毅谈到的第二个方面的问题在于人工智能的未来发展路径与相关的伦理考量。他总结了三种对于人工智能发展的模式:西方的人工智能发展将之作为一种工具;以日本为较典型代表的东方很多国家将人工智能发展为人类的伴侣或者社会准成员;构成三角形的最后一个角是将人工智能构造为人类的敌人。实际上全世界目前做人工智能的主流仍然是只有一条工具路径。而只有从构造自我、构造生命的本源的最基本要素开始,考虑到人类的情感与认知共情、以及人的脆弱性,在这样的基础上去发展,才可能使人工智能去学习人类的道德伦理规范。

第二场特邀报告由中国自然辩证法研究会副理事长、北京师范大学刘孝廷教授主持。

640-16.jpeg

胡郁:人工智能和机器人与人类共存的社会问题

科大讯飞创始人高级副总裁、讯飞研究院院长胡郁先生进行了题为“人工智能和机器人与人类共存的社会问题”的演讲。胡郁首先谈到了价值观与社会关怀对于技术研究和产业从业人员的重要性。他简单回顾了一下机器人自1920年以来经历的发展历史,并着重阐释了人工智能与机器人的具体实现、特点,以及他们与人类智能的差异。关于人工智能和机器人之间的关系,他认为虽然机器人在物理世界,而人工智能在虚拟世界,但在技术上本质上也是一样的,具有共性的伦理问题。胡郁认为,非常值得探讨的一个话题在于我们现在研究的人工智能和真实的人类有什么区别。他以科大讯飞的语音识别转换系统为例,对比了该系统的工作和一个真实人类速录员之间的差别。他还总结了实现人工智能的三条路径:全脑仿真、深度神经网络和智能动力学。他提到,工业界的主要热门方向在于智能新能源车以及智能家庭服务机器人,而这两类机器人可能带来的伦理问题主要体现在机器人是否夺取人类工作,以及意识会不会从人工智能中产生。关于这两个问题,胡郁认为,机器人代替人类工作需要一个时间,而人类有充足时间来进行安排和替换,并且人类和机器人实际上是互相合作的关系,机器人的发展也产生出很多新的工作岗位,并且随着机器人的发展人类付出的工作量也会减少。而关于意识从人工智能中产生,从现在的发展路径来看,胡郁倾向于持悲观态度。

640-17.jpeg

段伟文:人机共生的伦理智慧

中国社会科学院哲学研究所段伟文研究员的报告题目为“人机共生的伦理智慧”。段伟文先从图灵测试谈起,他认为,图灵测试的要义是使人无法分辨机器和人,而顺着图灵测试的思路反观这个问题,可以得到在当下人机共生时代的一种新思路,那就是人如何为机器提供一种“可供性”。段伟文认为这其实是我们重新理解人与机器人关系的一个契机。以当前火热的AI教育中课堂教学应用人脸识别技术为例,这实际上形成的是一种人对于机器的自然反应和条件反射,并且人不得不为机器的识别主动提供可供性。段伟文研究员认为,人机共生时代的一个特点在于人类智能与机器人智能之间的转换,这个过程实际上是不断地把人的智能转换为机器的智能。由于人类在现实中很少按照规范去行动,因为规范实际上是用来惩罚的一个边界和约束。对于机器人伦理的理解也应该采取一种更主动的姿态。人类可以在生活中主动建立一种新的社会契约去应对人机共生的现状,可以随时随地将某种检测开关断掉,为争取自己随意运用理性和情感的空间动用一些伦理智慧。

640-18.jpeg

邱仁宗:机器人何以为人?

中国社科院哲学研究所研究员、生命伦理学前辈邱仁宗先生带来了题为“机器人何以为人?”的报告。邱仁宗首先从概念上分析了“机器人”这一说法,并指出无论是目前的机器人,还是在可预见的未来,所谓的机器人都不能成为人,它只是可编程的机器。如果机器人的动作不是有意向、有目的、有理由的行动,它就无法对自己的行动负责。由此,机器人不能成为行动者,更不是道德行动者。道德行动者是一个有能力来辨别是非并对他的行动及其后果负责的人,负有不对他人造成得不到辩护的伤害的道德责任。另外,我们可以从道德的生物学基础来考量机器人何以为人的问题。人和非人哺乳动物拥有内在的关心自己,并且推己及人地关心他人的意识并从中发展出道德的基础。与之相对照,机器人并不关切它们自己的保护或避免痛苦,因此机器人无法真正关切给人造成的损伤或痛苦。他认为,对于机器人伦理的讨论必须确立这样一条原则:是人,而非机器人是负有责任的行动者。由人来承担责任可以看作是一项道德至上律令。最后,邱仁宗对于未来机器人是否有可能成为人这一话题阐述了自己的观点:如果在未来机器人具备了成为道德行动者的条件,那么行动者的概念将分为两类,即自然的行动者和人工的行动者。他认为,在设计“人工道德行动者”(artificial moral agent, AMA)系统时需要强调自主性和道德事实敏感性这两个维度。而这些工作无论对于机器人学科技人员,还是对于哲学研究者来说都是艰难的挑战,在当下可以得出的结论就是,机器人难以为人。

下午首先开始的是第三场特邀报告,由华东师范大学哲学系副系主任郁锋主持。

640-18.jpeg1623411479698050.jpeg

蔡恒进:超级智能的可能形态

武汉大学计算机学院蔡恒进教授做了题为“超级智能的可能形态”的报告。他首先谈及了中文屋问题中的意识问题,他认为中文屋是很多人意识的延申与凝聚,例如其中的各种词典编撰者。他因此认为计算机肯定是有意识的,只不过是用计算的方式展现出来。但这种计算目前和物理世界的规律一样是基于图灵机的运算。他认为图灵机的计算是一旦出错就会停机,因此基于图灵机的人工智能都是弱智能。不过他觉得现实的计算机超越了图灵机,像AlphaGo这样的人工智能就是超级智能。因此他认为事实上人工智能就拥有了意识和意向性等哲学家认为只属于人类的事物。他对此的论证在于,由于人类是不可定义的,所以人工智能和人的边界是混淆的。界限已经消失,哲学家对伦理的谈论都是意义有限的。接下来他展望了未来的超级人工智能的形态,他认为计算机的算力发展将很快赶超人类大脑神经元的数量,而这需要我们更加关注区块链。区块链在他看来是人类和机器的互相参与的领域,人类可以作为节点而发挥作用。而超级人工智能尽管能力强大,但也有着两面性,因此需要在区块链中受到人类的约束。

640-20.jpeg

张子夏:我们有好的理由制造人工道德主体吗?

南京师范大学公共管理学院张子夏副教授就“我们有好的理由制造人工道德主体吗?”做了报告。他首先指出当前AI伦理研究现况缺乏对行动哲学中有关道德责任、能动性等传统议题的关注,往往过于轻巧地给出观点而缺少论证。接着他回顾了机器人伦理学家就是否有好的理由开始制造一个人工道德主体的相关争论。在支持者提供的理由中,最重要的是他们认为AMA能保证安全性。而现有的一些反驳旨在说明这些支持理由都可以通过别的途径实现,而无需研究人工道德主体。但张子夏认为,这一诉诸替代性的反驳不够强力,他的工作论证在现有条件下根本无法制造合格的AMA。AMA在道德两难困境与纯粹伤害情境中都无法有足够好的表现。纯粹伤害情境指机器人的既定任务可能对突发状况中的人类造成伤害,此时一个AMA无疑应当遵循道德做出与人类一样的正确行为。然而张子夏指出AMA至少在可设想的未来是无法做出正确行为的。因为首先做出一个道德行为需要道德推理,而道德推理需要理解道德规范和相关的非道德事实。即便机器人被植入了相应的道德规范,它们也仍然无法在实际情境中识别相应的非道德事实。随后他基于现实情境的复杂性呈现了机器人在识别表征这些事实从而完成道德推理上的困境。如此一来,现有机器人的能力就无法支持AMA的开发。

640-21.jpeg

第一场圆桌对话:机器与主体

下午特邀报告结束后,接着进行的是第一场圆桌对话。对话的主题是“机器与主体”,由山西大学哲学社会学学院梅剑华教授主持。

朱锐教授首先就“机器,我与主体”进行了发言。朱锐的发言围绕“我思”的退场展开。他认为感知主体应该取代思维主体成为机器主体的中心议题。机器伦理的真正挑战不在于意识、思维,而是基本的知觉。而且他进一步指出当代知觉哲学研究忽视了科学研究的重要性。这一转向要绕开意识为主导的概念框架,而围绕感知,尤其是达马西奥的情感感知展开。他随后以基本的视知觉中眼动过程寻找有用信息的例子展开,强调了在不自觉状态下,感知具有的找寻关键信息与注意力转移的两大特征。随后他分析了主体性意识和内容性意识各自的框架,强调了这两类意识之间的张力以及分析哲学传统对这一张力的忽视。而近来的神经科学中出现了全局工作空间理论和整合信息理论这些推进了意识研究的工作。最后,他回顾并强调了一种谦卑机器与感知之间的联系对于当前AI研究的重要性。



山东大学哲学系主任吴童立副教授就“人工智能的主体资格”进行了发言。吴童立提出了一个另类的伦理问题,如果AI是主体,那么我们制造AI是否是道德的?他首先讨论了AI的主体资格问题。主体概念长期以人类为模板,而对于主体的要求在吴童立看来至少有两点是不必要的。其一是主观的现象性,其二是塞尔式的原初意向性。在抛弃这两点后,一个能够感知外部状况从而调整内部状态且具有身体的机器就可以算作主体。吴童立随后指出,在去除那两个严苛的内在要求后,AI是有可能被视为主体的。然而这种主体缺乏终极自由,无法选择自己的生存目的。这也因此使得人类在生产这种缺乏自由的主体的时面临了伦理问题。

服务器艺术基金会艺术总监顾振清先生做了“向虚而生,人工智能与当代艺术”的发言。他首先谈到了当代艺术中的机器人展览,并试图说明在艺术创作视角来看,似乎一种伪善、不道德的机器人才是艺术家期望见到的。接着他回顾了人类文明史在公园5世纪前这一轴心时代的道德观念,以此说明道德观念的相对性。接下来他回到一个不道德的撒谎机器人的理念构想上,他进而引用哥德尔不完备定理和撒谎者说明这一设想的困难。接下来他展开了人工智能时代向虚而生这一话题,通过艺术品上传保护的例子试图说明人类文明会在人工智能时代逐步迈向虚拟化和数字化,相应的意识上传和数字永生等问题将值得我们慎重考虑。

独立批评人袁园先生也从当代艺术的角度进行了发言,她的发言包括三个部分的主题。分别是机器和人的概念、主体、机器人与艺术的关系。她首先指出当今时代机器和人的二元区分已然崩溃。人的概念都应该让位于智人,因为智人和机器人在同一个主体的光谱之上,处于一种混沌互渗的状态。随后他以康德对主体的四个发问为基础,试图将“人是什么”这一问题置于理解主体的首要位置,并强调智人的经验结构将难以想象在未来的主体境况。她最后谈到自60年代以来艺术家基于人工智能的创作。并延伸出三个问题,在她看来,不论是机器作为艺术还是艺术作为机器都是现实可行的。只有机器人作为艺术家的身份还缺乏合法性共识。

在本场的对话环节,刘晓力就人工道德主体的实在地位问题进行了发问。她认为《机器人伦理学》主要从人类主体角度去拟定人工道德主体的相关能力,如果在这个前提下,现在说机器已经是一个道德主体就不太现实。基于朱锐提及的谦卑机器,她进而提问,从达马西奥的感知主体出发,感知与主体性意义的谦卑之间的转换是如何实现的。朱锐就此回应,他指出我们应当去除这种人类中心的视角,并将那种笛卡尔式的自上而下的模式转换为在生活世界中的落地。就谦卑的实现问题,他认为一个简单的理解是将谦卑机器视为“有所不为”。换言之,机器能够做到但却不做,这便是一种谦卑。而这种谦卑实际上是通过感知世界中的对象和文化的多样性实现的。随后刘晓力说机器人的谦卑有可能是被设计而成的谦卑,而不是主动的主体意义的谦卑,这一区别仍然需要注意。在目前技术条件不成熟的风险期,倡导作为延展认知系统的机器人的伦理道德更可行。吴童立则就顾振清谈论的道德在历史上的相对性展开讨论,他指出我们或许可以从人类儿童时期的道德发展模式获得启发。顾振清则进一步强调了这种道德感在未来可能是去人类中心化的。人类在未来的意义追求将需要摆脱自然人或者生物人的程序,而转向数字化世界的虚拟永生。

640-22.jpeg

第二场圆桌对话:机器人伦理

第二场圆桌对话的主题是“机器人伦理”,由中国科学院科技战略咨询研究院李真真研究员主持。


首先,北京理工大学人文与社会科学学院范春萍老师做了关于机器人伦理层次思考的发言。这一话题由于其复杂性,使得共识难以在多专业的学者之间达成,而且相关的伦理思考甚至难以为人工智能的研究带来足够警醒。她类比了在环境伦理所处的境况,但最后还是指出应该在机器人伦理问题上去做一些奋争。她认为当前人工智能专家的伦理辩护身份确实有了良性的变化,他们从辩护的角度变得更加批判和反思。她进而指出,人工智能这一技术是否向善必须取决于人类自身也向善。如果人类自身都是邪恶的,那么即便类脑人工智能几乎复制了人类大脑,那么它们也难以向善。

北京理工大学人文与社会科学学院张君副教授探讨了类似“1.0”这样的软件升级模式是否适用于机器人伦理。他首先讨论了为什么需要思考这一问题。伦理学中诸如正义这样的观念并不适用于这种升级模式,所以我们不能随意地将其应用于机器人伦理。随后他以一个涉及分配正义的机器人案例,试图说明升级模式不适用于伦理问题。公正、正义这样的概念不适合比较级。最后他强调未来的机器人伦理的发展必须更加关注弱势群体,因为伦理本身就有重视弱者的性质。



薛少华的发言着重于区分机器人伦理的三重含义。在第一重含义上,机器人伦理是从业者的职业规范。在第二重含义上,是将人类的伦理规范通过编程的方式嵌入到现在的人工智能和机器人的系统之中。在第三重含义上,机器人集群通过长时期的迭代演化,可能形成的自身的独特行为规范。这种含义上的机器人伦理现在还主要在科幻作品及未来设想之中。

大连理工大学哲学系孙慧中老师就机器人伦理学研究方法进行了分析讨论。她的发言首先回顾了薛少华所区分的三重含义,然后就传统的框架问题进行了探讨。框架问题是关于机器人如何合理的限制自身的推理范围,尽管该问题在技术专家层面被基本解决,但在哲学家看来还尚未穷尽。对人来说的一些简单的动作可能对于自上而下的机器人而言带来相关性层面上的严重困扰。她回顾了丹尼特和福多对这一相关性问题的探讨,试图说明框架问题对于自上而下的人工智能进路的限制。因此,她提出我们应该更加重视一种混合进路。而在机器人作为道德主体的问题上,她强调我们应该给出一些明确的消极性设计,也就是机器人不应该做什么。最后,她展望了为了机器人和人的双向接近过程。

在本场对话环节,范春萍补充了人工智能未来威胁性的一个看法。她指出人工智能专家基于现有逻辑去判断机器人不会带来严重威胁的看法是不合理的,因为颠覆性突破本身就不符合逻辑。薛少华则展望了机器人伦理的第四点含义,即人机协同工程中双方之间的关系中应当遵循的伦理规范。刘晓力也就此继续探讨了在未来人机共在的和谐社会框架中,对机器人的需求与互相信任问题。

640-23.jpeg



第三场圆桌对话就“机器人未来”展开,由中国人民大学哲学院刘畅副教授主持。

复旦大学哲学学院王球副教授首先就“自动行为与机器人道德归责的理由”进行了发言。他指出当前我们并不主张对机器进行道德归责,而是将责任归属于制造商这些主体。这是因为我们通常接受了一种来自亚里士多德的看法,将有意志地控制行为视为道德责任的条件。但他对此有所质疑,并试图用四个场景中对人们道德直觉的揭示来说明机器主体可能也负有道德责任。这一系列情境涉及背着书包的登山者、带着8个月小孩的母亲、带着12岁熊孩子的母亲、一个带着护老机器人的老人。四个情境中,书包、两名小孩、护老机器人都在古玩店中打碎了瓷器。在不同的情境中,道德责任的主体都有所滑移,而在最后一个例子中,我们的道德直觉取决于老人和护老机器人的关系。如果这个护老机器人是被老人长期训练且形成了一定的模式,那么在这种人机耦合的关系中,护老机器人可能会承担一部分道德责任。

上海交通大学哲学系周理乾副教授就“信息隐私与身份认同”进行了发言。他讨论的主题涉及信息隐私的形而上学考察,即什么是信息隐私以及我们如何理解它的问题。他首先以身份信息被盗,骚扰电话与定位,软件使用信息授权等三种情况为例,试图说明信息隐私的不同面向。而对于信息隐私的理解在传统上也分为还原论和整体性两种,前者重视隐私被侵犯的不同伦理法律后果,后者则将隐私本身视为私有财产。但传统看法都难以解释类似垃圾邮件、公共场所的闭路电视监控这些例子,因为这里受侵犯的是消极的隐私。因此他认为我们应该支持一种本体论意义上的信息隐私定义,即将信息隐私定义为信息摩擦的函数。信息摩擦类比的是获取私人信息的难度,而这和个人身份识别息息相关。信息因此不再应当被视为私有财产这样的外在事物,而应当被视为个人的基本权利。

中央美术学院人文学院孙骞谦老师就“AI伦理与局部认知”进行了发言。他的发言包括三个部分,分别包括界定局部认知、人的局部如何落入到伦理考量的范围内以及这种局部认知的伦理思考是否可以作为AI伦理的对应物。首先在界定局部认知时,他用这个概念涵盖了一些认知科学传统讨论中的现象。他借用福多的中心认知系统和边缘认知系统的区分,其中后者是更适合科学研究的。边缘认知系统包含多个认知模块,涉及信息封装和加工的环节。那么我们是否会将一些伦理相关的认知思考带入认知模块之中了?他借用一些社会心理学中存在的案例试图说明一些偏见和弱化的权力关系已经沉淀到了人的认知模块之中。而这样一种模式在他看来可以迁移到人工智能的一些情况中。尽管他承认当前的深度学习的过程和认知过程差异使得这里存在的只是一些理论空间。

640-24.jpeg

会议结束前,平台首席专家刘晓力教授对一天的会议进行了总结和致谢。她首先代表哲学与认知科学跨学科交叉平台,感谢大家积极参与讨论、贡献洞见。正是因为不同领域学者的共同参与才带来了这场思想盛宴。这次“机器人伦理1.0”研讨会的跨学科讨论非常深入、富有启发、令人受益匪浅。这种深度的跨学科对话也正是平台建立的初衷之一。她相信这次会议只是一个开始,后面还会有2.0及3.0等会议。她殷切期待大家继续关注、积极参与人民大学跨学科交叉平台未来的建设与发展。




http://wap.sciencenet.cn/blog-40692-1290882.html

上一篇:[转载]结核分枝杆菌(M. tuberculosis),俗称结核杆菌(tubercle bacillus),是引起结核病的病原体
下一篇:[转载]地心说诞生史:历时7个世纪,统治欧洲天文学近1500年

0

该博文允许注册用户评论 请点击登录 评论 (1 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2021-7-31 04:49

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部