闵应骅的博客分享 http://blog.sciencenet.cn/u/ymin 一位IEEE终身Fellow对信息科学及其发展的看法

博文

你怕被机器人劫持吗?(131125) 精选

已有 6919 次阅读 2013-11-25 09:07 |个人分类:学术导航|系统分类:科研笔记| 机器人, 智能, 容错

你怕被机器人劫持吗?(131125)

闵应骅

 

   1999年在香港召开IEEE太平洋沿岸国际可信计算会议(PRDC'99),我和赵伟是会议主席,我们邀请了香港警察总部一位警官作了一个大会发言,讲网络时代的犯罪问题,给我印象很深。他说网络时代法律有许多新问题,譬如什么叫犯罪、什么叫证据,在网络环境下有许多模糊不清的地方,按过去的定义无法解释。十几年的历史证明了这一点,法律也已经有相应的发展和补充。到现在,新问题又来了。机器人已经并且将要大发展,类似的问题又提了出来。

   据新闻报道,美国军用机器人数量十年内将超过士兵人数,平均每10个机器人对应1位人类士兵。当美国士兵们在危险的街道上巡逻时,将可以使用机器人的热成像来扫描该区域,并将现场图像发送回指挥中心。美国机器人研究人员与美军方官员正试图在几年内将以下场景付诸现实:巡逻时的每位士兵都将机器人在侧翼搜寻敌人和发现地雷;同样,徒步穿越山区的步兵小分队,将在机器人的帮助下携带额外的水、弹药和防护装备。美国陆军宣布或将于5年内部署远程遥控机器人步兵投入到实地作战中。除军事应用之外,一个医生可以给几千里以外的医院里的中风病人看病;股票行情可以瞬时地进行分析;在因特网上可以限时抢购到最低价的鞋子;高速公路上的汽车可以在安全距离时驶下高速,自动调整速度、方向盘,并根据实时路况信息适当制动。所有这些情况,机器人都可以帮助人类。甚至还有性爱机器人,几乎和真人一样。有人说吸血鬼机器人可以提取血液凝块,清除大脑血栓。无人机可以携带武器攻击地面目标,甚至也可以探测到一大群蚊子的行踪,然后对这群蚊子进行攻击,杀死在野外的蚊子。

机器人可以做这么多好事,但也可能做坏事。当机器人出事,不管是无意的,或者是设计的故意,都会带来经济损失、财产损害、人身伤害甚至危及生命。当然,对于某些机器人系统,出现异常行动的责任要根据传统的产品责任判定法、法律专家提供的案例,区别故障部分生产厂家和操作员的责任。但是,必然有许多情况是难以判断的,而且会出现许多新的判例。许多公司不敢把机器人推向市场,因为他们不知道出了事故,他们要付出多少。谷歌一直在找能限制他们责任的法律条文,或者设法能管理这些风险。

   一般的机器做坏事,首先是追究操作员或生产厂家的责任。但机器人设计得越来越复杂,一般都有所谓“智能”,即根据外部环境的自我决策能力,而不是简单地按预先确定的指令行事。他们可以根据外部和环境刺激而行动或反应。机器人的一个事故或者瞬间的决定,其最后责任就很难确定。这时,机器人或者任何自主的机器的动作也许是由设计者故意设置的,而看不出任何错误或故障的痕迹。如果不是设计者的故意,责任就很难分清。

   有些现象可能是机器人设计者无法预见的。譬如无人驾驶的汽车从超级市场的停车场出来,正赶上一个购物手推车和一个童车同时推到汽车前面,要是人驾驶,一定会接近购物车,以避让儿童。但是,机器人会这么选择吗?尤其是在故障情况下,机器人任何动作就成为产品责任法律之外的问题了。私营部门关键利益相关者、贸易协会、学术机构和公共政策制定者必须协同工作,解决这个问题。但现在还没解决。另一个责任问题是人起什么作用,是人以安全的名义去统治机器人的行动、还是听之任之?如果出现事故,不管是无人驾驶汽车、操纵医院走廊的机器人、或者飞到平民村上空的无人驾驶飞机,其责任问题有待争议。

   机器人大多设计在方便人操纵的地方,法律要追究人的责任,争议就会增加。机器人制造者说“我的机器人可靠性100%,我是没责任的。”其实这对危机分析者来说是个误导。汽车事故的人为原因占93%,自动驾驶汽车的可靠性应该达到多少呢?不可能要求99.99%。美国已有四个州批准无人驾驶车辆合法,但条件是:驾驶员必须始终坐在驾驶座上,紧急情况下可以采取措施,驾驶员必须有传统的意外保险。欧盟制订了紧急制动系统和车道偏离警告系统规范。医用远程机器人主要有两个功能:远程医疗会话,包括音频、视频和某些传感器;移动组件,通过传感技术使机器人能自主在室内活动。法律对机器人在工作场所的使用没有明文规定,但把机器人作为个人或公司的代理的想法已经提出来了,机器人的所有者或操作者将对事故负法律责任。由于先例很少,这个法律的制度进程将是很慢的。

   现在一般机器人开发大多基于开源软件,出现问题很难找到责任人,很难定量地确定功能或使用违规或非法。斯坦福法学院等校指出:开源机器人的功能无法事先定义,机器人运行动作的地点无法限制,使得机器人部件或系统开发者很难确定他们的责任。部件内隐藏某些危险,装成系统以后就可能产生有害的动作。现在法律学者建议建造一个许可系统,类似于成品软件的终点用户许可协议,规定机器人或其部件在某些情况下不许使用,譬如制造武器,或其他伤害人、动物或财产的机器人,并且,对机器人或部件的诬告将需要赔偿其开发者和制造厂家。


图示的机器人是教育研究者的开发平台。如果此机器人发生事故,引出损害和伤亡,谁来负责?本图来自CACM2013年第11期。




https://wap.sciencenet.cn/blog-290937-744454.html

上一篇:以经济学观点看技术研究(131118)
下一篇:未雨绸缪话安全(131202)
收藏 IP: 159.226.43.*| 热度|

20 刘洋 马磊 林涛 赵凤光 曹聪 薛宇 陆俊茜 张骥 张忆文 李伟钢 张海霞 占礼葵 陈安 唐常杰 杨学祥 杨正瓴 俞立 EroControl hnw48 dulizhi95

该博文允许注册用户评论 请点击登录 评论 (32 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-1 07:16

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部