晏成和
AI可能会怎样危害人类?
2023-4-9 17:56
阅读:3900

防范人工智能危害人类

                              晏成和

前不久,未来生命研究所的一封公开信呼吁,所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能至少6个月,防范人工智能可能对人类的危害。这封信已有超过1000名科技领袖和研究人员签名,其中包括:马斯克、苹果联合创始人史蒂夫沃兹尼亚克等,在全球科技圈引发热议。

有学者认为,高度发达的智能是创造性的力量,而非工具.它的力量越强大,就越能重塑周遭的世界。担忧未来机器人将变得智慧过人,足以威胁到人类自身的存在。人类精英如此忧心忡忡,究竟是杞人忧天、还是事态严峻?一些报刊也开始了隔靴搔痒的讨论:

人工智能对人类有哪些威胁?

1、人工智能用于研究武器:AI可以提升武器的使用效率,瞄准更加准确,遥控精度更高,对人类杀伤力必将提高。

 2、反人类者基于AI研制出机器来伤害人类:不排除少量反人类主义者研制出强大的具有自我学习能力的武器来伤害人类。

3、人类对AI依赖性太大,引起社会动荡:如果机器做出了错误的决定,则有可能引发社会的动乱。

4、人类在发展AI过程中制定的规则出现漏洞:使得未来的机器人利用了这个漏洞,从而引发人类的危机。就像开发软件,总会存在BUG。

……

人类必须给AI的发展制定出有效的技术规范与道德规范并严格执行,才能减少未来AI对人类的威胁。

还有报刊提出了让人啼笑皆非的措施:

1、将它们存放在低危环境中

2、不要给它们武器

3、为他们制定行为准则

……

文章说,要确保所有的机器人永远不会做出可能导致事先无法预测的后果的决定。

你无法预测,又如何预防?只有了解害人者如何作恶,才能有效防范受害!

 

在我早年科学小说《绿星同学》中有一章,探讨外星人来到地球是福是祸,文章首次提出“替身人”,即把外星某科学家的全部思维下载到机器人的头脑中,建立了有教授思维的机器替身人。当然也可以把外星某中学生的全部思维下载到机器人的头脑中,然后制成地球男女生面相、构成中学生替身人。

这里的外星人是一个智慧高度发达的群体,如同现在我们面对的高度智慧、未知的GPT-4人工智能,二者具有巧妙地类似性。这样的外星学生来到地球上,混杂中学生中,参入了中学生的辩论会,展现了其智慧,其中涉及高级智慧可能给人类带来的危害。

在下面文章中用智能人(AI)替代外星人,就可以估计AI可能的作为。以上报刊杂志的讨论实在是弱智,AI要危害地球人何必去摆弄那些枪炮、瞄准器、坦克等等小儿科的议论,要知道人家可是高智商啊!引用《绿星同学》辩论中有一段文字,说到外星人(AI)可能的动作、巨大的危害,值得借鉴。

反方B:

现在,外星人(AI)要消灭人类,根本不需要运用魔力与地球人打斗。大家知道,地球核大国发射核武器只是需要按下核按钮,接近按钮之前有铁门,铁锁、密码、警卫森严等等;不管按钮的安保措施有多么复杂。按下按钮之后就是接通一条电路,这条线路接通、火箭发动,导弹升空、大战爆发。

外星人(AI)的科技很容易进入人类电脑后台,接通一个线路轻而易举,同时接通两米远的几个线路也不是难事。外星人想要消灭地球人,只要通过网络在几个核大国的国防部电脑后台去动动指头,接通核按钮线路,核导弹立即升空,对方马上核报复。一个小时,整个地球的强国就会面目全非,地球人会死亡过半,他们就可以坐收渔人之利,还用得着与地球人打斗吗?

(引用结束)

知道了人类的软肋,知道了AI的睿智和可能带来的灾难性后果,人类精英要求防范AI可能对人类的危害不是杞人忧天,而是危在旦夕!

在技术层面,核武器决不能实行长路径一键到底的发射,那些手提包中总统核按钮是非常危险的;在理智层面,人类应该拚弃那些大规模的杀伤武器,不给歹毒的独裁者与反人类的AI为非作歹的机会,建立和平和谐地球村。

                     2023/4/9

参考文章:

[1],晏成和,绿星同学 11,辩论会 科学网

https://blog.sciencenet.cn/blog-73066-964766.html

转载本文请联系原作者获取授权,同时请注明本文来自晏成和科学网博客。

链接地址:https://wap.sciencenet.cn/blog-73066-1383566.html?mobile=1

收藏

分享到:

当前推荐数:13
推荐到博客首页
网友评论7 条评论
确定删除指定的回复吗?
确定删除本博文吗?