2022年6月22日,国防部副部长凯瑟琳·希克斯(Kathleen Hicks)签署并发布《“负责任的人工智能”(RAI)战略与实施路径》文件,围绕基本原则,提出指导美国防部实施人工智能的战略,为美国防部人工智能的进一步发展奠基。基本原则包括:①负责任的人工智能治理:管理结构和流程现代化,持续监督国防部人工智能使用;②作战人员信任:系统操作员需达到标准水平的技术熟练程度,创建可信的人工智能与人工智能赋能系统;③人工智能产品与采办生命周期:考略到潜在风险,使人工智能开发速度满足国防部需求;④需求验证:通过需求验证流程,使人工智能能力与作战需求保持一致,同时解决相关风险;⑤负责任的人工智能生态系统:通过国际合作促进对设计、开发、部署和使用负责任人工智能的共同理解;⑥人工智能劳动力:确保所有国防部人工智能人员理解实施人工智能的技术、开发过程和操作方法。每项原则都附有工作路线、对应的主要负责办公室和预期实施时间框架。新成立的首席数据与人工智能办公室将主导实施负责任的人工智能。
表面上看,美方提出的《“负责任的人工智能”(RAI)战略与实施路径》中的六项基本原则能够将人机环境系统中的治理、信任、开发、验证、合作、人力六项内容进行协同与共生,进而体现了以人为本、智能向善、伦理优先、合作共进的韵味与节奏。
但是,“负责任的人工智能”却很容易让人产生种种误解和错觉,以为人工智能能够负责任。“负责任的人工智能”涉及广泛的概念,包括硬件的可靠性、软件算法的公平性、决策的透明性、数据隐私的保护等,不同的人或组织对于什么是“负责任”的定义可能存在差异,这种差异容易导致对于人工智能实际应用中的期望和现实之间的认知落差。虽然我们希望人工智能系统能够负责任地运行,但技术上的局限性可能导致系统无法完全做到公平、透明或者精准,人工智能在处理复杂情境或处理新数据时可能表现不佳,具有不少脆弱性,这种情况容易被误解为人工智能系统不负责任。还有,在人工智能的开发和部署过程中,可能会出现误解或者不良实践,导致系统不符合负责任的标准,如由于数据偏差或算法错误,人工智能可能做出不公平或不准确的决策,从而引发公众的误解和担忧。有时人工智能系统的运行逻辑不透明,难以向公众解释其决策过程和运作机制,缺乏透明度容易引发公众对于系统运行方式和决策合理性的质疑,从而加深对负责任人工智能的误解。所以,尽管我们努力推动负责任的人工智能发展,但由于技术和理解上的种种限制,以及在实际应用中可能出现的问题,公众对于其效果和可信度往往存在误解。这需要技术开发者、政策制定者和公众共同努力,提高对负责任人工智能实现的理解和认知,并采取适当的措施来缓解其可能带来的负面影响。
为防止“负责任的人工智能”这个名称使人产生一种错觉,以为是指一种具备道德和伦理意识的人工智能系统,它能够自主思考、做出明智的决策,并对自己的行为负责。所以“负责任人工智能”需要强调不是指人工智能系统的负责任,而是人类的负责任。
鉴于此,我们认为,“负责任的人工智能”是指在人工智能系统的设计、开发、管理、使用和维护过程中,所有相关的角色(包括设计者、开发者、管理者、使用者、维护者等等)都承担其行为的道义、法律和社会责任。这意味着这些角色需要确保人工智能系统的设计与使用符合伦理和法律规定,遵循公平、透明、可解释性、隐私保护等原则,并且积极采取措施来最小化系统可能带来的负面影响。“负责任人工智能”是为了人类确保人工智能技术能够符合人类的价值观,并对社会和个人产生积极的影响,是一个人、机、环境有机统一的系统智能生态体系。
人机环境系统智能是指将人与机器(AI的软件硬件)、环境相互连接,构建一个智能系统,让机器能够“理解”并“适应”人类的需求和环境的变化。人机环境系统智能涉及人类的认知、机器学习、感知技术、自然语言处理、使用环境等多种交叉领域的智能技术,旨在提高机器与人类在特定环境下的互动效果,增强系统的智能性和适应性。人机环境系统智能包括对人工智能技术的全面理解,并将其应用于社会和环境中,以实现可持续发展和公共利益。人机环境系统智能的核心是将人工智能技术与社会、环境和人类价值相结合,它关注人工智能技术的开发和应用对社会的影响,以及如何确保人工智能的发展符合公共利益和伦理原则。在人机环境系统智能中,人工智能的发展需要考虑技术的可持续性和环境影响,这意味着在开发和应用人工智能技术时,需要考虑资源利用效率、环境可持续性和减少对环境的负面影响。此外,人机环境系统智能还强调人工智能的安全和治理。在人工智能技术快速发展的同时,需要确保人工智能系统的安全性,防止恶意使用和滥用。同时,还需要建立相应的治理机制和规范,确保人工智能的发展和应用符合公共利益和伦理原则。所以,人机环境系统智能是一种从整体生态上考虑人工智能的发展、安全和治理的方法,旨在将人工智能技术与社会和环境相结合,实现可持续发展和公共利益。
从本质上讲,“负责任的人工智能”是人机环境系统智能的简略表述,负责任是指人的负责任,而不是机器的负责任。这意味着,无论是开发、设计、测试还是使用人工智能,都需要考虑到人类的责任和义务,并且确保机器智能(AI的软件、硬件)在特定使用环境下的行为是符合人类伦理和法律规范的。“负责任的人工智能”包括了一系列技术和方法,如透明度、可解释性、隐私保护、公平性等,这些技术和方法可以帮助人们更好地理解和控制机器智能的行为,从而确保其符合伦理和法律要求。因此,“负责任的人工智能”是指在特定使用环境下人类负责任的机器智能,而不是指机器本身具有责任感或道德判断能力。
有了人工智能这个工具以后,对使用者、开发者、管理者等人的素质要求就更高了。首先,使用人工智能需要有一定的科学和技术素质,包括对算法、数据分析和机器学习等基本概念的了解。其次,使用人工智能还需要有良好的逻辑思维和问题解决能力,能够正确分析和解释人工智能的结果。此外,开发/使用/管理人工智能还需要具备一定的文化素养和道德意识,能够正确理解和应用人工智能的技术,避免滥用或误用。因此,人工智能的普及和发展,对人的素质提出了更高的要求。所以,人机协同中的机器智能程度越高,对人类智能的要求也越高,这是由于随着机器智能的提升,机器可以处理更复杂、更庞大的任务和数据,但仍然需要人类的参与来完成某些任务。机器智能的提高意味着机器可以自动执行更多的任务,并且能够进行更深入的分析和推理。然而,机器智能仍然存在局限性,无法完全替代人类的智能。在人机协同中,人类的智能被要求更多地参与到决策、创造、判断和解决问题的过程中。人类智能在人机协同中的作用主要有两个方面。首先,人类智能可以提供对复杂问题的理解和判断能力。尽管机器可以进行大规模的数据分析,但人类可以通过直觉、经验和道德判断等方面进行更全面的考量。其次,人类智能可以提供对机器智能的监督和管理。随着机器智能程度的提升,对机器智能的监督和管理变得更加重要。人类可以对机器的决策进行审查和纠正,确保机器的行为符合人类的价值观和伦理标准。因此,随着机器智能的提高,对人类智能的要求也相应增加。人类需要具备更高级的认知能力、创造力、道德判断能力和监督管理能力,才能与机器进行更有效的协同工作。
总而言之,“负责任的人工智能”是人机环境系统智能重要组成部分。“负责任人工智能”的发展需要依赖人机环境系统智能的整体支持,而人机环境系统智能的发展则需要负责任人类的引导和监管,通过将负责任的人类价值观和伦理原则融入人机环境系统智能的设计和实施中,可以促进人工智能软硬件技术的可持续发展,确保其对人类和环境的积极影响。
转载本文请联系原作者获取授权,同时请注明本文来自刘伟科学网博客。
链接地址:https://wap.sciencenet.cn/blog-40841-1445698.html?mobile=1
收藏