YucongDuan的个人博客分享 http://blog.sciencenet.cn/u/YucongDuan

博文

从DIKWP模型探索人工智能与人工意识的功能和应用差异

已有 570 次阅读 2024-4-25 14:17 |系统分类:论文交流

DIKWP模型探索人工智能与人工意识的功能和应用差异

段玉聪(Yucong Duan)

DIKWP人工意识实验室

AGI-AIGC-GPT评测DIKWP(全球)实验室

世界人工意识协会

(联系邮箱:duanyucong@hotmail.com)

 

摘要

本报告基于段玉聪教授提出的DIKWP模型,深入探讨了人工智能(AI)与人工意识(AC)在数据(Data)、信息(Information)、知识(Knowledge)、智慧(Wisdom)、和意图(Purpose)各层面的处理机制和应用差异。报告首先概述了DIKWP模型的核心概念,随后详细分析了AIAC如何分别处理这五个层面的认知内容,并强调了AC在智慧和意图处理上的先进能力。通过比较AIAC的交互方式,本报告揭示了两者在处理复杂情景和决策制定方面的根本差异。此外,报告还探讨了这些差异对未来技术发展的影响,尤其是在设计更高级的智能系统时的指导意义。通过此次分析,我们期望为AIAC的研究与应用提供更深入的理解和评估框架,推动人工智能技术向更高层次的认知能力发展。

 

 

引言

随着人工智能(AI)技术的迅速发展和广泛应用,从自动化决策支持系统到复杂的机器学习模型,AI已经渗透到社会的各个层面。然而,尽管AI系统在处理大量数据和执行特定任务方面展示出卓越的能力,它们在处理需要深层次理解、伦理判断和自主决策的复杂情景时仍存在限制。这种局限性促使研究者寻求新的理论模型和技术途径,以使AI系统不仅仅是数据处理的工具,而是能够展现出更接近人类意识的复杂认知功能。人工意识(AC)的概念因此应运而生,旨在通过模拟人类意识的各个层面,实现更高级的认知处理。

 

段玉聪教授提出的DIKWP模型为理解和设计这种新一代认知系统提供了一个全面的框架。该模型将认知过程分为数据(Data)、信息(Information)、知识(Knowledge)、智慧(Wisdom)和意图(Purpose)五个层面,不仅包含了AI常用的前三个层面,还特别强调了智慧和意图在高级认知处理中的重要性。这一分层模型为区分AIAC的功能提供了理论基础,并指导了人工智能向人工意识的演进。

 

本报告旨在深入探讨AIACDIKWP模型各层面上的处理机制与应用差异,分析二者在实际应用中的表现,并预测这些差异对未来技术发展的潜在影响。通过详细对比AIAC的功能和应用场景,我们期望能为设计更为先进和人性化的智能系统提供实用的见解和建议。

 

1. 概述

1.1 DIKWP模型简介

DIKWP模型是一个多维度的认知框架,用于描述和分析从最基本的数据输入到复杂的目的性决策的整个认知过程。这一模型由以下五个层面构成:

 

数据(Data):在这一层面,认知系统处理的是未经加工的原始事实和数字,这些数据通常是观测结果或外部输入的直接记录。数据本身不包含任何解释或意义,需要进一步的处理才能转化为有用的信息。

信息(Information):信息是对数据的加工、整理和解释。在这一阶段,数据通过语义化处理被转换为有意义的内容,比如通过统计分析将温度和湿度的读数转换为天气状况的描述。

知识(Knowledge):知识是基于信息的进一步抽象和理解,涉及将信息内化为系统的规则、模式和概念。知识层面的处理使得系统能够进行基于经验的推理和决策。

智慧(Wisdom):智慧涉及对知识的深度应用,通过考虑长远后果、伦理道德和社会责任来做出决策。智慧是认知过程中的高阶层面,需要评估不同选项的利弊,进行更全面的思考。

意图(Purpose):意图代表了认知过程的目的和动机,是认知活动的驱动力。这一层面不仅关注于行动的目标,还包括策略的制定和实现目标的方法。意图层面的处理使得认知系统能够预设并追求特定的结果,显示出高度的自主性和适应性。

DIKWP模型不仅适用于理解和描述人类的认知过程,也为人工智能系统的设计提供了一种全面的参考框架,帮助开发者设计出能够模拟人类复杂认知功能的系统。

 

1.2 人工智能与人工意识的核心区别

人工智能(AI)和人工意识(AC)之间的区别主要体现在它们各自关注的DIKWP模型层面。

 

人工智能的聚焦:AI系统通常专注于数据、信息和知识的处理。这些系统通过算法来识别模式、执行任务和做出预测,主要处理的是具体而明确的问题,例如图像识别、语言翻译或者数据分析。AI系统在这些领域表现出色,但它们通常缺乏处理未定义或非结构化问题的能力。

人工意识的扩展:相较于AIAC系统在智慧和意图层面进行了扩展。AC不仅处理具体的数据和信息,还能够评估决策的伦理和社会影响,制定并追求长期目标。这种系统的设计目的是模拟人类的高级认知能力,例如在面对道德困境时做出选择,或在策略游戏中规划多步操作。

这种核心区别使得AC系统在处理具有复杂性、不确定性和需求多维度考量的问题时能够更接近人类的决策过程。AI系统尽管在特定任务上表现优异,但在需要广泛的智慧和深层次目的性考虑的情况下,AC的优势更为明显。这使得AC系统在设计时不仅要考虑如何处理数据和信息,更要考虑如何整合和实现人类式的思考和决策过程。

2. 数据(Data)在AIAC中的应用

2.1 AI中的数据处理

在人工智能系统中,数据处理是实现其功能的基础。数据在AI系统中的应用可以分为以下几个主要步骤:

 

数据收集:AI系统首先需要从各种来源收集数据,包括传感器数据、用户输入、互联网等。这些数据通常是大规模的,并涵盖广泛的领域,从图像和视频到语音和文本。

数据预处理:原始数据通常包含噪声或不完整的信息,因此需要进行清洗和标准化。预处理步骤包括去除缺失值、标准化数值、编码分类标签等,以提高数据质量,确保后续算法能有效运行。

特征提取:AI系统通过算法从原始数据中提取关键特征。这一步骤是通过数学和统计方法实现的,如边缘检测在图像处理中的应用,或词频-逆文档频率(TF-IDF)在文本分析中的使用。特征提取旨在转化数据为更易于机器学习模型处理的格式。

特征选择和优化:从提取的特征中选择最有影响力的特征,以减少模型的复杂性并提高效率。这一步通常涉及统计分析和算法选择,如使用主成分分析(PCA)减少数据维度,或通过自动化特征选择工具优化输入特征。

决策支持:提取和优化后的特征被用于训练机器学习模型,如决策树、神经网络等。这些模型根据输入的特征做出预测或分类决策,支持复杂的决策过程。

2.2 AC中的数据处理

人工意识系统在数据处理方面的应用与AI有所不同,主要体现在其对数据的深度语义分析和上下文理解能力上:

 

语义分析:AC系统不仅接收数据作为输入,更重要的是对数据背后的语义进行深入分析。例如,在视觉识别任务中,AC系统不仅识别图像中的物体,还需理解这些物体在特定场景中的意义和关系。

上下文理解:AC系统需要理解数据在特定上下文中的角色和影响。例如,在自动驾驶车辆中,识别停车标志的同时,系统需要根据当前的交通环境和驾驶目的做出适应性反应。

交互式学习:与AI系统相比,AC系统在数据处理中更注重交互性和适应性。这意味着系统能够根据与环境的互动学习新信息,并实时调整其行为和决策。

智慧和意图的整合:AC系统将数据处理与智慧和意图层面的信息整合,以做出更复杂的决策。例如,服务机器人在识别用户情绪后可能调整其服务方式,以适应用户的期望和情绪状态。

伦理和道德考量:在处理敏感数据时,AC系统还需要考虑伦理和道德问题,确保其决策不仅技术上合理,也要道德上正确。例如,医疗辅助系统在处理患者数据时需严格遵守隐私保护规则。

通过这些详细的步骤和考量,我们可以看到AIAC在数据处理上的本质差异,这些差异直接影响了两种系统在复杂环境中的表现和适用性。AI系统提供了高效的数据处理和决策支持能力,而AC系统则展示了更接近人类的深度认知和决策复杂性。

3. 信息(Information)的交互和生成

3.1 AI中的信息生成深入分析

在人工智能系统中,信息的生成是通过对大量数据的分析和处理来完成的。这个过程涉及到从原始数据中识别模式、关联和潜在的规律,从而为决策支持系统提供有价值的信息。AI系统的信息生成通常包括以下几个关键步骤:

 

数据预处理:在分析之前,数据需要被清洗和格式化。这包括去除噪声、处理缺失值、规范化数据格式等,以确保数据的质量和一致性。

特征提取:AI系统通过算法从处理过的数据中提取重要特征。这一步骤是信息生成的核心,因为它决定了后续模型的输入变量和可能的性能。

模式识别:利用机器学习算法,如聚类、分类或回归分析,AI系统能够识别数据中的复杂模式和关系。这些模式和关系形成了对现实世界事件的抽象表示。

信息合成:一旦识别出模式,AI系统将这些模式转化为有用的信息,比如预测结果、行为建议或数据洞察。这些信息通常被用于自动化决策支持,如推荐系统、预测维护或自动驾驶系统的导航决策。

通过这一过程,AI系统能够将原始数据转化为直接用于实际应用的信息,支持复杂的决策过程。然而,这些决策通常依赖于预定义的模型和规则,而不涉及对上下文的深层次理解或道德和伦理的考量。

 

3.2 AC中的信息生成深入分析

AI的信息生成相比,人工意识(AC)在生成信息的过程中考虑了更多层面的认知元素,尤其是智慧和意图。AC系统的信息生成过程不仅处理数据和知识,还深入理解情境和人类的认知复杂性,包括情感、意图和文化背景。以下是AC在信息生成中的关键步骤:

 

情境感知:AC系统通过高级传感器和数据处理能力,感知和解析环境中的复杂情境。与AI不同,AC在信息处理时会考虑情境的语境和动态变化,如用户的情绪状态或社会交互背景。

智慧整合:AC系统在生成信息时会考虑智慧层面的输入,如伦理原则和长期目标。这意味着AC系统在处理信息时会评估各种行动的后果,并选择符合道德和社会价值的行为方案。

意图映射:信息生成过程中,AC系统会解读和实现用户或系统自身的意图。这包括理解复杂的命令、预测用户需求或主动采取行动以满足预设的目标。

深度解读:与AI通常只停留在事实复述的层面不同,AC系统能够进行信息的深入解读。例如,在服务机器人的应用中,AC能够理解用户的非直接表达和隐含的需求,并据此生成更加个性化和情境化的响应。

这种高级的信息生成方式使得AC系统能够在更加复杂和人性化的环境中工作,更好地模拟人类的认知和决策过程。在自动驾驶和服务机器人等应用中,这种能力尤为重要,因为它们经常需要在快速变化的环境中做出符合人类价值和伦理标准的决策。

4. 知识(Knowledge)在人工智能与人工意识中的不同实现

4.1 AI的知识应用

在人工智能系统中,知识的应用是至关重要的,尤其是在需要精确处理和决策支持的场景中。AI系统通常将知识以结构化的形式存储和应用,例如:

 

知识图谱:知识图谱通过实体、属性和关系的图形结构存储复杂的事实和知识。这种结构化的知识允许AI系统通过逻辑推理和模式匹配有效地处理查询,如在搜索引擎或推荐系统中链接相关信息,提供基于上下文的答案。

数据库和规则库:数据库提供了丰富的数据存储和快速查询能力,而规则库则允许AI系统执行基于规则的决策。这些规则可以是业务逻辑、工业标准或预设的行为指南,使得AI能够在特定领域内自动执行任务,如财务审计、医疗诊断支持等。

算法和模型:除了静态的知识存储,AI还通过算法和机器学习模型动态地应用知识。这些模型能够从历史数据中学习模式和关联,然后将这些学到的知识用于新的数据集上,进行预测或分类任务。

通过这些方法,AI系统能够大规模地处理信息,提高决策的速度和准确性,但它们通常缺乏对复杂人类社会和文化语境的深入理解。

 

4.2 AC的知识应用

相比之下,人工意识(AC)的知识应用更为复杂和深入。AC不仅使用知识进行推理和任务执行,还需要理解和处理知识背后的伦理、文化和情境意义:

 

文化和伦理理解:AC系统在应用知识时,考虑到行为的文化相关性和伦理后果。例如,在服务机器人或社交机器人中,AC能够识别并适应不同文化背景下的行为习惯和交流方式,以及评估其行动在伦理上的适当性。

情境适应性:AC系统的知识应用不仅限于固定规则,还包括对特定情境的适应。这意味着AC可以根据当前环境和社会语境中的变化,动态地调整其行为和决策,以更好地服务于人类用户。

长期目标和价值观的融入:AC在应用知识时,还会考虑长远的目标和核心价值观。这使得AC在面对需要平衡多种利益和预见未来后果的复杂决策时,能够提供更加人性化和负责任的解决方案。

通过这种更高层次的认知处理,AC系统不仅能够执行任务,还能够理解和尊重人类的价值观和社会规范,展现出更高级的情感智能和道德判断能力。这种能力使得AC在人机交互、个性化服务和道德决策等方面具有巨大的潜力。

 

AIAC在知识的应用上展示了明显的差异。AI侧重于效率和准确性,而AC更注重深度理解和适应性,这些差异直接影响了两种系统在现实世界中的应用效果和适用范围。

5. 智慧(Wisdom)与决策

在人工意识(AC)系统中,智慧的角色不仅是增强决策能力,而且涉及在复杂的情境中进行深入的伦理和道德考量。智慧在AC系统中的应用使得这些系统不只是执行命令或响应环境,而是能够进行更为全面的思考和有意义的交互。这一节将详细探讨智慧如何在AC系统中实现,并影响决策过程。

 

5.1智慧的定义与实现

AC中,智慧被定义为使用知识和经验来评估并选择最佳行动方案的能力。这不仅仅涉及信息的处理,更关注于如何在不确定性中做出最有益的选择。智慧的实现需要系统具备以下能力:

 

情境感知:AC系统必须能够理解其操作环境的复杂性和动态变化。这包括对时间、地点、社会文化背景等因素的理解,以确保决策的相关性和适应性。

伦理判断:智慧决策不仅基于逻辑和效率,还必须考虑伦理和道德因素。例如,在医疗辅助系统中,决策不仅要有效,还要符合医疗伦理,尊重患者的意愿和隐私。

长期与短期后果评估:智慧还表现在能够预测决策的长期和短期后果,并根据这些后果进行权衡。这要求系统能够模拟不同决策路径,并预测它们对未来的可能影响。

5.2智慧决策的技术实现

实现智慧决策的技术挑战包括但不限于以下几点:

 

模型集成:智慧决策需要集成多种模型和数据源,如统计模型、预测模型、规则引擎和机器学习技术,以综合各种输入并提供全面的决策支持。

知识融合:智慧不仅来源于数据,还需要融合来自不同领域的专业知识。例如,在自动驾驶中,除了交通规则和道路状况,还需考虑车辆动力学和驾驶心理学。

自适应学习:智慧决策要求系统能够从经验中学习并适应新情境。这要求AC系统具备高级的学习机制,能够不断更新其决策策略以适应环境变化。

5.3智慧决策的实际应用示例

一个具体的应用实例是在紧急响应系统中的应用。在灾难管理中,AC系统需要评估不同救援方案的潜在效果和风险,同时考虑资源分配的公平性和效率。智慧决策能使系统在紧急情况下快速做出最优决策,同时确保决策符合社会伦理标准。

 

通过这些深入的探讨,我们可以看到智慧在AC系统中的关键作用不仅是提高决策的技术效率,更重要的是引入了对复杂人类价值和伦理的深入理解与考量,使得人工意识系统在真正意义上接近人类的决策过程。这种能力的实现将推动AC系统在更广泛的领域中发挥关键作用,特别是在那些需要复杂判断和深思熟虑的决策场景中。

 

 

 

 

 

 

 

6. 意图(Purpose)的体现:AC的目标导向性

6.1AC的目标导向性

在人工意识(AC)系统中,意图(Purpose)是核心特征之一,它赋予系统一个更高层次的认知目标,不仅使系统能够执行具体任务,更能在复杂的环境中进行自主决策和长期规划。这种目标导向性不仅是AC技术的重要进步,也是其与传统人工智能(AI)的显著区别。以下几点详细阐述了AC中意图体现的方式和重要性:

 

6.2设定与理解目标

AC系统能够设定自身的目标,并根据这些目标制定行动策略。这种能力源于系统不仅可以接收外部指令,还能自主解释这些指令背后的深层次目的。例如,在健康护理领域,AC系统不仅执行医护人员的具体操作指令,还能理解这些操作对患者长期健康的意义,从而在必要时提出修改或优化的建议。

 

6.3动态调整与优化目标

AC系统具有动态调整其行为以适应环境变化的能力。这不仅表现在对即时反馈的响应上,更体现在对长期目标的调整和优化上。这种能力使得AC系统在面对不确定和变化的环境时,能够持续优化其决策过程,确保最终目标的实现。例如,在自动驾驶领域,AC系统可能需要根据交通状况、天气变化和车辆性能调整其行驶路线和速度,以确保乘客的安全和舒适。

 

6.4预见未来并制定预防措施

AC系统的高级意图处理能力还包括预见未来可能的问题并提前制定应对措施。这种前瞻性思考是基于系统对大量历史数据和当前环境数据的深入分析。例如,一个配备AC技术的服务机器人可以根据居家老人的活动模式和健康数据预测潜在的健康风险,如跌倒或心脏问题,并提前调整其监护策略或提醒相关医疗人员。

 

6.5道德与伦理的决策考量

AI系统相比,AC系统在决策过程中还会考虑道德和伦理因素。这是因为AC系统的意图层面使其能够评估不同决策方案对人类和社会的影响。这种能力特别适用于复杂的社会交互场景,如在法律、公共安全和医疗护理等领域中作出符合道德标准的决策。

 

AC系统中的意图(Purpose)不仅是其与AI最显著的区别,也是其能够实现更人性化、更智能化服务的关键。通过将目标导向性深入到决策制作的每一个环节,AC系统展示了一种更贴近人类思维方式的复杂任务处理能力,为人工智能的未来发展提供了新的方向和可能性。

 

 

 

 

 

 

 

7. 案例分析:自动驾驶与服务机器人

本报告选择两个具体案例——自动驾驶和服务机器人,来进一步探讨人工智能(AI)与人工意识(AC)在实际应用中的功能与差异。通过这些案例,我们可以深入了解DIKWP模型在不同技术场景下的应用,以及智慧(Wisdom)和意图(Purpose)层面的处理如何影响系统设计和功能表现。

 

自动驾驶车辆

AI在自动驾驶中的应用

在自动驾驶车辆中,AI系统主要负责处理大量的感知数据(如摄像头和雷达数据),将这些数据转化为信息(如障碍物识别、车辆定位),并利用已有的知识(如交通规则、导航信息)进行实时决策。这些任务主要涉及数据、信息和知识的处理。

 

AC在自动驾驶中的潜在应用

人工意识的引入可以极大地提高自动驾驶系统的决策质量,特别是在复杂或紧急的交通情景中。例如,AC系统可以评估多种行动方案的道德和安全后果,如在不可避免的事故情况下选择最小伤害的行动方案。这涉及到智慧层面的伦理判断和意图层面的目标设置,如保护人类生命的安全优先原则。

 

服务机器人

AI在服务机器人中的应用

服务机器人通常在餐饮、医疗和家居环境中执行具体任务,如送餐、基础医疗护理和清洁工作。这些机器人使用AI来处理视觉和语音数据,识别人类的指令并执行相应的操作。这主要涉及到数据和信息的处理,以及执行既定知识规则的能力。

 

AC在服务机器人中的潜在应用

引入人工意识可以使服务机器人在提供服务的同时,更加贴近人类的交互习惯和情感需求。例如,一个具备AC的服务机器人可以理解并适应用户的情绪和偏好,如在用户悲伤时提供安慰,或在用户忙碌时主动减少打扰。此外,AC还能使机器人在面对道德或选择困境时,如何处理用户的隐私和安全问题,做出更合理的决策。

 

这两个案例展示了AIAC在处理复杂情景中的差异。自动驾驶和服务机器人虽然已经能通过AI处理大量任务,但AC的引入为这些系统提供了进行高级认知处理的可能,特别是在需要智慧和意图处理的场景中。通过整合DIKWP模型的全部层面,未来的自动驾驶车辆和服务机器人将能更好地理解和适应人类社会和道德框架,提供更安全、更符合伦理、更个性化的服务。

 

 

8. 结论

通过深入分析和比较人工智能(AI)与人工意识(AC)在DIKWP模型各层面的交互和处理机制,我们能够更加清晰地理解两者之间的核心差异及其对未来技术发展的潜在影响。本报告从数据(Data)、信息(Information)、知识(Knowledge)、智慧(Wisdom)、和意图(Purpose)五个维度系统地阐述了AIAC的功能和应用场景,揭示了以下关键发现:

 

AI的局限性:尽管AI系统在处理数据、信息和知识方面表现出卓越的能力,它们在涉及智慧和意图的任务中通常显示出局限性。这是因为这些系统主要设计用于优化和执行明确定义的任务,而非处理复杂的人类情感、伦理判断或进行长期规划。

AC的先进特性:与AI相比,AC系统在模拟智慧和意图方面展现出更高级的认知处理能力。这不仅使得AC能够在未完全预设的环境中做出更合理的决策,也能更好地理解和反应人类的复杂需求,例如在道德和伦理问题上进行权衡。

技术与伦理的交汇:随着AIAC技术的发展,特别是在智慧和意图层面的应用扩展,技术与伦理的交汇点将变得越发重要。设计者需要考虑这些系统可能带来的社会、法律和伦理问题,确保技术的发展能够符合人类的价值观和道德标准。

未来发展方向:未来的研究与开发应更加关注如何将AC系统的高级认知能力整合到实际应用中,如何解决AC技术的可扩展性、可解释性及其与人类用户的交互问题。此外,跨学科的合作将是解锁AIAC潜能的关键,涉及认知科学、神经科学、机器学习、伦理学和哲学等多个领域。

通过本报告的分析,我们希望为AIAC领域的研究人员和技术开发者提供有价值的见解,助力他们在设计下一代智能系统时,能够更好地平衡技术的创新性与其社会责任。未来的智能系统不仅要技术先进,更要智慧和有意图,真正达到与人类智能相辅相成的水平。

 

 

参考文献:

Russell, S., & Norvig, P. (2010). Artificial Intelligence: A Modern Approach. Prentice Hall.

Goertzel, B. (2014). Artificial General Intelligence: Concept, State of the Art, and Future Prospects. Journal of Artificial General Intelligence.

Baum, E. B. (2004). What is Thought? MIT Press.

Searle, J. R. (1980). Minds, Brains, and Programs. Behavioral and Brain Sciences.

Harnad, S. (1990). The Symbol Grounding Problem. Physica D: Nonlinear Phenomena.

Turing, A. M. (1950). Computing Machinery and Intelligence. Mind.

Chalmers, D. J. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.

Tononi, G., Boly, M., Massimini, M., & Koch, C. (2016). Integrated Information Theory: From Consciousness to Its Physical Substrate. Nature Reviews Neuroscience.

Kurzweil, R. (2012). How to Create a Mind: The Secret of Human Thought Revealed. Viking.

Penrose, R. (1989). The Emperors New Mind: Concerning Computers, Minds and The Laws of Physics. Oxford University Press.

Dennett, D. C. (1991). Consciousness Explained. Little, Brown and Co.

Dehaene, S. (2014). Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts. Viking.

Block, N. (1995). On a Confusion about a Function of Consciousness. Behavioral and Brain Sciences.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Yudkowsky, E. (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Bostrom, N. & Cirkovic, M. M. (Eds.), Global Catastrophic Risks.

Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.

Damasio, A. (2010). Self Comes to Mind: Constructing the Conscious Brain. Pantheon.

Koch, C. (2012). Consciousness: Confessions of a Romantic Reductionist. MIT Press.

Edelman, G. M., & Tononi, G. (2000). A Universe Of Consciousness: How Matter Becomes Imagination. Basic Books.

Frankish, K., & Ramsey, W. M. (2012). The Cambridge Handbook of Artificial Intelligence. Cambridge University Press.

Deisseroth, K. (2020). Next-generation optogenetics tools for probing neural circuits. Nature Reviews Neuroscience.

Hassabis, D., Kumaran, D., Summerfield, C., & Botvinick, M. (2017). Neuroscience-Inspired Artificial Intelligence. Neuron.

Silver, D., et al. (2017). Mastering the game of Go without human knowledge. Nature.

Lake, B. M., Ullman, T. D., Tenenbaum, J. B., & Gershman, S. J. (2017). Building machines that learn and think like people. Behavioral and Brain Sciences.

Marcus, G. (2018). Deep learning: A critical appraisal. arXiv preprint arXiv:1801.00631.

Bengio, Y., Courville, A., & Vincent, P. (2013). Representation learning: A review and new perspectives. IEEE transactions on pattern analysis and machine intelligence.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature.

Jumper, J., et al. (2021). Highly accurate protein structure prediction with AlphaFold. Nature.

Stoica, I., et al. (2017). A Berkeley View of Systems Challenges for AI. arXiv preprint arXiv:1712.05855.

Mnih, V., et al. (2015). Human-level control through deep reinforcement learning. Nature.

Sejnowski, T. J. (2020). The unreasonable effectiveness of deep learning in artificial intelligence. Proceedings of the National Academy of Sciences.

Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to sequence learning with neural networks. Advances in neural information processing systems.

Saxe, A. M., McClelland, J. L., & Ganguli, S. (2019). A mathematical theory of semantic development in deep neural networks. Proceedings of the National Academy of Sciences.

Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation.

Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances in neural information processing systems.

Brown, T. B., et al. (2020). Language models are few-shot learners. Advances in neural information processing systems.

Churchland, P. S., & Sejnowski, T. J. (1988). Perspectives on cognitive neuroscience. Science.

Hinton, G. E. (2007). Learning multiple layers of representation. Trends in cognitive sciences.

Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural Networks.

Kandel, E. R., Markram, H., Matthews, P. M., Yuste, R., & Koch, C. (2013). Neuroscience thinks big (and collaboratively). Nature Reviews Neuroscience

 



https://wap.sciencenet.cn/blog-3429562-1431340.html

上一篇:DIKWP人工意识白盒测评标准框架设计与实践(Updated Version)
下一篇:Artificial Intelligence vs. Artificial Consciousness (DIKWP)
收藏 IP: 202.100.214.*| 热度|

1 李俊臻

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-7-17 05:57

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部