刘伟
人类语言中的字词不是大语言模型中的token 精选
2025-8-17 10:11
阅读:2815

表面上看,大模型中的token就是人类语言中的字词,但本质上看,人类语言中的字词更富含语义,意义随语境动态变化,具有文化依赖性;而大语言模型中的token则是基于统计和算法划分的符号单位,语义依赖模型上下文处理,更注重符号的客观性和固定性。简言之,字词是语义驱动的动态符号,token则是统计驱动的固定符号单位。

一、人类语言中的字词:语义驱动、动态性和文化依赖性

人类语言中的字词是语义驱动的,其核心在于字词所承载的意义。每一个字词都不仅仅是一个符号,而是一个丰富的语义单元。字词的意义随着语境、语用和文化背景的变化而动态调整,展现出极高的灵活性和多样性。例如,“苹果”这个词,既可以指一种水果,也可以在技术领域指代一家知名的电子产品公司。这种多义性使得字词在不同的语境中展现出不同的语义,体现了语言的动态性。此外,字词还具有强烈的文化依赖性。不同文化背景下的同一字词可能具有不同的内涵和外延。比如,“龙”在西方文化中往往象征着邪恶,而在中华文化中则是吉祥的象征。这种文化差异进一步丰富了字词的语义维度,使得人类语言成为一种高度复杂且富有表现力的交流工具。

人类语言中的字词富含深厚的语义和丰富的语用特点,它们的意义和用法并非固定不变,而是高度依赖于语境、文化背景和使用者的意图。这些特点使得字词的意义和用法在不同的情况下展现出极高的灵活性和多样性。

1. 语义的动态性

字词的意义是动态的,会随着语境的变化而变化。例如,“银行”这个词在不同的语境中可能指代金融机构,也可能指河岸边的堤岸。这种多义性使得字词的意义在不同的语境中灵活调整。同样,“苹果”在日常语境中指代一种水果,但在技术领域则可能指代苹果公司。这种动态性是人类语言的一个重要特征。

2. 语用的复杂性

字词的用法也受到语用的影响,不同的语用目的和语境会导致相同的字词有不同的用法。例如,“请关门”和“你能不能关一下门?”虽然都表达了让对方关门的意思,但语气和语用目的不同。前者更直接,后者更委婉。这种语用上的灵活性使得人类语言能够适应不同的社交需求。

3. 文化依赖性

字词的意义还具有强烈的文化依赖性。不同文化背景下的同一字词可能具有不同的内涵和外延。例如,“龙”在西方文化中往往象征邪恶,而在中华文化中则是吉祥的象征。这种文化差异进一步丰富了字词的语义维度,使得人类语言成为一种高度复杂且富有表现力的交流工具。

二、Token:统计概率驱动与符号划分,语义依赖上下文处理

相比之下,大语言模型中的token更多是一种基于统计和算法的符号单位划分。token的划分是通过模型对文本数据的统计分析和学习来完成的,其目标是将文本分解为更易于处理的单元,以便进行进一步的计算和分析。token本身并不直接承载明确的语义,其语义依赖于大语言模型对上下文的理解和处理。例如,在一个token序列中,同一个token在不同的上下文中可能被赋予不同的语义信息。大语言模型通过复杂的算法和大量的数据训练,学习到token之间的关联和序列规律,从而能够生成或理解符合语言习惯的文本。这种基于统计的符号划分方法,虽然能够在一定程度上模拟人类语言的生成和理解过程,但与人类语言中字词的语义驱动和动态变化存在本质区别。

大语言模型中的token是基于统计和算法的符号划分,其核心特征是通过向量空间来表征其语义和语用。这些token的语义和用法是通过模型对大量文本数据的学习和统计分析得出的,具有较高的固定性和系统性。

1. 向量空间的表征

在大语言模型中,每个token都被映射为一个高维向量,这些向量通过模型的训练过程学习到token之间的隐含关系。例如,BERT等预训练语言模型通过上下文感知的embedding,将token嵌入到一个高维空间中。在这个空间中,语义相近的token在向量空间中的距离较近,语义不同的token则距离较远。这种向量空间的表征使得模型能够处理大量的文本数据,并生成符合语言习惯的文本。

2. 系统性和固定性

token的语义和用法具有较高的系统性和固定性。模型通过统计学习得出的向量空间表征在一定程度上能够反映token的语义,但这种表征是基于静态的模型结构和大量的数据训练。因此,token的语义和用法相对固定,缺乏人类语言中字词的动态性和灵活性。

3. 语境感知的局限性

尽管大语言模型在语境感知方面取得了显著进展,但它们的语境感知能力仍然有限。模型通过上下文感知的embedding来捕捉token的语义,但这种捕捉是基于统计规律的,而非人类语言中的动态语义和语用调整。因此,在处理复杂的语境和文化背景时,模型可能会出现偏差。

三、人类语言的精妙与机器语言处理的本质区别

人类语言的精妙之处在于其动态性和文化依赖性。字词的意义在不同的语境和文化背景下灵活变化,使得人类语言能够以极富表现力的方式传达复杂的思想和情感。而大语言模型中的token则受限于统计驱动的符号划分方法,其语义依赖于模型对上下文的处理能力。这种差异反映了人类语言的精妙与机器语言处理的本质区别。人类语言是在长期的社会互动和文化传承中逐渐形成的,它不仅仅是一种交流工具,更是一种承载文化、情感和社会关系的复杂系统。而机器语言处理则是基于统计和算法的人工模拟,其目标是尽可能高效地处理和生成文本,但在处理人类语言的复杂性和动态性方面仍存在局限。

人类语言中的字词和大语言模型中的token之间的主要区别在于它们对语义和语用的表征方式。人类语言中的字词富含动态的语义和复杂的语用,能够灵活适应不同的语境和文化背景。而token则是基于统计和向量空间的符号单位,其语义和用法相对固定,缺乏人类语言中的动态性和灵活性。这种差异反映了人类语言的精妙与机器语言处理的本质区别。人类语言是在长期的社会互动和文化传承中逐渐形成的,它不仅仅是一种交流工具,更是一种承载文化、情感和社会关系的复杂系统。而机器语言处理则是基于统计和算法的人工模拟,其目标是尽可能高效地处理和生成文本,但在处理人类语言的复杂性和动态性方面仍存在局限。

四、人机交互中的字词与token

人机交互与协同中的瓶颈问题主要源于机器难以像人类一样动态捕捉语境、进行语义调整。机器的学习方式较为静态,缺乏对语境的敏感性,导致在理解用户意图时存在偏差。此外,语法规则的静态性与语言游戏的动态性之间存在矛盾,机器难以适应语言的不断变化。为解决这些问题,可以设计基于反馈的互动机制,让机器通过试探和互动学习用户意图;增强语境捕捉能力,使机器理解语言的上下文和动态变化;引入灵活的语义调整模型,允许机器在交互过程中逐步优化理解。

1、人类语言中的字词:能指、所指与意指的复杂性人类语言中的字词不仅仅是简单的符号,它们蕴含着丰富的语义和语用特性,这些特性在不同的语境中展现出高度的动态性和灵活性。

(1)能指与所指

在语言学中,能指是指词的音形,即我们用来表达意义的符号形式,而所指则是这些符号所指代的概念或意义。人类语言中的字词通过能指和所指的结合来传达信息。例如,“苹果”这个词,“苹”和“果”是能指,而“一种可食用的水果”是所指。

(2)意指

意指则是一个动态的过程,它涉及到符号的使用和解释。意指的过程不仅取决于语言的内部规律,还受到语境、文化背景和使用者意图的影响。例如,“苹果”在不同的语境中可能指代不同的事物,甚至可以用于比喻或象征,如“禁果”等。这种动态性使得人类语言能够适应各种复杂的情境。

2、机器中的token:统计驱动的符号单位

大语言模型中的token则是基于统计和算法的符号单位,其语义和用法主要依赖于模型对大量文本数据的学习和统计分析。

(1)Token的固定性

在大语言模型中,每个token被映射为一个高维向量,这些向量通过模型的训练过程学习到token之间的隐含关系。例如,BERT等预训练语言模型通过上下文感知的embedding,将token嵌入到一个高维空间中。在这个空间中,语义相近的token在向量空间中的距离较近,语义不同的token则距离较远。然而,这种向量空间的表征是基于静态的模型结构和大量的数据训练,缺乏人类语言中字词的动态性和灵活性。

(2)难以知几、趣时、变通

人类语言中的字词可以根据语境、文化背景和使用者意图灵活调整其意义和用法,而token则很难做到这一点。机器语言模型中的token更多是基于统计规律的符号单位,其语义和用法相对固定,缺乏动态调整的能力。例如,在处理复杂的语境和文化背景时,token可能无法像人类一样灵活地调整其意义和用法,导致生成或理解的文本不够准确或自然。

3、二者在人机交互中的挑战人类语言的精妙之处在于其动态性和灵活性,而机器语言处理的本质在于其统计性和固定性。这种差异在人机交互中表现出以下挑战:

(1)语境适应性:人类语言中的字词能够根据语境动态调整其意义和用法,而token则缺乏这种能力。这导致机器在处理复杂的语境时可能出现理解或生成偏差。

(2)文化适应性:人类语言中的字词具有强烈的文化依赖性,同一字词在不同文化中可能有不同的意义。而token则缺乏这种文化适应性,难以理解不同文化背景下的语义差异。

(3)动态调整:人类语言中的字词在使用过程中会不断变化和调整,而token则相对固定。这使得机器在处理一些需要动态调整的语义和语用场景时显得不够灵活。

4、解决方案与未来方向

为了克服这些挑战,未来的研究和开发可以从以下几个方面入手:

(1)增强语境感知能力:通过更先进的算法和模型结构,提高机器对语境的感知和理解能力,使其能够更好地适应不同的情境。

(2)文化敏感性:引入文化知识库,帮助机器更好地理解不同文化背景下的语义差异,从而提高跨文化交流的准确性。

(3)动态调整机制:开发更灵活的模型结构,使token能够根据语境和使用者意图动态调整其语义和用法,从而更好地模拟人类语言的动态性。通过这些努力,可以逐步缩小人类语言和机器语言处理之间的差距,构建更加高效、自然和可靠的人机交互系统。

无标题.jpg

机器能否通过“计算”实现“算计”?

机器可以通过计算模拟算计的行为表现,但无法真正实现人类意义上的算计。算计涉及目的性、情感和创造力,而机器目前缺乏这些特质。不过,如果算计仅指目的性和策略性的行为表现,那么机器的算计已经实现,如AlphaGo在围棋中的表现。

一、机器智能(如深蓝、阿尔法GO/ZERO)的“算计”与人类的“算计”有何不同

1、在基础原理方面

机器智能,如深蓝主要基于暴力搜索和 α-β 剪枝算法,通过强大的计算能力穷举大量可能的走法,并依据国际象棋大师总结的知识对局面进行评估来选择最佳策略。阿尔法Go 则采用蒙特卡洛树搜索、深度学习和强化学习等方法,利用神经网络对围棋局面进行评估和落子概率预测,再结合搜索算法找到最优解。

人类的算计则是依赖大脑的神经元网络,结合长期与内外部世界交互而积累的经验、知识、直觉和逻辑推理等进行综合判断和决策,很难用精确的数学模型和算法来描述。

2、知识获取方式

机器智能(如深蓝)的学习方式是基于人类输入的大量国际象棋开局和残局知识,以及通过 α-β 剪枝算法对搜索过程进行优化来不断提升对弈水平。阿尔法Go 在此基础上,借助深度学习从专业棋手的棋谱中学习围棋知识,而阿尔法Go Zero 则完全摒弃人类棋局,仅依据围棋规则,通过自我对弈产生数据进行学习。

人类从出生起就开始通过与环境互动、接受教育、向他人学习、不断反思调整等多种途径获取知识和经验,并在不断实践和思考中积累和丰富对世界的认知。

3、思维特点

机器智能思维方式较为直接和线性,按照预设的算法和程序进行计算和推理,缺乏对问题的深入理解和创造性思维。如深蓝在对弈时,主要是按照搜索和评估的步骤,逐一对各种可能的走法进行分析和比较。

人类则具有发散性思维,能够从不同角度思考问题,进行联想、类比和创造性思考,还可以根据实际情况灵活调整思维方向和策略。

4、决策过程

机器智能决策过程相对固定和机械化,依据算法计算出的结果来做出决策,不会受到情绪、心理等因素的影响。例如阿尔法Go 在选择落子时,主要根据神经网络评估出的获胜概率和搜索算法确定的最佳路径来进行决策。

人类的决策过程较为复杂,会受到多种因素的影响,如个人的情感、价值观、风险偏好等,而且能够在决策过程中进行权衡和取舍,做出更具灵活性和适应性的决策。

5、适用范围

机器智能通常具有特定领域的局限性,如深蓝只能用于国际象棋对弈,阿尔法Go 系列主要用于围棋领域,在其他领域则难以发挥作用。

人类具有通用性和广泛适用性,能够在各种不同的情境和问题上进行思考和决策,具备举一反三和融会贯通的知几、趣时、变通能力。

二、在人机环境系统中,机器智能可通过以下方式实现类似人类意义上的“算计”

1、深度感知与理解

① 多模态感知融合:融合视觉、听觉、触觉等多种传感器,全面感知环境和人类状态。如智能音箱通过摄像头和麦克风,判断孩子是否真在学习。

② 语义理解与知识图谱:利用自然语言处理和知识图谱技术,使机器理解人类语言和知识。如智能助手分析用户自然语言指令,结合知识图谱提供准确回答。

2、基于价值和意图的决策

① 嵌入伦理与社会规范:将伦理规则和社会规范嵌入系统,如自动驾驶汽车在决策时考虑乘客和行人的安全优先级。

② 意图识别与推理:通过分析人类行为和表情等,识别意图并推理。如智能系统根据用户行为和表情,推荐符合心情的音乐或电影。

3、动态策略生成与优化

① 强化学习与策略迭代:运用强化学习算法,让机器在与环境交互中不断试错,学习最优策略。如智能体在复杂任务中通过强化学习找到高效解决方案。

② 模拟与预判未来:基于历史数据和趋势,模拟未来场景并预判变化,提前规划。如金融智能系统预测市场趋势,制定投资策略。

4、人机协作与交互

① 人机协同决策:建立人机协同决策机制,发挥人与机器优势。如医疗诊断中,机器提供分析结果,医生结合经验判断,共同制定方案。

② 自然交互与反馈:通过自然语言交互和可视化界面,让人机交互更自然,并及时反馈信息。如智能机器人在工作中实时反馈进度和问题,与人类协作解决。

5、自我反思与持续学习

① 元学习与自我优化:赋予机器元学习能力,使其学会学习方法,在新任务中快速适应。如智能系统分析过往决策,优化策略生成机制。

② 情感与价值建模:建模人类情感和价值观,融入决策。如情感机器人根据主人情绪调整行为,提供安慰或鼓励。

要让机器智能实现人类意义上的“算计”,关键在于让机器具备类似人类的情感和创造力。当前,机器在规则性计算上表现卓越,但在情感模拟和主观价值判断上仍显不足。我们可以通过强化学习等技术赋予机器动态调整策略的能力,并模拟情感输入,让机器在某种意义上接近算计。然而,要完全实现人类算计,还需在情感复杂性和主观价值判断上取得突破。目前,机器实现的更可能是“类算计”能力,而非完全的人类算计。

三、未来的机器智能(比深蓝、阿尔法GO/ZERO更厉害)的“算计”会不会超越人类的“算计”

未来的机器智能在某些方面有可能在“算计”上超越人类,但要全面超越人类的“算计”仍有诸多挑战。

1、机器智能的优势及超越人类的可能性

机器智能具有强大的计算能力与数据处理能力,可以快速处理海量的数据,进行复杂的计算和分析,并从中发现规律和模式。如在金融领域,机器智能可以通过对大量历史交易数据的分析,快速准确地预测市场趋势、评估风险等,为投资决策提供有力支持,其计算速度和处理数据的规模是人类无法比拟的。

机器智能能够依据预设的精确算法和模型进行精准决策,避免了人类决策时可能受到的情绪、偏见等主观因素的干扰。在一些规则明确、目标清晰的领域,如围棋、国际象棋等棋类游戏以及特定的工业生产流程控制等,机器智能可以做出更加客观、理性和精准的决策,甚至超越人类顶尖高手。

随着技术的发展,机器智能具备了越来越强的持续学习和自我优化能力。以深度学习为例,机器可以通过不断地训练和学习大量的数据,自动调整和优化模型参数,从而不断提高自身的性能和表现。例如阿尔法Go Zero能够在没有人类先验知识的情况下,通过自我对弈快速成长为围棋顶尖水平,并且不断突破和创新围棋的战术和策略。

机器智能还可以同时处理多个任务,并且在不同的系统和设备之间实现高效的协作。在智能交通系统中,机器智能可以实时监测交通流量、路况等信息,同时协调多个交通信号灯的控制,优化交通流量的分配,提高整个交通系统的运行效率,而人类在多任务处理和大规模协作方面往往受到生理和认知的限制。

2、机器智能难以全面超越人类“算计”的原因

尽管机器智能在数据处理和模式识别方面表现出色,但它并不真正理解其处理的数据和所执行的任务的意义。它只是按照预设的算法和程序进行操作,无法像人类一样对问题进行深入的理解、思考、抽象和创造。人类的创造力源于对世界的深刻理解和独特的思维方式,能够创造出全新的概念、理论和艺术作品等,而机器智能在这方面目前还远远无法企及。

人类在面对不确定性和模糊的情境时,能够依靠直觉、经验和对复杂情况的整体把握做出合理的判断和决策。而机器智能通常需要明确的规则和数据输入,对于那些无法量化、不确定或模糊的问题,其处理能力相对有限。例如在一些需要创新思维和灵活应对的社会、文化或伦理等领域,机器智能往往难以像人类一样做出恰当的反应。

人类的“算计”往往受到情感、价值观和意图的驱动,具有主观能动性和目的性。人们会根据自己的情感和价值判断来选择目标和制定计划,并且在追求目标的过程中会不断地调整自己的策略和行为。而机器智能则缺乏情感和内在的动机,其行为只是对外部输入的响应,缺乏人类那种主动的、有目的的思考和行动能力。

尽管机器智能技术在不断发展,但仍存在一些技术局限性和潜在风险。比如,机器智能的算法可能存在漏洞或偏差,导致其决策出现错误或不可预测的结果。此外,机器智能的发展也可能受到硬件性能、能源消耗、数据安全等因素的限制。在一些关键领域,如医疗、航空等,对机器智能的可靠性、安全性和稳定性要求极高,目前的技术水平还难以完全满足这些要求。

未来的机器智能若能主动利用人、机、环境的系统性交互,有望产生更像人类的“算计”性智能。这种智能将具备动态目标定义能力,能根据交互反馈主动调整目标,而非被动接受任务;同时,机器能综合环境和人类的多源信息,自主生成复杂策略,优化行为;此外,机器不仅能适应环境,还能通过调整行为影响环境,实现更高级的“算计”。不过,要实现这一目标,还需在动态目标生成、多模态信息融合及意图解读等技术层面取得突破。

石头剪子布.jpg

人机协同中的确定性与非确定性

在人机协同中,“知道”与“确定性”体现了人类与机器在认知上的差异。人类的“知道”基于主观参照系统,依赖个人经验、语言定义和逻辑推理,是逻辑与语言游戏在个人能动性中的体现。而机器的“知道”则基于客观规则系统,通过程序、算法和数据处理实现,是对输入的响应。两者虽在逻辑层次上有共通性,但参照系统的参与方式存在本质差异,即在人机协同中,“确定性”和“非确定性”与人和机的参照系密切相关。实际上,单独看一个偶然命题,很难说它是绝对确定的,人类判断命题的真假,其实是在依靠自己的参照系统和背景知识,而不是孤立地去确定它。

一、人机协同中的“确定性”与“非确定性”

1、人类的参照系与确定性、非确定性

人类的参照系是动态的、主观的,并且受到多种因素的影响。人类的认知和决策基于自身的经验、知识、情感、文化背景以及逻辑推理能力。

在人类的参照系中,确定性通常与经验、知识和逻辑推理相关。当人类遇到一个熟悉的问题时,会基于以往的经验和知识,通过逻辑推理得出一个确定的答案,比如,一个数学家在解决一个已知的数学问题时,会根据已有的数学定理和公式,通过逻辑推理得出一个确定的结果。人类的参照系也会导致非确定性,这种非确定性可能源于信息的不完整、知识的局限性、情感因素的干扰等,在面对一个全新的、复杂的问题时,人类可能无法立即得出确定的答案,因为缺乏足够的信息或经验。此外,情感因素也可能导致决策的非确定性。比如,在面对一个重要的决策时,人类可能会受到情绪的影响,从而无法做出完全理性的选择。

2、机器的参照系与确定性、非确定性

机器的参照系基于其编程、算法、数据和规则。机器的决策和行为是通过预设的逻辑和规则来实现的,这些逻辑和规则是人类设计并输入到机器中的。

在机器的参照系中,确定性主要体现在其对规则和算法的严格执行上。只要输入的数据符合预设的规则和算法,机器就能给出确定的结果,一个简单的计算器程序,只要输入正确的数学表达式,它就能准确地计算出结果。这种确定性是基于机器对规则的严格遵循,不受情感、主观因素的干扰。

机器的非确定性通常源于其对复杂问题的处理能力有限,或者在面对模糊、不确定的输入时无法给出明确的答案。一个自然语言处理系统在处理模糊的、有歧义的语句时,可能会出现非确定性。此外,机器的非确定性也可能源于其算法的局限性。例如,一些机器学习算法在面对新的、未见过的数据时,可能会出现不确定的预测结果。

3、人机协同中的“确定性”与“非确定性”

在人机协同中,人类和机器的参照系相互作用,共同影响着“确定性”与“非确定性”的表现。人类和机器在确定性和非确定性方面具有互补性。人类在处理复杂问题、情感因素和创造性任务时具有优势,而机器在处理规则性、重复性和数据处理任务时表现出色。如在医疗诊断中,医生可以根据患者的症状、病史和经验做出初步判断,而机器可以通过分析大量的医疗数据,提供更精确的诊断建议。两者的结合可以提高诊断的准确性和可靠性。

在人机协同中,确定性和非确定性的处理可以通过协同决策来实现。人类可以根据机器提供的数据和分析结果,结合自己的经验和判断,做出更全面、更准确的决策。在自动驾驶汽车中,机器负责处理实时的路况数据和驾驶规则,而人类驾驶员可以根据机器提供的信息,结合自己的驾驶经验和直觉,做出最终的决策。

人机协同中的确定性和非确定性是一个动态过程。随着人类对机器的理解加深,机器的算法和规则不断优化,人机协同的效率和准确性也会不断提高。如随着人工智能技术的发展,机器在处理复杂问题和模糊输入方面的能力不断增强,人类和机器之间的协同也更加高效。在人机协同中,“确定性”和“非确定性”与人和机的参照系密切相关。人类的参照系基于经验、知识和情感,而机器的参照系基于规则和算法。两者在确定性和非确定性方面具有互补性,通过协同决策和动态调整,可以实现更高效、更准确的人机协同。这种协同不仅能够充分发挥人类和机器的优势,还能克服各自的局限性,推动人机协同的发展。

二、人类的“知道”与相信有关

在人机协同中,人类的“知道”与“相信”确实密切相关。

1、人类的“知道”是什么?

人类的“知道”可以理解为人类对某种信息或事实的认知。你知道“今天是星期天”,你知道“水在0摄氏度时会结冰”。这些知识来自于你的经验、学习和推理。

2、人类的“相信”是什么?

人类的“相信”则是你对某个信息或事实的信任程度。比如,你相信“明天会是个好天气”,因为天气预报是这么说的。这种相信可能基于证据(比如天气预报),也可能基于直觉或经验。

3、“知道”与“相信”的关系

人类的“知道”往往是基于“相信”的。

(1)相信是知道的前提

假设你看到天气预报说“明天会下雨”,于是你相信了这个信息。因为你相信天气预报是可靠的,所以你才会“知道”明天可能会下雨。在这种情况下,你对天气预报的“相信”是让你“知道”明天可能下雨的前提。如果没有这种相信,你就不会把天气预报的内容当作知识来接受。

(2)知道可以强化相信

你相信天气预报说“明天下雨”,然后你出门的时候带了伞。结果,第二天真的下雨了。这次经历会让你更相信天气预报的可靠性。当你通过经验验证了你的“知道”是正确的,这种经历会反过来强化你对天气预报的“相信”。

4、人机协同中的“知道”与“相信”

在人机协同中,这种“知道”与“相信”的关系同样存在,而且非常重要。

(1)人类对机器的“相信”

你使用一个语音助手来查询某个信息。你相信这个语音助手能给你正确的答案,所以你才会去使用它。你对机器的“相信”让你愿意接受机器提供的信息,从而“知道”某些事情。如果你不信任机器,就不会把机器提供的信息当作知识来接受。

(2)机器的“知道”与人类的“相信”

机器学习模型可以识别图片中的物体。你可能会问机器“这是不是一只猫”,机器回答“是的”。你对机器的“相信”程度会影响你是否接受这个答案。机器的“知道”是基于它的算法和数据。如果你相信机器的算法和数据是可靠的,你就会接受机器的“知道”为真。

5. 复杂情况

在实际的人机协同中,情况会更复杂一些:

(1)人类可能会怀疑机器的“知道”

机器翻译工具有时候会翻译错误。你可能会对机器的翻译结果产生怀疑,因为你发现它不总是准确的。这种怀疑会影响你对机器“知道”的接受程度。你会更倾向于用自己的知识和经验去验证机器的结果,而不是直接接受它。

(2)机器可能无法理解人类的“相信”

你可能因为直觉觉得某个地方不安全,而机器却说那里很安全。机器是基于数据和算法得出结论的,它无法理解你的直觉。在这种情况下,人类的“相信”和机器的“知道”可能会冲突。人类可能会更依赖自己的直觉和经验,而不是完全听从机器的建议。简言之,人类的“知道”往往基于“相信”,而“相信”又会影响人类对机器“知道”的接受程度。在人机协同中,这种关系非常重要。人类需要对机器有一定的“相信”,才能有效地利用机器的“知道”;同时,机器也需要理解人类的“相信”方式,才能更好地与人类协同工作。

三、机器的“知道”与确定性“知识”有关

在人机协同中,机器的“知道”与“确定性知识”紧密相关,而与“相信”的关系相对较小,这源于机器的运作方式和人类有本质的不同。

1、机器的“知道”是基于确定性知识的

机器的“知道”主要来自其内部的程序、算法、数据和规则。这些知识是预先设计好的,或者通过机器学习从大量数据中学习得到的。预设程序,如一个计算器程序,它“知道”如何进行加减乘除运算,是因为它的程序里写好了这些运算规则。它会严格按照这些规则来处理输入的数据,给出确定的结果。

机器学习模型,如一个图像识别系统“知道”一张图片上是一只猫,是因为它在训练过程中学习了大量猫的图片特征。它通过这些特征来判断新的图片是否为猫,这种判断是基于数据和算法(或基于规则或基于统计概率)的。这种“知道”是确定性的,因为它完全依赖于机器内部的逻辑和规则。只要输入符合规则,输出就是确定的。

2、机器的“知道”与“相信”关系不大

机器没有“相信”的概念,因为它们没有主观意识、情感或个人经验。机器只是按照预设的规则和算法来处理信息,不会像人类那样基于信任或怀疑来接受或拒绝信息。

人类可能会因为信任某个信息源而相信其提供的信息,或者因为怀疑某个信息而拒绝它。但机器不会这样,它不会“信任”或“怀疑”任何信息,它没有主观偏见,只是根据自己的规则来处理信息。比如,一个自动驾驶汽车系统“知道”如何识别交通信号,是因为它被编程了识别交通信号的规则。它不会“相信”交通信号是正确的,它只是按照规则去识别并做出反应。

3、人机协同中的具体情况

在人机协同中,这种差异会导致一些有趣的情况:

(1)人类需要“相信”机器,但机器不需要“相信”人类

① 人类对机器的信任:人类在使用机器时,需要对机器有一定的信任,才会愿意接受机器提供的信息或建议。比如,你使用一个导航软件,你需要相信它能给你正确的路线。

② 机器对人类的信任:机器不需要“相信”人类,它只是按照规则处理人类输入的信息。比如,你在自动驾驶汽车中输入目的地,汽车会按照预设的规则和算法来规划路线,不会“相信”你输入的信息是正确的,它只是按照规则去处理。

(2)机器的“知道”可能需要人类的验证

虽然机器的“知道”是基于确定性知识的,但人类可能仍然需要验证机器的结果,尤其是当机器的判断与人类的直觉或经验冲突时。比如,机器翻译软件可能会有错误,人类需要通过自己的知识和经验来判断翻译结果是否正确。

4. 例子

当你问语音助手“今天天气怎么样”,它会根据它的知识库给出答案。这个答案是基于确定性知识(天气预报数据)的。机器不需要“相信”天气预报,它只是按照规则处理这些数据。一个医疗诊断系统可以根据输入的症状和数据,给出可能的诊断结果。这个结果是基于机器学习模型和医学数据的,而不是基于“相信”医生提供的信息,但医生可能会根据自己的经验来验证这个结果。从上述不难看出,在人机协同中,机器的“知道”是基于确定性知识的,而与“相信”关系不大。机器严格按照规则和算法处理信息,没有主观意识或情感。人类则需要对机器有一定的信任,才能有效地利用机器的“知道”。这种差异导致了人机协同中独特的互动方式,人类需要验证机器的结果,而机器则完全依赖于确定性的规则。

四、人机协同中的信任

在人机协同中,建立人机之间的相互信任是一个复杂但至关重要的任务,它涉及多个方面的考量,包括可解释性、常识、参照系、背景和学习等因素。

1、可解释性

可解释性是建立人机信任的关键因素之一。AI系统需要能够清晰地解释其决策过程和逻辑,让用户理解其行为。通过解释生成模型、特征可视化工具和因果路径追踪机制等手段,可以增强AI决策的透明度。这不仅有助于用户理解AI的决策,还能让用户在面对AI的建议时做出更合理的判断。例如,提供AI决策的置信度(如预测的准确率)也能帮助用户校准对AI的信任。

2、常识和背景

常识和背景信息对于人机协同至关重要。人类在使用AI时,会基于自己的常识和背景知识来评估AI的建议。如一个医疗诊断系统如果忽视了人类医生的常识和经验,可能会导致不准确的诊断。因此,AI系统需要能够理解并融入人类的常识和背景,这样才能更有效地与人类协同工作。此外,AI系统若能更好地理解和适应人类在不同情境下的行为模式,也能增进双方的信任。

3、参照系

参照系是人类理解世界和做出判断的基础。在人机协同中,人类和机器可能有着不同的参照系。人类的参照系基于个人经验和文化背景,而机器的参照系则是基于数据和算法。因此,要建立信任,需要在两者之间找到共同的参照系或建立有效的转换机制。例如,AI系统可以通过学习人类的行为模式和语言,更好地与人类的参照系对齐。

4、学习

学习能力对于人机协同中信任的建立也极为重要。AI系统需要能够通过学习来不断优化其决策过程,以更好地适应人类的需求。这包括对用户行为的学习和对新情境的适应。例如,通过社会性学习机制,AI可以根据每次互动经验更新对人类行为的理解模型,从而逐步优化合作策略。此外,AI系统还可以通过与人类的交互来学习人类的价值观和目标,从而更好地与人类协同工作。

5、互信的建立

建立人机相互信任需要多方面的努力。AI系统需要具备高度的透明度和可解释性,以便人类用户能够理解其决策过程。同时,AI系统需要能够适应人类的常识、背景和参照系,从而更好地与人类协同工作。此外,通过持续的学习和优化,AI系统可以不断提高自身的性能和可靠性,进而增强人类对AI的信任。

总而言之,在人机协同中,单独看一个偶然命题,很难说它是绝对确定的,人类判断命题的真假,其实是在依靠自己的参照系统和背景知识,而不是孤立地去确定它。可解释性帮助人类理解机器的决策依据,增强信任感;常识和背景知识让机器更好地融入人类的认知体系,提升协作的自然度;参照系的对齐确保了人类和机器在相同的基础上进行交流与决策;而学习能力则使机器能够不断适应新的情况和人类的需求。这些因素相互作用,共同促进了人机之间的相互信任。通过强化这些方面,可以构建更加高效、可靠且易于理解和协作的人机协同系统。

转载本文请联系原作者获取授权,同时请注明本文来自刘伟科学网博客。

链接地址:https://wap.sciencenet.cn/blog-40841-1497987.html?mobile=1

收藏

分享到:

当前推荐数:2
推荐人:
推荐到博客首页
网友评论0 条评论
确定删除指定的回复吗?
确定删除本博文吗?