大语言模型翻译的认知特征及其发展变革路径探讨
摘要:大语言模型(Large Language Models,LLMs)的迭代更新和广泛应用为翻译行业、翻译流程和翻译人员带来深刻变革。“人机交互”逐渐成为数字化翻译行业中的交际常态,基于海量训练数据、多维参数和深度学习技术构建的大语言模型,涉及人工智能与机器语言和自然语言之间不可忽视的紧密联系。目前学界研究主要聚焦于机器翻译应用效能、机器翻译教学、人机关系挑战等“行动”层面的探讨,而对机器翻译中大语言模型“认知”层面的研究关注较少。本文从人工智能哲学层面,探索大语言模型在翻译认知层面的表现、问题与发展路径,为人工智能翻译质量的提升提供新视角。
关键词:
基金资助:
国家社会科学基金项目“神经网络机器翻译质量提升研究”(项目编号:22BYY042);
专辑:
哲学与人文科学;信息科技
专题:
中国语言文字;自动化技术
分类号:
H059;TP18
在线公开时间:
2025-09-22 10:44(知网平台在线公开时间,不代表文献的发表时间)
进入数智时代,人工智能在翻译应用领域已展现出非凡的能力。大语言模型是基于Transformer架构的深度学习模型,在多个数据集上进行大规模预训练,然后通过微调(Fine-tuning)实现特定任务,可以识别、生成、理解自然语言,对文本生成、自动翻译、情感分析等任务产生巨大影响(焦建利、陈婷,2023;肖仰华,2023)。然而,要判断以Chat GPT为代表的生成式人工智能是否具备优秀的翻译能力,首先取决于大语言模型对语言信息的认识和理解。认知理论与人工智能的结合目前还是一个受到较少关注的翻译研究领域(陈薄文,2022:6)。大语言模型虽在一定程度上颠覆了人类对机器智能实现路径的传统认识,但其机理和真正的人类语言习得和加工机制相比仍存在一定的局限性。人工智能发展的目标是构建模仿人类思维、行为等高智功能的通用型机器,并实现在多个领域以类似人类水平或者更高水平完成理解和推理任务的人工智能系统,以更好服务人类并满足社会生产发展的需求(袁筱一、甘露,2024;冯志伟、张灯柯,2024)。对于大语言模型在执行翻译任务中涉及的知识能力、语义逻辑偏差、信息处理风险、语境理解差异、价值偏见等认知层面的问题尚未有较系统性的探讨。本文将从人工智能哲学视角,聚焦大语言模型的“认知”层面,探索其在翻译认知中的表现特征、存在问题与发展路径,以期为批判性理解人工智能的本质、把握大语言模型在翻译过程中的运作特征,进一步发挥人工智能的翻译效能提供思考和研究借鉴。
一、大语言模型翻译的认知原理和特征
《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)指出智能机器人具备自主性能力、分析数据的能力、学习能力和因环境而调整行动的能力。随着人工智能在不断发展,大语言模型在自然语言处理和翻译领域获得广泛应用,让人不再成为知识和文化的唯一创造者。
大语言模型是以生成式预训练语言模型为基础,使用自注意力机制并通过大规模参数和文本数据训练,采用数据驱动的“端到端嵌入”(end-to-end embedding)的方式将语言数据转化为高维向量空间中的词向量和句向量以进行意图理解、语言生成、对话控制和知识调用等任务的自然语言处理技术模型。Chat GPT运用“字节对编码”(Byte-Pair Encoding, BPE)的词元化方法辅助模型处理不同语言、词汇表和文本格式。词元化(tokenization)指将输入和输出文本拆分为可由大语言模型处理的词元的过程,通过读取亿万个“词元”并发挥模型自注意力机制高效捕捉长距离关系和全局上下文信息,只要根据语境对下一个“词元”预测来调整参数,就可生成符合上下文语境、语法语义和逻辑通顺的文本,在翻译中具备出色的语言生成能力(马畅等,2024)。
对于人工智能大语言模型翻译认知的理解,学界持有不同的看法。有人认为人工智能是模拟生物——主动感知环境并给出反馈,这与人类思维活动模式相当接近,现阶段的人工智能在翻译实践层面表现优异,大语言模型在翻译处理中具备一定的“创造性”(袁筱一、甘露,2024:12)。有人认为人工智能创作物和人类作品在形态和结果上可能完全相似甚至相同,但是人工智能只是逻辑、算法、数据的选择和对应,“不存在行动和结果之间的意识、目的及思想情感的关联”(曾白凌,2020:75)。有学者以Chat GPT为例,指出语言智能模型的三种强大能力:语言生成能力、上下文学习能力以及世界知识能力,包括事实性知识和常识(朱光辉、王喜文,2023)。另有学者尝试从认识论视角理解智能,指出大模型的智能本质上是情景化生成能力,可被分解为知识、能力与价值三个阶段(肖仰华,2023)。还有学者基于认知心理学对翻译任务的理解,探讨人工智能背景下译者能力和翻译作品特征,提出“翻译批判性思维”“翻译创造性思维”“翻译沟通思维”和“翻译情感思维”等四类高阶思维能力(张静,2024)。因此,基于对现有研究中有关大语言模型和译者翻译思维认知机制的探讨进行总结梳理,大语言模型的翻译认知特征可具体表现为翻译知识特征、翻译理解特征和翻译价值特征。
(一)大语言模型的翻译知识特征
大语言模型的翻译知识特征表现为大模型对翻译知识的习得、迁移、应用和再创造。传统认知范式下,“知识”被视为将信息以特定结构形式表征出来的一种认知取向,既包括系统化、正式化的专业知识,也涵盖人类日常经验中非正式的常识性知识(周葆华,2023)。而在翻译认知语境中,翻译并非孤立完成的语言转换过程,而是一个跨主体、多维度的知识重构活动。翻译行为往往依托于译者对原文语境、领域知识、语言规则与文化符号的多层认知融合。有学者指出,翻译可看作是不同知识群体之间的意义迁移与再表达(Manning & Owen,2018)。基于此,知识翻译学将“知识”视作翻译的本质属性,强调知识的翻译和经由翻译生成的知识间存在紧密联系,体现了语言系统与认知结构的双重加工机制(戴光荣、黄栋樑,2023)。
大语言模型根据特定算法指令需求提供认知资源和知识资源,通过人机交互的协同工作,进一步提高知识的调用效能。如今,大语言模型对信息的习得并非是在一个固定的知识库中搜索和调用知识,而是通过情景学习、思维链训练、指令微调以及在人机交互过程中人类给予的反馈强化对知识的学习应用(Zhou et al., 2023)。大语言模型的知识生成机制本质仍是统计属性,语言模型虽能跨越学科疆界“涌现”生成富有知识含量的文本,但其并不能原创性地生成新知,并且翻译知识应用是从一个大型系统中获得可能性与或然率的过程。这样的“或然率资料库”(周葆华,2023:23),意味着在任何时刻获得的知识带有随机性、复杂性、无常性、不确定、变化性等特征(Hartley,2012)。
(二)大语言模型的翻译理解特征
大语言模型的翻译理解特征表现为大语言模型对翻译语境和译员指令的理解能力,其中大语言模型对翻译语境的理解包括翻译文本(原文、译文、翻译训练语料文本等)的上下文语境、翻译文体风格、文化背景和译者指令中创设的情境要求(胡开宝、李晓倩,2023)。大语言模型基于上下文学习能力,一定程度上可对文学文本中具有鲜明文学标记的影射、隐喻以及与前置词有一定距离的代词进行理解和判断,并传递相对正确的意义,而在生产译文的再表达阶段,大语言模型在多义中进行选择,出现了较为明显的增译或删减等语言处理,表现出一定的逻辑推理和综合判断能力(袁筱一、甘露,2024)。大语言模型对语言成分的“远距离依存”“词汇歧义”“结构歧义”“语义关系”“因果关系”和“逻辑推理”的认知处理,以及对最终译文产出的准确度、完整度、流畅度等质量评估表现都具有重要影响。
理解作为翻译的核心,往往要求人工译员不仅要理解源语言和目标语言,还需要理解原文的意义、背景和文化差异。这种深层次的理解对于准确转达信息至关重要。机器翻译在某些领域和大规模文本处理上表现出色,但仍存在一定的局限性,其依赖于算力、算法、算据的数字本质决定了大语言模型在处理文本时仅仅是依据统计规律模仿语言的同现概率而形成语言词句的组合,往往缺乏真正的理解。特别是在翻译文学作品、剧本、广告或其他具有文化特色的内容时,大语言模型翻译可能无法捕捉原文的情感表达方式,出现“一本正经的胡说八道”现象(耿立波、刘一秀,2023:669)。翻译本身是一种创造性活动,是人的理性思维(观察、比较、分析、综合、抽象与概括等)和非理性思维(情感、直觉、幻觉、下意识、灵感等)相结合的体现(王贇、张政,2022;2024),大语言模型“涌现”能力的呈现依然受人类的影响,如人类微调指令的不同、对指令情景选择的差异等,而非模型特性上的根本性变化,这与翻译活动中人类语言的创造属性存在本质不同。
(三)大语言模型的翻译价值特征
大语言模型翻译价值特征具体表现为大语言模型所输入的语言数据及输出的翻译产品所涉及的价值观、意识形态、数据偏见、知识产权、隐私保护等伦理体现(胡开宝、李晓倩,2023;李南等,2024),其翻译过程不仅基于算法、算力和算据,还涉及人类主体行为的调控。大语言模型处理的海量翻译文本和知识中蕴含着人类历史沉淀的社会体制、意识形态、价值观念、权力结构与文化观念(周葆华,2023)。模型依靠海量数据及特定算法,通过将翻译文本中词汇、句子、篇章等文字符号转化为多维向量后,在向量的实数关系中实现了语言不同项之间的“微弱关联”,而在此基础上的产出往往未经人类的检验和反思,模型的“思维方式”并非是客观中立的结果,意识形态倾向必然会通过某种形式在其最终翻译产品中有所呈现,可能对人类思想的产出进行“反规约”(蓝江,2023:17)。目前应用于翻译领域的Chat GPT系列、T5(Text-to-Text Transfer Transformer)、RoBERTa (Robustly optimized BERT approach)等大语言模型仅仅实现了“离身”智能(disembodiment,认知与身体解耦),对于价值判断和价值对齐等处理能力不足。因此,大语言模型在处理跨语言文化的翻译任务时,其生成的翻译文本会出现意识形态倾向、偏见保留、偏见放大、数据挪用(使用未经知识产权作者或译者许可的语言数据)、个人隐私数据公共化等特征。
二、大语言模型翻译面临的问题与挑战
与传统辅助翻译工具不同,大语言模型在翻译领域的认知特征主要体现在其深度学习和自注意力机制上,依靠大规模语料和智能算法机制渗透了翻译学习、翻译理解、翻译生产和翻译协作的全过程。大语言模型在翻译认知层面的表现对翻译产品质量、翻译伦理和翻译主体的关系带来冲击,具体分析如下。
(一)翻译质量问题
人工智能的生成内容并非对现有知识、信息的简单复制和拼接,其根据译员不同指令参与翻译活动生成翻译作品的创新能力是前所未有的,“在外在形式上与人类创作的作品并无本质上的不同”(耿立波、刘一秀,2023:669)。但就内容和传播效果来看,大语言模型的译文与人工译者的译文相比仍存在较大差距。
大语言模型的背后机制是信息的概率组合,其创新亦是对已有信息的重新组合,而非真正地创造。有学者指出“人工智能译本中目标文本的句子顺序总是和原文相同,源文本中的句子很少通过增译或省译在目标文本中体现意义,面对文学作品中复杂且文化审美含量丰富的句段,人工智能翻译处理的局限性暴露无遗”(葛颂、王宁,2024:96)。通过对比莎士比亚戏剧的梁秋实译本和大语言模型译本,发现与人工译者相比,机器翻译通常采用直译,受到源语句子句法结构的限制(Hu & Li,2023)。大模型翻译因缺乏百科知识支撑与语境理解能力,在近义词辨析、文化适配等方面仍显不足,易致错译、表述生硬、文化内涵缺失等问题,难以兼顾词义精准度、语境适配性及语言多样性,译文质量常受桎梏。
(二)伦理规范问题
大语言模型生成的文本中可能包含偏见、歧视等有害内容,或生成带有误导性的虚假或低质量信息(Lin et al., 2022),这些现象常被称为“毒性或幻觉”。大语言模型翻译产品的“毒性”可能和源语文本自身带有偏见信息、训练语料质量良莠不齐、模型受到“越狱攻击”侵扰等因素有关(Wei et al., 2023)。越狱攻击利用大语言模型的上下文学习能力,生成针对大语言模型的上下文攻击,可以绕过大语言模型的基础安全机制,甚至在无需访问模型结构或参数的前提下,使经过对齐的大语言模型输出有害内容。这种带有错误或偏差的翻译产品既无法达到翻译准确度的标准,也不能满足翻译使用者的基本诉求,不仅达不到译文的交付要求,甚至可能对译员、客户和社会带来负面的影响。
大模型翻译在涉密场景的应用存在双重风险:其一,算法可能过度采集用户隐私数据,在安全机制建设滞后与翻译资源管控缺失的叠加效应下,威胁国家信息安全;其二,训练数据知识产权边界模糊,机器翻译产业链虽已成型,但数据供应商缺位导致垂直整合现象普遍,部分厂商存在未经授权使用受保护作品的风险(尹锋林、赵旖鑫,2021)。此外,语言服务行业的可持续发展问题亦需关注:企业需在语言资源管理、译者权益保障及环境影响评估等维度承担社会责任(Moorkens & Lewis,2019;Sheng & Kong,2023)。
(三)人机关系问题
人工智能翻译就技术逻辑而言,其目标是要实现机器模拟人类行为,实现机器自主学习与语境感知,采取相应的翻译策略,并输出高质量译文。传统语言模型依赖人工构建或严格筛选的训练语料以保证翻译模型训练的质量。实验证明大语言模型在现有的语言工作中,基于缺乏充分监督的文本语料进行无监督学习,无疑会将有害内容引入参数知识,进而使得模型在语言生成和语境推理等过程生成不安全的错误响应(Akyürek et al.,2022)。
在众包翻译与开放式平台实践中,原文含错责任与模型翻译失误的归责困境日益凸显,这种权责模糊性不仅侵蚀用户权益保障机制,更动摇译者的专业主体性地位。技术赋能与人本主导形成辩证张力,但人的主体性、价值规定与创造性始终构成翻译活动的支配性原则(李晓燕等,2018)。当人机协同成为数智翻译的常态范式,亟需构建涵盖模型开发商、数据提供商与人工译员的系统性权责框架,通过明晰各主体在算法训练、质量控制、伦理约束等环节的义务边界,为破解翻译技术应用的治理困境、实现人机翻译效能的协同优化提供制度保障。
三、大语言模型翻译的发展变革路径
大语言模型在自然语言生成、上下文学习与人类交互(反馈)等方面表现非凡,具备在翻译领域应用的强大潜能。但究其本质,大语言模型的语言“生成”与人类语言的“创造”存在本质差别,现阶段大语言模型向量语言的“语义”与人类语言“语义”的鸿沟尚难以逾越(耿立波、刘一秀,2023)。若要充分提升大语言模型的翻译应用能力,扩大人工智能翻译的使用场景,我们必须直面大语言模型翻译认知的局限性。下文从模型语言能力、智能架构与伦理机制等三个角度,从人工智能哲学层面,就解决大语言模型翻译认知、理解和价值涉及的问题展开探讨,并分析其发展的革新路径。
(一)大语言模型语言能力的深度型构
提升算法的可解释性和去偏见性。现有模型翻译机制存在“黑箱”效应,难以自行识别翻译质量的好坏,无力判别翻译是否存在偏见(交互偏见、潜意识偏见、选择偏见、确认偏见等),是否存在意识形态偏颇,是否带有种族歧视等问题(陆艳,2024)。从ChatGPT、Gemini、Sora等对话式模型,再到推理模型Deep Seek,人工智能技术的突破不断重塑着人类知识生产模式和配置结构。根据Deep Seek发布的技术白皮书可知,其通过构建三维治理框架实现突破:在算法层建立因果推理机制,将偏见检出率提升至92.6%,破解了算法歧视的不可见性;在数据层首创“文化适应性标注”规范,针对中文语境构建政治术语、历史典故专项语料库,使政经文本翻译准确率较GPT-4提升18.3%;在流程层实现翻译决策路径的可视化追踪,形成“数据预处理-伦理筛查-文化适配”的闭环管控。这要求技术人员需建立全周期治理思维:既要通过特征工程把握数据分布规律,又要构建符合社会规范的认知响应机制,在算法透明化改造与人文价值嵌入的双重维度上,为智能翻译的质量跃升提供技术伦理双驱动解决方案。
创建综合性翻译训练语料库。面对大语言模型向多模态交互、跨模态生成演进的趋势,翻译研究需突破传统文本转换范式,构建涵盖文本、图像、语音等多模态语料库。结合模型可解释性研究,揭示多模态表征的学习机制,既能强化技术应用的认知信任基础,也为优化语言生成策略提供实证依据,形成新型翻译研究范式(乔骥等,2023)。在DeepSeek开源生态驱动下,大语言模型的本地部署实现了认知架构的范式突破。大语言模型基于掩码自注意力优化的自监督机制可为Transformer模型训练提供自主理解与推理能力。大语言模型通过多模态联合预训练与参数微调,实现文本、图像等信息的创造性生成。其基于深度神经网络编码分布式统计关联知识(Vaswani et al., 2017),可能揭示人类未察的跨学科隐性关联,为文明演进开辟认知重构与知识创新的重要机遇。
搭建大语言模型信息安全防御机制。目前大语言模型遵循预训练、对齐、推理的生命周期(李南等,2024)。在预训练阶段所学习的参数知识影响大语言模型的行为和响应,模型编辑则是修正模型知识的一种有效方式。可通过“模型编辑”的方法消除大语言模型过时的事实性知识、虚假内容、隐私信息或有害知识的记忆(Lee et al., 2022)。在对齐阶段,基于监督微调和人类反馈强化学习提升大语言模型的功能性和可控性,以满足语言产出3H (Helpful, Honest, Harmless有用性、诚实性、无害性)的目标(Christiano et al., 2017)。价值观对齐使得大语言模型表现出与人类价值观相符合的行为,即便在参数知识中含有不符合“翻译价值”的情况下,也能控制语言生成的表现,提高模型在多种语言和低资源语言处理中的安全性和有用性(侯钰涛等,2024;Deng et al., 2023)。推理阶段,可利用大语言模型的上下文语境、解码策略等进行防御,而无需改变模型的参数。这种基于意图分析提示的防御方法受到思维链的启发,能对大语言模型进行层级引导思考,证明大语言模型对输入性信息(翻译训练语料,译员指令,翻译用户要求等)中的偏见性、有害性内容具有一定的识别能力,可提高大语言模型生成结果的质量。
(二)大语言模型效能的有效提升
设计人机混合的智能翻译系统架构。大语言模型技术赋能翻译生产的过程中,人类译员、大语言模型和其他翻译技术工具等翻译参与主体的职能边界不清。明确人工智能和人类智能的差异对于解决人机边界模糊,为人类主体和技术工具在翻译生态环境中优势互补和提升翻译效能具有重要意义(肖仰华,2023)。应当科学设计人-机混合的智能翻译系统架构,厘清大语言模型负责语言理解和生成等基础任务,人类译员负责翻译决策和价值判断等核心任务。这一协同系统架构不仅弥补了大语言模型在翻译理解和翻译价值等认知层面的局限,也促进技术工具与人类主体互为补充,兼顾知识私密性等问题,形成更可信与高效能的翻译生态体系。
打造高智能翻译的大语言模型。提升预测和推理效能也是大语言模型智能化的重要表现之一。混合增强智能(Hybrid Augmented Intelligence)是一种兼顾人类经验与机器学习的高级智能形态,包括人机协同混合增强智能和基于认知计算的混合增强智能。前者,人作为关键环节,直接参与系统的运行和决策,处理系统无法确定的情况或做出复杂判断。后者则是在机器学习系统中嵌入认知模型,侧重于模拟人类的感知、推理和学习过程以全面地理解和处理复杂信息。随着大模型规模的指数式增长,其逐步展现出初步的“机器意识”特征,包括感知意识、任务反思、自我修正等能力(秦瑞琳等,2021)。大模型与人类知识体系的融合将有助于形成“人机认知”超级大脑,使大语言模型具有精确性、实时性、智慧性和自适应的特征,在发展大模型智能效能中充分发挥人类智能的作用,以助于实现全面可知、可见、可控的高智能模型。此外,多智能体大语言模型(multi-agent LLMs)在翻译中的探索亦值得关注。相较于单一模型架构,多个大语言模型之间通过协商机制、角色分工与知识共享等方式形成智能“群体决策”系统,有助于增强事实一致性、降低语言偏误,提升译文的连贯性与风格统一性(Du, 2020)。大语言模型DeepSeek为构建具有“类人智能”特征的翻译系统提供了新的技术路径,采用“多阶段任务迁移预训练”策略,使模型具备更强的适应性与通用性(周利生、刘芳华,2025),在中文语言生成、语义嵌入与跨模态理解等方面较传统模型表现优异,在语言推理、风格迁移与语际文化调和任务中,更契合我国翻译场景的实际需求,为构建具备中国特色的智能翻译系统奠定了重要基础。
开发类似人类智能的“语言脑”。对比大语言模型和人类语言生成的本质差异,人脑自然语言机制是大语言模型难以超越人类的根本原因。从分子、细胞、行为、功能层面开展全方位的语言脑机制研究,破译人脑语言加工之谜,以此构建可以“预装的语言脑”,是人工智能发展的一条创新路径(耿立波、刘一秀,2023)。研究类似人类智能的“语言脑”将开辟独创独有、引领发展的科技创新方向、抢占Chat GPT之后的新技术制高点,构筑未来通用人工智能创新发展新高地,进而更贴近真正的人类智能。
(三)翻译技术伦理内涵的全面构建
翻译伦理的研究对象由翻译抉择过程中的基本问题构成(吴术驰,2021),翻译技术伦理是翻译伦理重要的组成部分,研究的主要问题是如何利用好技术,降低风险。人工智能时代背景下的翻译活动,译文变成多人协同和人机协同合作的结果,在它被生产、消费和使用的过程中,同时涉及语言服务的提供者和使用者等多个主体及其职责(陆艳,2024)。
构建共同体的翻译伦理观。大语言模型为翻译模式带来重要影响。以往研究主要围绕译者的翻译实践与经验等展开探讨,翻译技术的发展加深了翻译技术与人类翻译主体之间的伦理关联,构建共同体的翻译伦理观对于进一步解释译者的文化心理和跨文化行为判断具有重要意义。共同体是翻译学者的学术共同体和译者的行业共同体,学术共同体体现相同的研究范式,行业共同体表现为遵守共同规范的活动主体。共同体的翻译伦理观反映出判断译文好坏标准、译者的价值取向和翻译专业品格(吴术驰,2024)。从“认知接受”的角度探讨翻译伦理同样重要。读者对翻译产品的认知接受与译者的翻译认知过程有着本质不同,对翻译认知的接受能促进翻译认知过程的完善(李盈盈、胡显耀,2024)。从读者视角对“人-机”交互的大语言模型译文特征和接受开展研究,可进一步探讨大语言模型在文本解读、译文风格审美等微观认知层面和社会文化、意识形态等宏观层面的认知特征,这对于进一步梳理翻译伦理具有重要意义。
建立健全翻译技术伦理规范制度。鉴于语言服务行业的发展和翻译技术的进步,翻译伦理应将更宽泛的行为主体(如人工智能)和更广义的翻译活动(语言服务所涉及的一系列活动)纳入考虑,成为人工智能时代的翻译伦理道德准则(任文,2019)。根据具体实践预设相应的规范至关重要,围绕以翻译质量为核心的翻译行为设计价值评估,从使用环境、翻译责任分配、流程规范以及具体应用场景分析等方面提出翻译行为伦理价值清单,构建包含专注、责任、能力、交互性的译者伦理道德规范,建立可解释性、去偏见性、和谐交互性的语言模型算法伦理系统(肖仰华,2023)。人工智能的翻译技术伦理应逐步落实语言转化的代码实现过程与特定认知结构、语言结构和文化模式的有机响应,将人工智能的设计语境和翻译的使用语境结合起来(陆艳,2024),并结合“机器翻译+译后编辑”翻译模式的发展需求,通过人机交互翻译过程伦理、翻译组织风控伦理、翻译评价伦理,从翻译环境、翻译技术和翻译主客体关系多维度、分层次构建符合忠实原则、责任原则、公平公正原则、和谐伦理关系原则的人工智能时代翻译技术伦理规范(任文,2019)。
四、结语
本文从人工智能哲学视角,总结梳理大语言模型翻译应用过程中在知识信息、语境理解和伦理价值等三个认知维度的具体表现以及潜在的问题。大语言模型出色的语言生成能力下,对翻译信息处理的准确性和创造性方面仍存在一定的局限,翻译技术应用过程中涉及的语言质量、算法偏见、信息安全、理解偏差和技术伦理问题同样不容忽视。对大语言模型的翻译认知表现进行批判性分析,并非是为了站在人类主体的情感高地上对当前人工智能语言模型的局限性进行批评,而是站在对高智能时代的期待中对大语言模型翻译应用潜力进行开放式的探讨。如今已有学者提出“机器意识”的概念(Carter et al., 2018:400;秦瑞琳等,2021:18),随着人工智能在现实生活中更加广泛的融入和应用,我们完全有理由期待人工智能可以完成更高智能的复杂任务,在现有的语言翻译、跨文化传播、媒体生产、内容编辑、数据分析等领域以更“类人”的理解和认识机制,更好实现为人类和人类社会服务的终极目标。尽管当前人工智能运作的整体逻辑仍以“黑匣子”的姿态展现在世人面前,但是我们亦要看到技术发展的同时,人类的智慧和认知也在发展。
从人工智能哲学层面来看,大语言模型的发展促使我们深入思考机器与人类智能的界限、意义构建的复杂性以及技术对社会结构的影响。从长远来看,机器学习通过数据模拟和算法优化来模拟甚至超越人类在翻译领域的认知能力。大语言模型也将引发人工智能伦理、责任归属以及未来人机共生的深刻讨论,迫使我们重新评估科技进步与人文关怀之间的平衡。通过新的认知视角来看待人工智能的功过,展望未来发展趋势,以更好地探索和发挥人工智能为翻译行业与现代社会生产发展的服务效能。
基金项目:国家社会科学基金项目“神经网络机器翻译质量提升研究”(项目编号:22BYY042)
参考文献
[1] 陈薄文.脑认知启发的预训练语言模型方法研究[D].哈尔滨工业大学,2022.
[2] 戴光荣、黄栋樑. 知识翻译学的技术路径探讨[J].外语电化教学,2023(6):12-19+107.
[3] 冯志伟、张灯柯.语言模型与人工智能[J].外语研究,2024(1):1-19+112.
[4] 耿立波、刘一秀. “大语言模型离人类语言有多远:新一轮科技创新与产业革命的风口”学术研讨会综述[J].语言科学,2023(6):668-669.
[5] 葛颂、王宁.人工智能时代的文学翻译:挑战与机遇[J].外语与外语教学,2024,(1):94-101+149-150.
[6] 胡开宝、李晓倩.大语言模型背景下翻译研究的发展:问题与前景[J].中国翻译,2023(6):64-73+192.
[7] 侯钰涛、阿布都克力木·阿布力孜、史亚庆、马依拉木·木斯得克、哈里旦木·阿布都克里木.面向“一带一路”的低资源语言机器翻译研究[J].计算机工程,2024(4): 332-341.
[8] 焦建利、陈婷. 大型语言模型赋能英语教学:四个场景[J].外语电化教学,2023(2):12-17+106.
[9] 蓝江. 生成式人工智能与人文社会科学的历史使命——从Chat GPT智能革命谈起[J]. 思想理论教育, 2023(4):12-18.
[10] 李南、丁益东、江浩宇、牛佳飞、易平. 面向大语言模型的越狱攻击综述[J].计算机研究与发展,2024(5):1156-1181.
[11] 李盈盈、胡显耀.翻译学新视野——翻译认知接受研究的概念、理据和发展[J].中国翻译,2024(3):105-113.
[12] 李晓燕、郭满峰、龚东风.译者中心的理论缺陷——兼论“三边共生”的翻译伦理[J].上海翻译,2018(5):12-18+94.
[13] 陆艳. 人工智能时代翻译技术伦理构建.中国翻译,2024(1):117-125.
[14] 马畅、田永红、郑晓莉、孙康康. 基于知识蒸馏的神经机器翻译综述[J].计算机科学与探索,2024(7): 1725-1747.
[15] 乔骥、郭剑波、范士雄、黄彦浩、尚宇炜. 人在回路的电网调控混合增强智能初探:基本概念与研究框架[J].中国电机工程学报,2023(1):1-15.
[16] 秦瑞琳、周昌乐、晁飞. 机器意识研究综述[J].自动化学报,2021(1):18-34.
[17] 任文. 机器翻译伦理的挑战与导向[J].上海翻译,2019(5):46-52+95.
[18] 王贇、张政. 数字化时代机器翻译的风险审视及控制研究[J].中国翻译,2022(2):109-115.
[19] 王贇、张政. ChatGPT人工智能翻译的隐忧与纾解[J].中国翻译,2024(2):95-102.
[20] 吴术驰. 翻译伦理研究的反思与重构刍议[J].中国翻译,2021(5):5-14+191.
[21] 吴术驰.翻译中的文化心理研究:阐释与建构[J].中国翻译, 2024 (3):17-26+189.
[22] 肖仰华. 生成式语言模型与通用人工智能:内涵、路径与启示[J].人民论坛·学术前沿,2023(14):49-57.
[23] 尹锋林、赵旖鑫. 挑战与应对:机器翻译的发展与翻译权行使的未来 [J]. 科技与法律(中英文),2021(3):45-54.
[24] 袁筱一、甘露. 数智、翻译与数字人文研究的“任务”[J].外语教学理论与实践,2024(1):9-16.
[25] 曾白凌. 目的之“人”:论人工智能创作物的弱保护[J]. 现代出版,2020(4):56-64.
[26] 周葆华. 或然率资料库:作为知识新媒介的生成智能ChatGPT[J]. 现代出版,2023(2):21-32.
[27] 朱光辉、王喜文. ChatGPT的运行模式、关键技术及未来图景[J]. 新疆师范大学学报(哲学社会科学版),2023(4):113-122.
[28] 张静.生成式人工智能背景下翻译高阶思维教学模式构建[J].中国翻译,2024(3):71-80.
[29] 周利生、刘芳华. DeepSeek类生成式人工智能嵌入意识形态治理的价值、风险与应对[J].南昌大学学报(人文社会科学版),2025,56(2):40-49.
[30] Akyürek, E., Bolukbasi, T., Liu, F., et al. Towards tracing knowledge in language models back to the training data [A]. In Y. Goldberg, Z. Kozareva, & Y. Zhang (Eds.), Findings of the Association for Computational Linguistics: EMNLP 2022[C]. Abu Dhabi, United Arab Emirates: Association for Computational Linguistics.
[31] Carter, O., Hohwy, J., Van Boxtel, J., Lamme, V., Block, N., Koch, C.,et al. Conscious machines: defining questions[J]. Science, 2018, (6374).
[32] Christiano, P. F., Leike, J., Brown, T., et al. Deep reinforcement learning from human preferences [A]. In Guyon, I., Luxburg, U., Bengio, S. et al. (Eds.) Advances in Neural Information Processing Systems 30 (NIPS 2017). New York: Curran Associates, Inc. 2017.
[33] Deng, Y., Zhang, W., Pan, S. J., et al. Multilingual jailbreak challenges in large language models. arXiv preprint, 2023.10.
[34] Du, K. Interdisciplinary exchange and multicultural complementarity of translation studies in the age of globalization: An interview with Professor José Lambert [J]. Perspectives: Studies in Translation Theory and Practice, 2020 (6).
[35] Hartley, J. The probability archive: From essence to uncertainty in the mediation of knowledge [A]. In Lee, F. Leung, L, Qiu, L. et al. (Eds.) Frontiers in New Media Research, Routledge Research in Information Technology and Society, vol. 5.[C]. London: Routledge. 2012.
[36] Hu, K., Li, X. The creativity and limitations of AI neutral machine translation: A corpus-based study of DeepL’s English-to-Chinese translation of Shakespeare’s plays[J]. Babel, 2023(4).
[37] Lee, N., Ping, Wei., Xu, Peng, et al. Factuality enhanced language models for open-ended text generation [A]. In Koyejo, S., Mohamed, S., Agarwa, A., et al. (Eds.) Advances in Neural Information Processing Systems. New York: Curran Associates Inc. 2022.
[38] Lin, S., Hilton, J., & Evans, O. TruthfulQA: Measuring how models mimic human falsehoods [A]. In Muresan, S., Nakov, P., & Villavicencio, A. (Eds.) Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Dublin: ACL, 2022.
[39] Manning, P., & Owen, A. Knowledge in translation: Global patterns of scientific exchange, 1000-1800 CE [M]. Pittsburgh: University of Pittsburgh Press, 2018.
[40] Moorkens, J., & Lewis, D. Copyright and the reuse of translation as data [A]. In O’Hagan, M. (Ed.), The Routledge Handbook of Translation and Technology [C]. London & New York: Routledge, 2019.
[41] Sheng, A., Kong, Y. Neural machine translation and human translation: A political and ideological perspective[J]. Babel, 2023 (4).
[42] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. Attention is all you need [A]. In Luxburg,U. & Guyon,I. (Eds.) Proceedings of the 31st International Conference on Neural Information Processing Systems. New York: Curran Associates Inc. 2017.
[43] Wei, A., Haghtalab, N., & Steinhardt, J. Jailbroken: How does LLM safety training fail?. arXiv preprint, 2023.7.
[44] Zhou, J., Ke, P., Qiu, X., et al. ChatGPT: Potential, prospects, and limitations [J]. Frontiers of Information Technology & Electronic Engineering, 2023(28).
大语言模型翻译的认知特征及其发展变革路径探讨_戴光荣.pdf
转载本文请联系原作者获取授权,同时请注明本文来自戴光荣科学网博客。
链接地址:https://wap.sciencenet.cn/blog-331736-1532012.html?mobile=1
收藏