法国哲学家埃里克-萨丁(Eric Sadin)在《世界报》的这篇文章中警告说,看到工业化语言“取代”人类语言的“文明”风险。
一,译文
ChatGPT:“与其说在监控的资本主义中,不如说在管理我们的福祉中”
ChatGPT : « Plus que dans un capitalisme de surveillance, nous voici dans une administration de notre bien-être »
最近,由OpenAI公司开发的ChatGPT“对话机器人”的发布,立即引发了雪崩式的评论。最常见的评论是,旨在回答书面问题的系统,提供了具有句法质量和一致性的答案。然而,这一观察是有条件的,因为这一结果仍处于起步阶段;要使其类似于人类产生的结果,仍然需要许多进展,而这恰恰是我们最大的错觉所在:相信这些是使用与我们的语言相似的装置。
这就是为什么有必要去看看这些技术的本源,而不是数字产业形成的话语,这些话语常常被当作是表面的东西。这些声明的特点是,它们只是基于统计分析的算法产物,其唯一来源是已经存在的记录。在这方面,它们与所谓的“自然”语言所指的内容毫无关系。
因为人类语言的本质是,它是庞大的词库和语法规则与我们产生公式的能力之间的紧张关系的结果,而这在与时间的关系中,并不完全与过去联系在一起,而是在现在和不断演变中的一种动态。当我们说话或写作时,我们不断地从词语的海洋中汲取营养,同时以一种不确定的方式调整,以适应每次的具体环境。每一句话,不管是书面的还是口头的,都是一种倾诉的结果,而这种倾诉无一例外地超过了任何事先的图式化。
这个维度在机器动词中是不存在的,它只对特定功能调参数作出反应的结果,例如在个人助理Siri(由苹果公司拥有)中,它告诉我们“我能为你做什么?”或在连接的扬声器中,如Alexa(由亚马逊开发),其唯一目的是诱导我们的决定,主要用于商业目的。
双重转变
与其天真地问自己,这些系统是否很快就会取代我们的文本写作 — 那么,这就是彻底放弃使用我们自己的理性的标志 — 我们能否看到正在悄然建立的文明模式?它是来自于我们与语言关系的双重转变。一方面,所谓的“生成”人工智能,被赋予了口才的能力和据说与我们相同的气质,正逐渐被委托管理我们与他人的关系和我们的许多日常任务—然而,这种能力限制了我们在自由和多元化社会中以第一人称表达自己和根据自己的判断行事的权利。
另一方面 — 这也是主要目的 — 在一个工具性伪对话中,技术被设定为给我们提供好听的话,用熟悉的、亲密的语气,但被认为是高人一等的智慧,敦促我们以这样的方式而不是另一种方式行事。由于人工智能的不断发展,这种模式在过去的15年里一直在实行。
为了我们所谓最大的舒适,对我们的行为进行机器人式的解释和推荐,现在占了上风。比起“监控资本主义”,更确切地说是在“管理我们的福祉”,把这些数字幽灵当作高度开明的实体,不分昼夜为我们指方向。
“谁在说话”?
这些装置不断变得更加复杂—尤其是因为机器学习--并将变得越来越自然,很难拒绝他们的劝告,这些劝告似乎来自无所不知的“意识”,一种工业化的语言,取代了我们自己的语言,并不断为我们指方向,这将成为一种习惯,尤其是在年轻一代中,他们觉得这种语言很容易,不言自明。我们的思想,尽管是完全活跃的,但会被这些系统带着走,逐渐减弱我们表达能力的使用。
必须对这些技术发展的后果程度进行中期和长期评估。过去二十年来,我们一直在经历的巨大动荡--具有人类学意义的动荡--主要是数字产业的结果。埃隆-马斯克是OpenAI的幕后推手,该公司现在归微软所有,但也有公司坚定地致力于这些领域的研究。
“谁在说话”?尼采问,这些程序的语言被剥夺了其重要的动力,传达了一种基于一般化的还原主义和功利主义的世界观吗?或者,恰恰相反,我们的声音—每一个都是单一的,来自我们的精神和我们的敏感性—是唯一能够与他人和现实建立积极联系的声音吗?
现在,比以往任何时候都更应该提出语言问题,即我们希望以我们的名义和真正的共同体来说话的语言,作为我们时代的主要道德、政治和文明问题。
二,原文
ChatGPT : « Plus que dans un capitalisme de surveillance, nous voici dans une administration de notre bien-être »
Eric Sadin
Le philosophe Eric Sadin met en garde, dans une tribune au « Monde », contre le risque « civilisationnel » de voir s’installer un langage industrialisé, « prenant place et lieu » de la langue humaine.
La récente mise en ligne du « robot conversationnel » ChatGPT, développé par l’entreprise OpenAI, a aussitôt déclenché une avalanche de commentaires. Ce qui était le plus souvent relevé, c’est que le système, conçu pour répondre à des questions écrites, offre des réponses à la qualité syntaxique et à la cohérence « bluffantes ». Toutefois, ce constat se voyait nuancé par le fait que le résultat s’avère encore balbutiant ; nombre d’avancées seraient encore nécessaires pour qu’il s’apparente à un résultat produit par un humain. Or, c’est précisément là que réside notre grande illusion : celle de croire qu’il s’agit de dispositifs usant d’un langage semblable au nôtre.
C’est la raison pour laquelle il faut aller voir quels sont les ressorts de ces techniques, loin des discours forgés par l’industrie du numérique, si souvent pris pour argent comptant. Ce qui caractérise ces énoncés, c’est qu’ils ne sont que la production d’algorithmes se nourrissant d’analyses statistiques, prenant alors leur unique source dans des registres déjà existants. Ils sont en cela sans rapport avec ce que suppose le langage dit « naturel » .
Car le propre du langage humain, c’est qu’il procède d’une tension entre un vaste lexique, fait de mots et de règles grammaticales, et notre capacité à générer des formules. Et cela, dans un rapport au temps qui n’est pas exclusivement attaché au passé, mais relève d’une dynamique conjuguée au présent et en constant devenir. Lorsque nous parlons ou que nous écrivons, nous ne cessons de puiser dans un océan phraséologique, tout en nous ajustant, de façon indéterminée, à un contexte chaque fois spécifique. Toute locution, écrite ou parlée, relève d’un jaillissement qui, invariablement, excède toute schématisation préalable.
Cette dimension est absente du verbe machinique, résultat de paramétrages ne faisant que répondre à des fonctionnalités déterminées, par exemple dans l’assistant personnel Siri (propriété d’Apple), qui nous dit « Que puis-je faire vous ? » , ou dans les enceintes connectées telle Alexa (élaborée par Amazon), dont les seules visées consistent à orienter nos décisions à des fins principalement marchandes.
Double transformation
Plutôt que de nous demander naïvement si ces systèmes vont bientôt se substituer à nous dans la rédaction de textes - signe, alors, d’un renoncement définitif à l’usage de notre propre raison - , voit-on le modèle civilisationnel qui, à bas bruit, s’institue ? Celui procédant d’une double transformation de notre rapport au langage. D’une part, des intelligences artificielles, dites « génératives », dotées du pouvoir d’élocution, aux airs prétendument identiques au nôtre, se voient progressivement déléguer le soin de gérer nos rapports à autrui et nombre de nos tâches courantes - faculté qui, pourtant, conditionne notre droit à nous prononcer à la première personne et à nous conduire d’après notre jugement au sein d’une société libre et plurielle.
D’autre part - et c’est là la visée principale - s’érigent des technologies nous prodiguant leur bonne parole, à la tonalité familière, intime, mais considérées comme supérieurement avisées, nous incitant à agir de telle manière plutôt que de telle autre, au sein d’un pseudo-dialogue instrumentalisé. Un modèle en vigueur depuis une quinzaine d’années, du fait des développements ininterrompus de l’intelligence artificielle.
L’interpretation et la recommandation robotisées de nos gestes, pour notre plus grand confort supposé, prévalent dorénavant. Plus que dans un « capitalisme de surveillance », nous voici plus exactement dans une « administration de notre bien-être », tenant ces spectres numériques pour des entités hautement éclairées nous guidant jour et nuit sur le bon chemin.
« Qui parle ? »
Ces dispositifs sont en constante sophistication - notamment du fait du machine learning (procédés d’auto-apprentissage) -, appelés à revêtir des allures toujours plus naturelles. Il sera difficile de se détourner de leurs exhortations semblant provenir de consciences omnisciences. Un langage industrialisé, prenant place et lieu du notre et nous orientant en continue, deviendra un habitus, particulièrement auprès des jeunes générations qui y trouvent un usage aisé et allant de soi. Notre esprit, pourtant constitué pour être pleinement agissant, se laissera porter par ces systèmes atténuant peu à peu l’usage de nos facultés expressives.
C’est dans une perspective à moyen et long terme qu’il faut évaluer l’étendue des conséquences de l’essor de ces technologies. Ces gigantesques bouleversements - à portée anthropologique - que nous vivons sans relâche depuis une vingtaine d’années sont avant tout le fait de l’industrie du numérique. Elon Musk est à l’origine d’OpenAI, aujourd’hui propriété de Microsoft, mais aussi d’entreprises fermement engagées dans ces champs de recherche.
« Qui parle ? », demandait Nietzsche. Sont-ce des programmes dont le langage, privé de sa dynamique vitale, véhicule une vision du monde fondée sur un réductionnisme et un utilitarisme généralisés ? Ou alors, tout à l’opposé, nos voix - chacune singulière, émanant de notre esprit et de notre sensibilité -, seules à même d’instaurer des liens actifs aux autres et au réel ?
Puis que jamais, l’heure est venue d’ériger la question de la langue, celle que nous voulons parler en notre nom et dans un ensemble vraiment commun, comme le premier enjeu moral, politique et civilisationnel de notre temps.
参考文献:
法国世界报,2023/1/19:
转载本文请联系原作者获取授权,同时请注明本文来自柳渝科学网博客。
链接地址:https://wap.sciencenet.cn/blog-2322490-1375819.html?mobile=1
收藏