twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

按标题搜索
人类的思维能力远远超越了布尔逻辑
热度 3 2024-2-17 09:49
阿马拉法则(Amara's Law)是一个描述人们对技术影响评估的原则,但其具体表述略有不同。 阿马拉法则最常见的版本是:“我们总是高估技术在短期内的影响,但低估技术在长期内的影响。” 这一原则强调了人们在评估技术发展时的一种偏向:人们往往对新技术的短期影响持乐观态度,期望它们能够带来显著改变和进步,因 ...
个人分类: 2024|4570 次阅读|3 个评论 热度 3
没有与真实世界的交互,数字就不会有生命
热度 2 2024-2-16 09:52
OpenAI 发布文生视频模型 Sora,将对 AI 视频行业、传统的影视公司等造成哪些影响呢? 短期会对视觉、交互、创意等方面有一些影响,但长远来看,影响应该不会太大,比如《火辣滚烫》、《你好,李焕英》等用心拍出影视,而不是用芯拍出来的影视。 数字生命是指通过数字技术和人机交互技术,创造出来的能够模拟和表现生物 ...
个人分类: 2024|4202 次阅读|3 个评论 热度 2
“然后呢”与“应该”
热度 2 2024-2-15 08:40
然后呢是一个简单但重要的哲学问题,它涉及到个体与事物之间的关系和连续性。当我们面对某种情况或行动时,我们常常会问自己:那么接下来会发生什么?这个问题引发了对未来的思考和预测,同时也引出了时间和因果关系的探索。 在哲学中,这个问题也与存在主义和意义论有关。在存在主义中,个体被认为是自由的,他们 ...
个人分类: 2024|4117 次阅读|3 个评论 热度 2
一般意义上的统计学原理很难产生新的知识
热度 5 2024-2-14 08:42
一般而言,统计学的主要目标是通过分析和解释数据来揭示数据背后的模式、规律或趋势,而不是直接产生全新的知识。统计学通常依赖于已有的数据集和已知的假设条件,在这些基础上进行推断和预测。因此,一般的统计学原理并不能直接创造全新的知识,而是在已有知识的基础上对数据进行解释和推断。 关于新知识与统计中的“野 ...
个人分类: 2024|5023 次阅读|5 个评论 热度 5
适应力和应变力是智能系统的重要组成部分
2024-2-14 08:06
适应力和应变力在智能系统中扮演着非常重要的角色。在面对复杂、多变的环境和问题时,一个智能系统需要具备适应和调整自身行为的能力,这就需要依赖适应力和应变力。 适应力指的是系统对环境变化的感知、理解和调整能力。一个具有良好适应力的系统能够及时感知到环境的变化,理解变化所带来的影响,并且能够灵活地调整 ...
个人分类: 2024|1119 次阅读|没有评论
东方汉字与西方字母
2024-2-13 08:02
汉字和西方字母确实在一定程度上反映了它们所代表的文化背景和思维方式。 汉字作为一种象形文字,每个汉字通常都有自己的独特形状和结构,这使得汉字在视觉上更具有直觉和感性的特点。汉字的写法往往能够通过形状和笔画来表达一些意象或情感,给人们带来直接的视觉冲击和情感共鸣。与此相比,西方字母则是一种基于音节的 ...
个人分类: 2024|597 次阅读|没有评论
钱学森先生人机环境系统的不足之处(两大语言模型比较)
2024-2-12 08:08
文心一言版如下: 钱学森先生的人机环境系统理论是一种重要的思想体系,它强调在设计和应用中要考虑人、机器和环境之间的相互作用和关系,以实现最优的系统性能。然而,任何理论都存在一些不足之处,钱学森先生的人机环境系统理论也不例外。以下是一些可能存在的不足之处: 忽视个体差异:钱学森先生的人机环境系 ...
个人分类: 2024|1377 次阅读|没有评论
OODA(战术)和态势感知(战略)
2024-2-11 09:58
OODA源于空战,态势感知始于《孙子》,西方爱用OODA理解态势感知,东方仍有不少人用态势感知理解OODA,这是一个值得关注的问题。 OODA(观察、定向、决策、行动)循环和态势感知是两个相关但不同的概念。OODA循环是一种战术思维模型,它强调在竞争和冲突中,在较短时间内快速地观察、理解和回应,以获取优势。OODA循环主 ...
个人分类: 2024|1164 次阅读|没有评论
大语言模型的天花板
热度 2 2024-2-10 09:26
大语言模型在某些情况下可能不适用,主要体现在以下几个方面: 1、特定领域知识不足 大语言模型可能缺乏某些特定领域的专业知识,导致在特定行业或领域的问题上表现不佳。例如,在医学、法律等专业领域的术语和规范性语言理解方面可能存在局限。 2、难以处理个性化需求 大语言模型可能无法充分满足个性化或个别需求, ...
个人分类: 2024|5146 次阅读|5 个评论 热度 2
为什么深度强化学习不适合兵棋推演
2024-2-9 07:45
基于奖惩机制的深度强化学习(DRL)是一种强大的机器学习方法,它通过让算法在环境中执行动作并根据这些动作的结果获得奖励或惩罚来学习如何优化其行为。尽管DRL在许多领域,如游戏、机器人控制和自动驾驶等,取得了显著的成就,但它也存在一些不足之处: 1、样本效率低 DRL通常需要大量的数据样本来训练模型,才能学会 ...
个人分类: 2024|3783 次阅读|没有评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-28 18:13

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部