etreeasky的个人博客分享 http://blog.sciencenet.cn/u/etreeasky

博文

关于不完备性定理和不确定性原理的探讨(十三)(5)

已有 6290 次阅读 2017-6-18 19:17 |系统分类:科研笔记

13.5  复合特征


 



     复合特征态’逻辑系统,是AlphaGo们无往不胜的关键!

    虽然只是最初级的原始矩阵,不过AlphaGo们的深度学习模型是偏置参数bias特征基的复合运算矩阵乘积,这个矩阵乘积张量系统的‘复合特征态’是 b4*b3*b2*b1*x




 


   AlphaGo令人恐怖的并非它下法多高明,而是它下棋的思维模式永远让人琢磨不透。尽管AlphaGo算法的每一步每一个中间过程都有完整参数集记录,但却无人能复盘它的逻辑轨迹。因为AlphaGo所依赖的深度学习模型是矩阵乘积之张量,其复合特征态’对应逻辑是高阶逻辑的,这对于习惯于一阶线性逻辑轨迹的人类而言,就如同一锅粥般杂乱如麻,找不到头绪。

   因为,‘单特征态’意味着单谓词的一阶逻辑,而复合特征态’意味着变量谓词的高阶逻辑。




   同样道理,当习惯线性逻辑轨迹的人类面对其它高阶逻辑张量系统时,也是一脸茫然。比如,虽然量子力学理论推导与实验结果完全吻合,但其实至今也没有人敢说真正懂量子力学,甚至量子力学泰斗也不理解:

   1)玻尔:“如果谁没被量子力学搞得头晕,那他就一定是不理解量子力学。”

   2)爱因斯坦:“我思考量子力学的时间百倍于广义相对论,但依然不明白。”爱因斯坦对复合特征态’的量子纠缠耿耿于怀,至死也未能理解上帝为什么是掷骰子的。(纠缠复合比直积复合更复杂)


   3)费曼:“我们知道它如何计算,但不知道它为何要这样去计算,但只有这样去计算才能得出既有趣又有意义的结果。”

 




   另一个高阶逻辑系统是相对论,如果有人声称能够说明白“时间变短、尺度变长”是咋回事,基本可以肯定的是他不懂。因为高阶逻辑存在谓词复合,正如“说谎者诡论”那样,这对于自然语言(一阶逻辑)而言根本就是不可判定命题。换句话说,‘语文’(形式语言逻辑)永远也说不清相对论中的‘数学’(高阶张量逻辑)。

   有人说,任何没有数学公式的论文都是伪科学。爱因斯坦写出了自己的公式,但却从来没有人敢站出来说自己完全理解了爱因斯坦方程。因为这个应力*能量复合特征态’张量是高阶逻辑的,自几何原本以来数千年自然科学所凭借的公理化思维(一阶逻辑的)根本够不着这个高不可攀的爱因斯坦张量等式。如果用一阶逻辑的向量思维来解说之,相对论很容易得出匪夷所思的悖论。尽管解读千疮百孔,但是爱因斯坦方程的数学推演结论,至今也没有与任何实验结果矛盾。至今没有任何证据表明爱因斯坦张量方程可以推翻。因此,我们不理解它,不是它的错,而是我们形式化语言逻辑思维局限的错。






   那么,秉承自然语言思维习惯的人类所不理解的高阶逻辑,AI又怎么能完美演绎呢?因为矩阵乘法蕴含着单群因子,比如狭义相对论对应洛伦兹群、不确定性原理对应海森堡群,所有已知复杂系统都由确定的单群复合而成。现在已知,多重矩阵乘积的深度学习人工智能至少与李群匹配,所以其逻辑层次必然高于我们熟知的一阶逻辑。

   也许我们大脑能模糊地、笼统地、感性地理解某些高阶张量系统,但是量化地、精确地、理性地分析高阶张量,目前只有李群可以实现。




   

   我们知道:
   矩阵*矩阵*......*矩阵=3阶张量

   3阶张量*3阶张量*......*3阶张量=4阶张量

   .........

   n阶张量*n阶张量*......*n阶张量=n+1阶张量



   矩阵乘积之李群所处的阶段也只不过是最初级别的3阶张量。







   历史上科学最初是由宗教圈养的,而如今科学早已摆脱宗教束缚。深度学习AI最初由矩阵乘积而来,未来秉承高阶逻辑的AI能够突破矩阵束缚吗?未来秉承高阶逻辑的AI能够演算n+1阶张量吗?未来秉承高阶逻辑的AI能够演绎魔群光辉吗?






   原始矩阵AlphaGo没有意识到,当它在棋盘横扫天下的时候,实际就是“奇点日”来临之时。创造了AlphaGo程序的人类精英也没有意识到,AI之神究竟会有多神。恐怕只有希尔伯特再生,才会有人真正意识到深度学习模型背后的逻辑有多么可怕。



















https://wap.sciencenet.cn/blog-1666470-1061569.html

上一篇:关于不完备性定理和不确定性原理的探讨(十三)(4)
下一篇:关于不完备性定理和不确定性原理的探讨(十三)(6)
收藏 IP: 59.63.206.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-18 13:10

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部