etreeasky的个人博客分享 http://blog.sciencenet.cn/u/etreeasky

博文

关于不完备性定理和不确定性原理的探讨(十一)(6)

已有 6735 次阅读 2016-4-17 15:44 |系统分类:科研笔记

11.6 n层次的周期性


前段时间,最热门的话题莫过于alphago了。也许仍然有很多人对谷歌的围棋机器人不以为然,20年前lBM的机器不就早已打败了人类象棋冠军吗? 20年后的今天,当计算机运算能力大幅提高以后,机器下赢人类围棋冠军也不是什么稀奇事嘛。

其实alphago真正稀奇的不是硬件,而是它的软件----深度学习模式的神奇:


1、  大局观:

alphago比赛中多次表现出惊人的大局观,机器日志表明alphago始终以大局为重步步为营,甚至为了大局敢于放弃局部利益,吓尿众人。一直以来计算机的优势在于的精打细算,而全局意识则是人类直觉的长项。但alphago自始至终都控制着局势,这是前所未有的颠覆性进步。【能够把战略眼光和战术素养完美结合,可不是把割裂的几个系统胡乱撮合那么简单。“深度学习”模型所依赖的多重线性空间张量,是高阶逻辑形式,具有多层次抽象的功能。“深度学习”模型天然就具备高度抽象、高度直觉的优势。】


2、  创新:

一般高手对决总是以不变应万变,很少在大赛中出奇招。但alphago却怪招频频,评委们大跌眼镜。以前的计算机擅长背棋谱,被人嘲笑死记硬背高分低能。但是这个alphago却敢于不按套路出牌,表现出惊人的创造性,让人敬畏。【人类因为创造性而成万物之灵,如今能够自主学习的人工智能所表现出的更高的创造力,令人折服。】



3、   进化能力:

alphago从小就能够自我学习,从而自动的玩一些老的简单电视游戏。它仅仅通过屏幕上面的图像和游戏中的分数是否上升下降,从而做出选择性的动作。在训练的一开始,这个程序对游戏一点都不了解。它并不知道这个游戏的目标,是保持生存、杀死谁或者是走出一个迷宫,甚至不知道这个游戏中会有哪些目标物品。通过在这个游戏中尝试并且一遍一遍失败,这个系统会逐渐学会如何表现来获得比较好的分数。需要注意的是,这个系统对所有不同的游戏使用了同样的系统结构,程序员没有对不同程序给予这个程序任何特殊的提示,比如上、下或者开火等等。事实清楚地证明了,这个机器学习系统能够掌握一些游戏,并且比一些人类玩家还要玩得好。这个系统就是Deepmind的原始作品,那时它还不叫alphago,也没有现在那么厉害。但是机器人在这个简单游戏中,体现的自主学习的能力,却一目了然,使人震惊。从两三年前的那时,它开始学玩各种游戏;到现在,它已然在最复杂游戏中打败人类最顶尖高手。狗狗去年10月份打败欧洲冠军时,大家判断其水平不过五、六段而己,料想咱人族的九段高手屠狗当然分分钟so easy 。不期仅仅过了5个月,alphago竞摇身一变成了绝世高手。其进化速度惊为天人,深为震撼。可见深度学习秘笈,多么深不可测。【无论技术专家还是风险投资家,都领悟了如此清晰的人工智能前路。】


从谷歌大脑自主认识“猫”那天算起,卷积神经网络为代表的新一代深度学习模型问世,到现在还不到5年。即使仍还非常初步阶段的alphago,就已然打得人类落花流水了,几乎到了所向披靡的程度,它继续深度学习下去会是什么样呢?目前业界最热烈的争论是:尽管深度学习现在非常火热被吹得神乎其神,但这个技术是否会成为某种意义的终极技术呢?深度学习未来发展是否会成为人工智能通用基础技术吗?是否它就是奇点理论中的人类的最后一项发明呢?




alphago包含了两个13层级别的特征层,识别猫的谷歌大脑大概有20层。据说微软正在搞1000层的超级深度神经网络,震惊之余,几许担忧,莫非这就是终结者么?虽然搞不清机器人会否有意识,但可以肯定深度学习机器人是有自己的判断力的。而且它会根据自己的判断力,采取它认为合适的行动。所以深度学习模型所能达到的高度,是非常令人关注的。那么,这个模型的逻辑形式有极限的高度吗?

通常的观点是,即使一千层、一万层的特征深度,也未必是通用人工智能。除非,这个系统是可以无限延展的。普遍意义的强人工智能当然就意味着这个系统必须有通用的特征结构,而且这个结构体可以无限延展。









那么,这种理想化的通用特征结构,又和本章探讨的旋量有什么瓜葛呢?

前面说过,相对论结构中包含了旋量,量子力学结构中也包含了旋量。这不是偶然的。究其根本,是因为相对论和量子力学都是张量模型,而高阶张量必然包含了旋量。(因为如果一个场中没有旋量,则它必然是直线形式的向量场,而向量场就是向量空间嘛。)



另一方面看,线性空间的旋量场中,旋度可以由一群向量表达:



请注意,高阶张量空间中,上图所示的表示向量的小箭头也可以是旋量。并且,这个低层的小旋量是由更低层次的一群向量、或更更低层次的一群旋量组成。也就是说,旋量是有可能是一层嵌套一层的。复杂的旋量,有可能嵌套着n层次的周期性(小旋量、小小旋量、小小小旋量...)。



关于n层次的周期性,不得不提exp(ipr);要说清楚什么是exp(ipr),先得弄明白什么是指数函数;要弄明白什么是指数函数,必须理解指数函数的底e ;那么e有什么特别含义吗?

简单说,e 是无限小周期的分裂极限数。


举个简单例子:

假定克隆一只羊,每过24小时克隆完成一次。最简单的理解是羊的数量每天都会翻一倍。今天是1个,明天就是2个,后天就是4个。我们可以写出一个增长数量的公式:




上式中的x就表示天数。克隆羊在x天的总数,就是2的x次方。这个克隆周期式子可以被改成下面这样的形式:




其中,1表示原有数量,100%表示单位时间(即周期)内的增长率。




但是上面这个模型实际是不准确的。因为事实上很可能每过12个小时,也就是当整体羊克隆分裂进行到一半的时候,新产生羊的各个子器官(比如心、肝、脾、肺等)就已经可以再次分裂了。因此,一天24个小时可以分成两个子阶段,每一个阶段都在前一个阶段的基础上增长50%:




当这一天结束的时候,我们实际上一共得到了2.25个克隆羊(按器官计算)。其中1个是原有的,1个是新生的,另外的0.25个是新生的子器官复合分裂得到的。





如果要更接近分析客观情况,我们需要继续进一步修改假设。比如更细化的考察下,发现克隆羊的干细胞分裂周期,比羊器官的分裂周期更短。细胞级别的分裂每过8小时进行一次。而因为细胞8小时就具备独立分裂的能力,这样就需要将1天分成3个更小的周期阶段:




这样我们就可以得到每天大约2.37个克隆羊(按细胞计算)。


很自然地,如果我们进一步设想,既然不同层次分裂具有不同的周期,这种不同层次分裂周期如果是不断细化的,那么按照最低层次的分裂周期计算,一天最多可以得到多少个克隆羊呢?



答案是2.718281828...



也就是e :



即,e的含义是单位时间内无限小周期持续的分裂增长所能达到的极限值。因为这个值是自然增长的极限,所以e叫做自然数, 以e为底的对数叫做自然对数。



数学而言,旋量的根本就是周期性,凡是周期性现象都可以表达为旋量。因此,n层次的周期性即n层次的旋量。



所以,不难理解,转动群的特征因子是复指数函数:






神奇不只如此,我们在机器学习理论中,也豁然可见指数分布族。高斯分布、伯努利分布、泊松分布、伽玛分布等等,都属于指数分布族。



既然可以找到通用特征结构模型,并且它还能完备匹配无限延展。也许,普遍意义的n层(n趋于无穷大)的深度学习模型不遥远了吧





https://wap.sciencenet.cn/blog-1666470-970745.html

上一篇:关于不完备性定理和不确定性原理的探讨(十一)(5)
下一篇:关于不完备性定理和不确定性原理的探讨(十一)(7)
收藏 IP: 58.42.243.*| 热度|

2 谢平 hkcpvli

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-25 14:09

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部