科学网

 找回密码
  注册
[转载]机器学习中的距离与相似性度量
张伟 2021-4-17 16:43
此处仅列直观性图,具体见一下博客: 漫谈:机器学习中距离和相似性度量方法 机器学习笔记-距离度量与相似度(一)闵可夫斯基距离 机器学习笔记-距离度量与相似度(二)马氏距离 (1)闵可夫斯基距离定义为: 图1. (左)欧氏距离与曼哈顿距离:绿色的斜线表示欧几里得距离,在现实中是不可 ...
个人分类: 机器学习|1252 次阅读|没有评论
深度学习中不同类型卷积的综合介绍--通过可视化直观了解卷积
张伟 2021-4-13 23:30
总览:详细介绍各种卷积,并有PDF,需要的留言!看到后回复。 如果您听说过深度学习中的不同类型的卷积(例如2D / 3D / 1x1 /转置/扩张(Atrous)/空间可分离/深度可分离/展平/分组/混洗分组卷积),并且混淆了它们的实际含义,本文旨在帮助您了解它们的实际工作 ...
个人分类: 机器学习|3266 次阅读|没有评论
扩张卷积或空洞卷积
张伟 2021-4-13 23:14
空洞卷积(dilated convolution)是针对图像语义分割问题中下采样会降低图像分辨率、丢失信息而提出的一种卷积思路。利用添加空洞扩大感受野,让原本3x3的卷积核,在相同参数量和计算量下拥有5x5(dilated rate =2)或者更大的感受野,从而无需下采样。扩张卷积(dilated convolutions)又名空 ...
个人分类: 机器学习|3399 次阅读|没有评论
转置卷积(transposed convolution)或反卷积(deconvolution)
张伟 2021-4-13 14:57
(一)概念-什么是反卷积? 上采样(Upsample) : 在应用在计算机视觉的深度学习领域,由于输入图像通过卷积神经网络(CNN)提取特征后,输出的尺寸往往会变小,而有时我们需要将图像恢复到原来的尺寸以便进行进一步的计算(e.g.:图像的语义分割),这个采用扩大图像尺寸,实现图像由小分辨率到大分辨 ...
个人分类: 机器学习|2766 次阅读|没有评论
语义信息与语义分割
张伟 2021-4-12 16:39
(一) 语义信息 语义是语言的含义,比如v,这只是一个符号,当告诉你它表示速度,那么v就是有含义的,于是速度便是v的语义,用v表示速度可以认为是一种语言中对速度的表达方式。 同理,“小孩”也只是个符号,赋予了含义才知道它表示什么。大量的中文汉字和词语和他们对 ...
个人分类: 机器学习|5119 次阅读|没有评论
3D-Unet一定优于2D-Unet么?
张伟 2021-4-11 23:02
3D UNet不一定优于2D UNet! 科学里面一般没有绝对的结论,但凡说A一定好于B,需要说明的是在什么样的情况下好于,也就是需要控制住变量。我在回答结尾会引用一篇论文,来支持3D UNet不一定优于2D UNet。下面我将先从三个角度,谈谈3D和2D的区别。 1.从 数据格式 角度,3D数 ...
个人分类: 机器学习|2813 次阅读|没有评论
实例分割、语义分割与全景分割的区别
张伟 2021-4-7 13:50
目前的分割任务主要有三种:①像素级别的语义分割;②实例分割;③全景分割 (1)语义分割 (semantic segmentation) 通常意义上的目标分割指的就是语义分割,图像语义分割,简而言之就是对一张图片上的所有像素点进行分类,即对图像中的每个像素都划分出对应的类别,实现像素级别的分 ...
个人分类: 机器学习|10165 次阅读|没有评论
1*1卷积的作用
张伟 2021-4-3 22:15
1*1卷积过滤器 和正常的过滤器一样,唯一不同的是它的大小是 1*1 ,没有考虑在前一层局部信息之间的关系。 最早出现 在 Network In Network的论文中 ,使用1*1卷积是想加深加宽网络结构 ; 在Inception网络( Going Deeper with Convolutions )中用来降维 ,如下图: 图1 Inception ...
个人分类: 机器学习|5339 次阅读|没有评论
Inception Modules
张伟 2021-4-1 14:48
What's Inception? What's the advantages of it? How use it? 在开始介绍Inception前,先推荐一帖: Inception V1,V2,V3,V4 模型总结 。 仔细阅读后会发现,该网络的诞生就是为了如何 使模型更多样化且更合理的更深 !相信读完之后,标题中前两个问题你就会有答案! & ...
个人分类: 机器学习|1496 次阅读|没有评论
[转载]深度学习超参数-Minibatch
张伟 2021-3-26 22:17
回顾 之前我们讲到了一些在训练模型的时候用到的超参数,例如上一次说的 L2 正则, 在过拟合的场景中增加 L2 的值有助于减小网络的复杂度。 还有诸如学习率, 在梯度下降中,每一次迭代的下降的步长是学习率乘以成本函数对 w 的导数。所以如果我们想让算法训练的快一点,调高学习率可以有效的减少迭代次数。 诸如此类的还 ...
个人分类: 机器学习|1628 次阅读|没有评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2023-1-27 05:52

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部