NJU1healer的个人博客分享 http://blog.sciencenet.cn/u/NJU1healer

博文

按标题搜索
线性回归的优化
2020-6-27 15:14
一元线性回归优化过程,求解一元回归的最优解,同样的,类似思路可以用到多元回归中。 本质是:求导 = 0 其中, L 表示 损失函数 ,即为目标函数。 点滴分享,福泽你我!Add oil!
个人分类: 机器学习|1882 次阅读|没有评论
L1、L2范数与机器学习建模经典流程、基本学科概念
2020-6-27 14:56
(一)L1与L2范数一般用在正则项中,有时也用于线性回归的目标函数中。 (二)机器学习建模经典流程 (三)机器学习、深度学习与人工智能(AI) 机器学习(常用机器学习算法) 深度学习 人工智能(AI) 点滴分享,福泽你我!Add oil!
个人分类: 机器学习|2968 次阅读|没有评论
最小二乘法
2020-6-27 14:51
寻找拟合六个点的最佳直线,评估一条线到底好不好,那就需要一个评估标准,对于线性回归的简单标准就是计算一个误差,可以计算误差的平方和(也可以求绝对值之和,但计算复杂一些),即最小二乘法。 点滴分享,福泽你我! Add oil!
个人分类: 机器学习|3346 次阅读|没有评论
基准(Baseline)
2020-6-27 14:42
对于AI搭建模型解决问题时,要遵循的一个法则是寻找基准,即模型搭建和选择通常是由易到难,从而知道AI模型需要达到的目标精度, 对于分类问题来说,一个好的基准是LR(Logistic Regression)--逻辑回归; 对于回归问题来说,一个好的基准是线性回归。 点 ...
个人分类: 机器学习|2462 次阅读|没有评论
正则化+过拟合/欠拟合+交叉验证
2020-6-27 14:29
(一)正则化 正则化: https://www.jianshu.com/p/69b962945b2a 如上图中的第二个坐标,随着模型参数的增加,训练集的误差会慢慢减少。从第一个坐标和最后一个坐标可以直观感受到这种效果。因为模型参数少的时候,模型不能很好地拟合训练集的数据,所以偏差就比较大。当模型参数足够多时, ...
个人分类: 机器学习|3161 次阅读|没有评论
算法复杂度
2020-6-10 11:30
算法复杂度分析 :由于相同算法在不同测试环境,硬件设备上处理数据的效率并不相同,且不同算法的执行效率受数据规模的影响很大(如下图).所以在实际编码和进行算法优化时就需要有一个理论分析方向作为指导. 算法复杂度分析使用大O复杂度分析法 . 时间复杂度的概念 :执行的 ...
个人分类: 机器学习|2708 次阅读|没有评论
升尺度与降尺度
2020-6-5 15:36
升尺度(Upscaling)、降尺度(Downscaling)可能是发端于气候研究的一个概念,后来逐渐地应用到地理与生态等地表科学领域。 升尺度转换 就是从小尺度到大尺度,即由点位到小区域再到大区域,空间分辨率降低,转换后数据趋于同质且信息量低,关键信息保留少,其作用是常 ...
个人分类: 机器学习|11471 次阅读|没有评论

本页有 3 篇博文因作者的隐私设置或未通过审核而隐藏

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-20 04:40

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部