首页
Python
Java
PHP
IOS
Andorid
NodeJS
JavaScript
HTML5
lightgbm训练误差越来越小
2022-09-21
LightGBM总结
一.LightGBM介绍 LightGBM是一个梯度Boosting框架,使用基于决策树的学习算法.它可以说是分布式的,高效的,有以下优势: 1)更快的训练效率 2)低内存使用 3)更高的准确率 4)支持并行化学习 5)可以处理大规模数据 与常见的机器学习算法对比,速度是非常快的 二.XGboost缺点 在讨论LightGBM时,不可避免的会提到XGboost,关于XGboost可以参考此博文 关于XGboost的不足之处主要有: 1)每次迭代训练时需要读取整个数据集,耗时耗内存: 2)使用Ba
Win7 系统引导盘(C盘)空间越来越小怎么办?
Win7的系统引导盘用着用着会越来越小.怎么办呢?我以前在网上查过资料,说是找个工具加大C盘.我加了,从原来的20G加到现在的35G.用了一段时间后,空间又只剩几百M了.难道又要加?? 后来,在网上找到了这个方法,好用. 当时照着网上的步骤一步步走来,终于释放了很多空间(十几个G). 再后来,又遇到了相同的情况,忘了怎么弄了……再想找那个网页有找不到了.我当时没有保存那个网页,也忘了当时用什么关键字去搜索的了.如果有的话,我应该给那个兄弟的网页加个链接的.现在只能说Sorry了. 后来又有了类似
Problem H: 小火山的围棋梦想 多校训练2(小火山专场)
题目链接:http://acm.zzuli.edu.cn/zzuliacm/problem.php?id=1908 题意:如果'.'被'*'围起来,就把'.'变为'*'. 分析:如果是'*'直接输出,如果是'.' 则要对其搜索 如果四个方向都是封闭的,则可以改变.即w[i][j]=4; 如果查询的是'*'或者查询的是已被查询过的'.' ,则记录上: 如果查询的是'.'而且没有查询标记过,则进行查询: #include<iostream> #include<algorithm> #
Problem A: 小火山的跳子游戏 多校训练2(小火山专场)(周期)
题目链接:http://acm.zzuli.edu.cn/zzuliacm/problem.php?cid=1158&pid=0 zzuli 1905 题意:如果k=1的话是1,2,3,4...n-1,n,n-1...3,2,1.可以看出这个周期是2*n-2,所以只要gcd(2*n-2, k)==1就是可以全部标记完的. 因为走到一个走过的并且方向一样并且没有标记全部的话就不可能能标记完了,所以要走2*n-2次没有重复位置和方向的,也就是gcd(2*n-2,k)==1. Sample Inpu
Visual Studio 2010生成解决方案时,导致C盘空间越来越小
为了从根本上解决问题,还是去掉智能跟踪选项吧,方案: VS2010-->工具-->选项-->IntelliTrance-->将“启用IntelliTrace”勾选去掉-->确定
「日常训练」「小专题·图论」Domino Effect(1-5)
题意 分析 这题几乎就是一条dijkstra的问题.但是,如何考虑倒在中间? 要意识到这题求什么:单源最短路的最大值.那么有没有更大的?倒在中间有可能会使它更大. 但是要注意一个问题:不要把不存在的边(边长为inf)算进去:另外,n=1的情况需要注意. 代码 // Origin: // Theme: Graph Theory (Basic) // Date: 080618 // Author: Sam X //#include <bits/stdc++.h> #include <iost
「日常训练」「小专题·图论」 Cow Contest (1-3)
题意 分析 问题是要看出来这是个floyd闭包问题.我没看出来- - 分析之后补充. 代码 // Origin: // Theme: Graph Theory (Basic) // Date: 080618 // Author: Sam X //#include <bits/stdc++.h> #include <iostream> #include <utility> #include <iomanip> #include <cstring>
「日常训练」「小专题·图论」 Frogger (1-1)
题意 分析 变形的dijkstra. 分析题意之后补充. 代码 // Origin: // Theme: Graph Theory (Basic) // Date: 080518 // Author: Sam X //#include <bits/stdc++.h> #include <iostream> #include <utility> #include <iomanip> #include <cstring> #include <c
「日常训练」「小专题·USACO」 Ski Course Design (1-4)
题目 以后补 分析 mmp这题把我写蠢哭了 我原来的思路是什么呢? 每轮找min/max,然后两个决策:升min/降max 像这样子dfs找最优,然后花式剪枝 但是一想不对啊,这才1-4,哪有那么复杂 网上一看,沃日丢人现眼了 由于数据范围(没错面向数据范围编程),只要穷举min/max,然后对小于大于min/max进行调整,最后找最优方案即可. 贪心+枚举=人生赢家 真实蠢哭了 代码 /* ID: samhx1 LANG: C++14 TASK: skidesign */ #include <
「日常训练」「小专题·USACO」 Wormholes(1-4)
题意 之后补充. 分析 这是一条很好的考察递归(或者说搜索)的题目.它的两个过程(建立初步解,验证)都用到了递归(或者说运用递归可以相当程度的减少代码量). 具体实现见代码.注意,为了使用std::pair的比较操作符,代码交换了x.y的位置. 代码 /* ID: samhx1 LANG: C++14 TASK: wormhole */ #include <bits/stdc++.h> #define MP make_pair #define PB push_back #define fi f
「日常训练」「小专题·USACO」 Barn Repair(1-4)
题意 之后补. 分析 这题同样也很精巧.我们不妨思考一下,如果只允许用一块木板,那么要购买多少距离?是整个的距离吗?不是,是从第一个到最后一个(哈哈哈哈哈哈哈).但是,不包括第一个的"左边"和最后一个的"右边".只允许用两块的时候发生了什么变化?可以想见,最好的解是将最宽的那个间隔去掉.以此类推. 以这样的思路就可以得到题目的解法.问题在于各种各样的细节(again):样例数据里面给的牛棚按照顺序但是实际数据它未作保证:然后牛棚的距离记得-1,因为牛棚本身需要盖木板
「日常训练」「小专题·USACO」 Broken Necklace(1-2)
题意 圆形链条,打断一处可以形成一条链.问在哪个地方开始打断,能够形成最大的连续颜色(白色视作同样的颜色)? 分析 说起来很高级,但是我们实际上并不需要穷举打断的地方,只需要把串重复三回啊三回.然后从第二个串的左边开始循环找连续颜色的"初始色"(如果是白色,那么左右看看),在初始色的左右找相同.可以看出共有n个初始色的位置,所以算法也就是O(n2)" role="presentation">O(n2)O(n2)的复杂度.然后还有一些细节要处理.作为一
深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)
一.CNN卷积神经网络的经典网络综述 下面图片参照博客:http://blog.csdn.net/cyh_24/article/details/51440344 二.LeNet-5网络 输入尺寸:32*32 卷积层:2个 降采样层(池化层):2个 全连接层:2个 输出层:1个.10个类别(数字0-9的概率) LeNet-5网络是针对灰度图进行训练的,输入图像大小为32*32*1,不包含输入层的情况下共有7层,每层都包含可训练参数(连接权重).注:每个层有多个Feature Map,每个Featu
Stanford机器学习笔记-6. 学习模型的评估和选择
6. 学习模型的评估与选择 Content 6. 学习模型的评估与选择 6.1 如何调试学习算法 6.2 评估假设函数(Evaluating a hypothesis) 6.3 模型选择与训练/验证/测试集(Model selection and training/validation/test sets) 6.4 偏差与方差 6.4.1 Diagnosing bias vs. variance. 6.4.2 正则化与偏差/方差(Regularization and bias/variance)
stanford coursera 机器学习编程作业 exercise 5(正则化线性回归及偏差和方差)
本文根据水库中蓄水标线(water level) 使用正则化的线性回归模型预 水流量(water flowing out of dam),然后 debug 学习算法 以及 讨论偏差和方差对 该线性回归模型的影响. ①可视化数据集 本作业的数据集分成三部分: ⓐ训练集(training set),样本矩阵(训练集):X,结果标签(label of result)向量 y ⓑ交叉验证集(cross validation set),确定正则化参数 Xval 和 yval ⓒ测试集(test set)
Learning Theory
Empiricial Risk Minimization 统计学习理论是整个机器学习到框架.试想我们学习的目的是什么呢?当然是为了具备用合理的方式处理问题的能力.统计学习理论要解决的问题就是基于数据找到一个预测函数.经验风险最小化(Empiricial Risk Minimization,ERM)[2]是统计学习理论中准则之一,常用于给出学习算法(learning algorithms)性能的理论边界. 假定给定两个数据空间\(X\)和\(Y\), 我们想学习到一个假设函数(hypothesis
初识TensorFlow
在前边几期的文章中,笔者已经用TensorFlow进行的一些基础性的探索工作,想必大家对TensorFlow框架也是非常的好奇,本着发扬雷锋精神,笔者将详细的阐述TensorFlow框架的基本用法,并尽力做到通俗易懂,对得起读者花费的时间. 行文目录 本文从以下三个方面,展开对TensorFlow的剖析: TensorFlow框架概述 TensorFlow基本操作 TensorBoard使用 TensorFlow框架概述 2015年11月9日,为加速深度学习的发展,Google发布了深度学习框架
《Machine Learning Yearing》读书笔记
——深度学习的建模.调参思路整合. 写在前面 最近偶尔从师兄那里获取到了吴恩达教授的新书<Machine Learning Yearing>(手稿),该书主要分享了神经网络建模.训练.调节参数时所需要的一些技巧和经验.我在之前的一些深度学习项目中也遇到过模型优化,参数调节之类的问题,由于当时缺少系统化的解决方案,仅仅依靠感觉瞎蒙乱碰.虽然有时也能获得效果不错的网络模型,但对于该模型是否已到达最佳性能.该模型是否能适配更泛化的数据等问题心理没底.通过阅读这本教材,对于数据集的获取.划分:训练模型
BP神经网络算法推导及代码实现笔记zz
一. 前言: 作为AI入门小白,参考了一些文章,想记点笔记加深印象,发出来是给有需求的童鞋学习共勉,大神轻拍! [毒鸡汤]:算法这东西,读完之后的状态多半是 --> “我是谁,我在哪?” 没事的,吭哧吭哧学总能学会,毕竟还有千千万万个算法等着你. 本文货很干,堪比沙哈拉大沙漠,自己挑的文章,含着泪也要读完! ▌二. 科普: 生物上的神经元就是接收四面八方的刺激(输入),然后做出反应(输出),给它一点就灿烂.仿生嘛,于是喜欢放飞自我的 某些人 就提出了人工神经网络.一切的基础-->人工神经单元,
Andrew NG 机器学习编程作业5 Octave
问题描述:根据水库中蓄水标线(water level) 使用正则化的线性回归模型预 水流量(water flowing out of dam),然后 debug 学习算法 以及 讨论偏差和方差对 该线性回归模型的影响 ①可视化数据集 本作业的数据集分成三部分: ⓐ训练集(training set),样本矩阵(训练集):X,结果标签(label of result)向量 y ⓑ交叉验证集(cross validation set),确定正则化参数 Xval 和 yval ⓒ测试集(test set
Reading | 《DEEP LEARNING》
目录 一.引言 1.什么是.为什么需要深度学习 2.简单的机器学习算法对数据表示的依赖 3.深度学习的历史趋势 最早的人工神经网络:旨在模拟生物学习的计算模型 神经网络第二次浪潮:联结主义connectionism 神经网络的突破 二.线性代数 1. 标量.向量.矩阵和张量的一般表示方法 2. 矩阵和向量的特殊运算 3. 线性相关和生成子空间 I. 方程的解问题 II. 思路 III. 结论 IV.求解方式 4. 范数norm I. 定义和要求 II. 常用的\(L^2\)范数和平方\(L^2\
热门专题
numpy 数组里每个数的个数
下面关于var_dump打印输出信息说法正确的是
iframe postmessage 子页面接收不到数据
extratree重要度最大值为多少
java中的EncryptAndDecrypt
wr720nv4 刷openwrt
bs get put post 的区别
SAXReader解析xml参数
esp8266配网自动联网
Python clipmanagement函数
url猜解MySQL数据库连接检测
springcloud集成minio
python中while和for哪个效率高
android内置ali支付
C#WinForm项目中使用控件较多时卡顿问题
game和gamification的区别
框架可以代替root吗
java连接mysql8数据库的代码
用dir命令查看盘上文件
java全局变量命名规则