作者:empty 页数:484 出版社:empty |
scikit-learn是基于Python语言的机器学习工具, 简单高效的数据挖掘和数据分析工具, 可供大家在各种环境中重复使用, 建立在NumPy, SciPy和mat plot b上, 开源, 可商业使用-BSD许可证
Evaluation Wa ming:The document was created with Spire.PDF for NET.项目当前处于校对阶段,请查看贡献指南,井在整体进度中领取任务。请您改暗去翻译和改进翻译,品然我们卓,相我们并不要求到十金十类,因此语不要担心国为翻译上一在大部分情况下,我们的围务符已经记承所有的,目您不必心因为的失道到无结提的坏.(改日基直料)项目负责人
Sci kit-learn绘图功能(即, 函数以“plot_“开头, 需要Matplotlib(>=1.5.1) 。一些sci kit-1earn示例可能需要一个或多个额外依赖项:sci kit-image(>=0.12.3) 、panda(≥=0.18.8) 。曾告:Sct kic-1earn 0.2e是支持Python 2.7td Python 3.a的最后一个版本, sc1kic-In arn在露爱Py than 3.5威更精本如果你已经有一个合适的numpy和scipy版本, 安装sci kit-learn最简单的方法是使用pip如果您还没有安装NumPy或SciPy, 还可以使用cond a或pip来安装它们。当使用pip时, 请确保使用了binary wheels, 并且NumPy和SciPy不会从源重新编译, 这可能在使用操作系统和硬件的特定配置(如Raspberry pi上的Linux) 时发生。从源代码构建numpy和scipy可能是复杂的(特别是在windows上),并且需要仔细配置,以确保它们与线性代数程序的优化实现链接。而是使用如下所述的第三方发行版如果您必须安装sci kit-learn及其与pip的依赖关系, 则可以将其安装为sci kit-I earn[alIda ps.最常见有关更多发行版的安装说明,请参阅其他发行版。要从源代码编译开发版本,或者在体系结构中没有可用的发行版时如果您尚未安装具有numpy和scipy的python安装, 建议您通过软件包管理器或通过python软件包进行
致谢
Intrductin
安装suid sle am
1.盈督学习
2.无监督学习
3模型选择和评估
11广文性模型
12.线性和二次学分析
13内核岭回归
14支持向量机
15随机梯度下降
16.最近制
17高斯过程
18.交叉分解
19朴素贝叶斯
1.10决策树
111.集方法
1.12.多类和多杯法
113.特征选择
114半监营学习
115等式回归
116.柜校准
117料经网络模型有紧督)
21.高斯混合模型
22.黛形学习
23.型类
24.双果类
25分解成分中的俄号(矩阵分解间题)
26协方差估计
2.7.新奇和异常检测
28密度估计
29.神经网路模型(无蓝督)
31.交叉验证:评估估算的表现
32调整估计的超参数
33模型评估量化预测的质量
3.4.模型打久化
35.9曲:绘制分数以评估模型
4.1部分依赖图
4.检验
5.数据实转换
教程
见问题
时光轴
51Pplie(智道) 和Fe due eU nn(征联合) 合井的评估吕
52征提联
S3预处理数据
54缺失值插补
SS无监督择维
56机投影
57内核近银
58成对的矩阵,类别和数
59预衡目标()的转换
使用sit leam介绍机器学习
关于科学数据处理的统计学习教程
处理文本数据
选样正确的评估器(est ma t cmd)
外部资源,视频和谈话
机器学习sck i-1eam中的设置以及预估对象
监督学习:从高维现疾预测输出变量
根型选择:选择估计量及其参数
无监学习:寻求数据表示
把它们放在一起
寻求帮助
1.13.特征选择
1.14.半监督学习
1.15.等式回归
w1.16.概率校准
·1.17.神经网络模型(有监督)
·2.1.高斯混合模型
·2.2.流形学习
·2.3.聚类
·2.4,双聚类
·2.5.分解成分中的信号(矩阵分解问题)
¥2.6.协方差估计
.2.7.新奇和异常值检测
m2.8.密度估计
w2.9.神经网络模型(无监督)
3.1.交叉验证:评估估算器的表现
w3.2.调整估计器的超参数
w3.3.模型评估:量化预测的质量
3.4.模型持久化
·3.5.验证曲线:绘制分数以评估模型
4.检验
.4.1.部分依赖图
5.数据集转换
6.数据集加载工具
7.使用sci kit-learn计算
使用sci kit-learn介绍机器学习
关于科学数据处理的统计学习教程
处理文本数据
选择正确的评估器(estimatr.md)
外部资源,视频和谈话
·5.1.Pipeline(管通) 和Feature unin(特征联合) :合并的评估器
m5.2.特征提取
·5.3预处理数据
5.4.缺失值插补
m5.5.无监蟹降维
5.6.随机投影
5.7.内核近似
m5.8.成对的矩阵,类别和核函数
·5.9.预测目标(v)的转换
w 6.1.通用数据集API
6.2.玩具数据集
w6.3真实世界中的数据集
·6.4.样本生成器
:6.5.加载其他数据集
7.1.大规模计算的策略:更大量的数据
m7.2.计算性能
7.3.并行性、资源管理和配置
·机器学习:sci kit-learn中的设置以及预估对象
监督学习:从高维观察预测输出变量
·模型选择:选择估计量及其参数
·无监督学习:寻求数据表示
·把它们放在一起
1.7.3.高斯过程分类(GPC)
1.9.1.高斯朴素贝叶斯
1.9.2.多项分布朴素贝叶斯
1.9.3.补充朴素贝叶斯
1.9.4,伯努利朴素贝叶斯
1.9.5.基于外存的朴素贝叶斯模型拟合
1.10.1.分类
1.10.2.回归
1.18.3.多值输出问题
1.10.4.复杂度分析
1.10.5.实际使用技巧
1.10.6.决策树算法:ID 3, C 4.5, C 5.0和CART
1.11.1.Bagging meta-estimatr(Bagging元估计器)
1.11.2.由随机树组成的森林
1.11.3.AdaBst
1.11.4.Gradient Tree Bsting(梯度树提升)
·1.11.5.Vting Classifier(投票分类器)
1.11.6, 投票回归器(Vting Regressr)
1.12.1,多标签分类格式
1.12.2.1对其余
1.12.3.1对1
1.12.4.误差校正输出代码
1.12.5.多输出回扫
1.12.6.多输出分类
1.12.7.链式分类器
1.13.1.移除低方差特征
1.13.2.单变量特征选择
:1.7,高斯过程
1.7.2, GPR示例
1.7.4.GPC示例
1.7