当前位置: 首页 > news >正文

Scikit-LearnTensorFlow机器学习实用指南(三):一个完整的机器学习项目【下】

机器学习实用指南(三):一个完整的机器学习项目【下】

作者:LeonG
本文参考自:《Hands-On Machine Learning with Scikit-Learn & TensorFlow 机器学习实用指南》,感谢中文AI社区ApacheCN提供翻译。

本文全部代码和数据集保存在我的github-----LeonG的github

1.回顾

在上一节,我们从网络上获取了数据:housing

然后将数据分为训练集strat_train_set和测试集strat_test_set

将训练标签也就是房价单独分离housing_labels

最后分析了训练集的一些规律,针对这个数据集制作了一个数据整理工具full_pipeline,将训练集strat_train_set转为housing_prepared

经过这些步骤,我们的训练模型只需要输入训练数据housing_prepared和训练标签housing_labels,就可以得到训练好的模型了。

2.训练模型

接下来我们要尝试几种机器学习的算法模型:线性回归模型、决策树模型、随机森林模型。

提示:这些算法模型的具体原理和细节在以后的章节会详细解析,本章只是简单的使用,不用担心不看懂。

2.1线性回归模型

我们先来训练一个线性回归模型,借助sklearn中的LinearRegression类来实现:

from sklearn.linear_model import LinearRegression
lin_reg = LinearRegression()
#输入训练数据进行训练
lin_reg.fit(housing_prepared,housing_labels)

只需要这样简单的三行操作就能训练完一个线性回归模型。

现在使用训练集中的前五行来验证:

#取前五行数据
some_data = housing.iloc[:5]
some_labels = housing_labels.iloc[:5]
#对这些数据进行预测(代入到训练好的模型中计算出预测房价)
some_data_prepared = full_pipeline.transform(some_data)
#模型的预测值
print("Predictions:\t", lin_reg.predict(some_data_prepared))
#数据集的标签值
print("Labels:\t\t", list(some_labels))
Predictions: [210644.60 317768.80 210956.43 59218.98 189747.55]
Labels:      [286600.0, 340600.0, 196900.0, 46300.0, 254500.0]

可以看出数据之间差距还是比较大的,我们计算一下这个回归模型的RMSE

RMSE是均方根误差:
\sqrt{\sum_{i=1}^{n}\frac{1}{n}{(f(x_i)-y_i)}^{2}}
均方根误差的意义大概可以理解为:预测值和实际值的平均差距

当然,我们也不需要手动写公式,直接让sklearn来帮我们算:

from sklearn.metrics import mean_squared_error
#计算出训练集的所有预测值
housing_predictions = lin_reg.predict(housing_prepared)
#计算线性模型的预测值和实际值的均方误差
lin_mse = mean_squared_error(housing_labels, housing_predictions)
#均方根误差=均方误差开方
lin_rmse = np.sqrt(lin_mse)
lin_rmse
68628.19819848923

计算得出线性回归模型的均方根误差很大,这样肯定不行。

结论:对于该数据集来说,线性回归模型是一个欠拟合模型。

2.2决策树模型

修复欠拟合的主要方法是选择一个更强大的模型,接下来试试决策树模型。

决策树模型可以发现数据中复杂的非线性关系。借助sklearn中的DecisionTreeRegressor类来实现:

from sklearn.tree import DecisionTreeRegressor
tree_reg = DecisionTreeRegressor()
#输入训练数据进行训练
tree_reg.fit(housing_prepared, housing_labels)

这次不取前五行测试了,直接计算这个模型的RMSE:

#计算出训练集的所有预测值
housing_predictions = tree_reg.predict(housing_prepared)
#计算决策树模型的预测值和实际值的均方误差
tree_mse = mean_squared_error(housing_labels, housing_predictions)
#均方根误差=均方误差开方
tree_rmse = np.sqrt(tree_mse)
tree_rmse
0.0

咦,没有误差?这个模型是绝对完美的吗?不对,这是因为模型严重的拟合数据,任何一条训练数据都能得到对应的训练标签。

结论:对于该数据集来说,决策树模型是一个过拟合模型。

3.交叉验证

如何验证模型的真实水平呢?在确定模型之前,我们都不要碰测试集,所以需要用训练集的部分数据来做训练,接下来使用交叉验证法。

3.1K折交叉验证法

K折交叉验证法:将数据集分为K份,称为折,每次用其中一个折作为测试集来计算误差,经过K次计算后求出一组长度为K的误差值,这组误差的平均值就是交叉验证得出的误差值。

我们将K设置为10:

借助sklearn可以很简单的实现验证:

from sklearn.model_selection import cross_val_score
#总共有五个参数,第一个是模型,2和3是数据,scoring指定了计算方式,cv是K值
scores = cross_val_score(tree_reg, housing_prepared, housing_labels,scoring="neg_mean_squared_error", cv=10)
#score是效用函数计算得出的,实际上和均方误差相反,所以要加上负号
tree_rmse_scores = np.sqrt(-scores)

设置一个输出函数来查看具体情况:

def display_scores(scores):#均方误差,一共十个print("Scores:", scores) #平均的均方误差print("Mean:", scores.mean())#均方误差的标准差print("Standard deviation:", scores.std())
display_scores(tree_rmse_scores)
Scores: [67649.82 67698.67 71079.28 69445.09 71808.23 73827.59 71111.46 71243.31 75630.03 70498.20]
Mean: 70999.17217565424
Standard deviation: 2344.261017051602

可以看出,决策树模型并没有那么好用,甚至比线性回归模型还糟糕。

交叉验证不仅可以得到模型性能的评估,还能测量评估的准确性(标准差)。决策树的误差大概是71000,波动幅度±2300。

3.2随机森林模型

上述两个模型误差都很大,现在使用随机森林模型。

这个模型的名字很有意思,如果将决策树看做是一棵树的话,随机森林就是随机组合一些属性来训练许多决策树,在其他多个模型之上建立模型成为集成学习。借助sklearn中的RandomForestRegressor类来实现:

from sklearn.ensemble import RandomForestRegressorforest_reg = RandomForestRegressor()
#输入训练数据进行训练
forest_reg.fit(housing_prepared,housing_labels)
#计算交叉验证误差
scores = cross_val_score(forest_reg, housing_prepared, housing_labels,scoring="neg_mean_squared_error", cv=10)
#score是效用函数计算得出的,实际上和均方误差相反,所以要加上负号
forest_rmse_scores = np.sqrt(-scores)
display_scores(forest_rmse_scores)
Scores: [51066.82 50166.73 52755.29 55534.63 51963.35 54194.03 52341.03 50770.49 54823.32 52582.53]
Mean: 52619.825856487405
Standard deviation: 1679.5101421709217

看起来效果比上面两个模型都要好,实际上我们应该多测试几个模型,比如不同核心的支持向量机、神经网络等等,目标是列出可以使用模型的列表。做完之后就是对模型的微调了。

4.模型微调

调整什么呢,调整超参数,超参数是什么,超参数就是不能通过学习来自动调整的参数。比如学习率,神经网络的层数等等。

在机器学习中,超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对超参数进行优化,给学习机选择一组最优超参数,以提高学习的性能和效果。

超参数的一些示例:

  • 树的数量或树的深度
  • 矩阵分解中潜在因素的数量
  • 学习率(多种模式)
  • 深层神经网络隐藏层数
  • k均值聚类中的簇数

4.1网格搜索

网格搜索的意思很简单,为几个超参数设定一个范围取值,逐一搜索最佳组合的方式就是网格搜索。

我们借助SKlearn中的GridSearchCV来自动完成搜索工作。

你所需要做的是告诉 GridSearchCV 要试验有哪些超参数,要试验什么值, GridSearchCV 就能用交叉验证试验所有可能超参数值的组合。例如,下面的代码搜索了随机森林模型超参数值的最佳组合:

from sklearn.model_selection import GridSearchCV
param_grid = [
#字典1:尝试3×4=12种组合
{'n_estimators': [3, 10, 30], 'max_features': [2, 4, 6, 8]},
#字典2:尝试1×2×3=6种组合
{'bootstrap': [False], 'n_estimators': [3, 10], 'max_features': [2, 3, 4]},
]
forest_reg = RandomForestRegressor()
#定义一个网格搜索,采用5折交叉验证法,判断标准是均方误差
grid_search = GridSearchCV(forest_reg, param_grid, cv=5,scoring='neg_mean_squared_error')
#使用这些组合来训练随机森林
grid_search.fit(housing_prepared, housing_labels)
#输出最佳超参数组合
grid_search.best_params_
#输出最佳模型
grid_search.best_estimator_
{'max_features': 8, 'n_estimators': 30}
RandomForestRegressor(bootstrap=True, criterion='mse', max_depth=None,max_features=8, max_leaf_nodes=None,min_impurity_decrease=0.0, min_impurity_split=None,min_samples_leaf=1, min_samples_split=2,min_weight_fraction_leaf=0.0, n_estimators=30,n_jobs=None, oob_score=False, random_state=None,verbose=0, warm_start=False)

两个搜索组合,第一个组合有12种情况,第二个组合有6种情况,一共18种情况,因为是五折交叉验证,所以,一共要进行18×5=90轮训练!完成后,就能返回超参数的最佳组合best_params_最佳模型best_estimator_

我们还可以查看网格搜索中每一个属性组合的得分情况:

cvres = grid_search.cv_results_
#输出超参数组合对应的得分情况
for mean_score, params in zip(cvres["mean_test_score"], cvres["params"]):print(np.sqrt(-mean_score), params)
65092.02010981559 {'max_features': 2, 'n_estimators': 3}
55359.4496463199  {'max_features': 2, 'n_estimators': 10}
52556.54068544674 {'max_features': 2, 'n_estimators': 30}
59605.3135515846  {'max_features': 4, 'n_estimators': 3}
53164.81127753654 {'max_features': 4, 'n_estimators': 10}
50676.9400303366  {'max_features': 4, 'n_estimators': 30}
59477.454981964   {'max_features': 6, 'n_estimators': 3}
52493.72219849825 {'max_features': 6, 'n_estimators': 10}
50129.58037046355 {'max_features': 6, 'n_estimators': 30}
58975.88486428257 {'max_features': 8, 'n_estimators': 3}
51999.19103564533 {'max_features': 8, 'n_estimators': 10}
49948.7230892116  {'max_features': 8, 'n_estimators': 30}
61188.21752051931 {'bootstrap': False, 'max_features': 2, 'n_estimators': 3}
54352.52617644768 {'bootstrap': False, 'max_features': 2, 'n_estimators': 10}
60598.83975833867 {'bootstrap': False, 'max_features': 3, 'n_estimators': 3}
52874.9435481527  {'bootstrap': False, 'max_features': 3, 'n_estimators': 10}
59428.43938347719 {'bootstrap': False, 'max_features': 4, 'n_estimators': 3}
52007.58232013096 {'bootstrap': False, 'max_features': 4, 'n_estimators': 10}

可以看出{'max_features': 8, 'n_estimators': 30}这个超参数组合得分最高,我们成功的使用网格搜索法调整了超参数值,将误差值从52619降低到49948

4.2其他方法

网格搜索看起来就是穷举法,穷举的方式在组合数少的情况下还能用,组合多的话最好使用随机搜索RandomizedSearchCV,虽然不会尝试所有的组合,但是能抽取更多完全不同的组合情况,还能方便的设定搜索次数,控制计算量。

还有一种方法是集成法,将几个不同的最佳模型组合起来使用,这个方法在后面的章节深入讲解。

5.测试模型

现在,我们可以测试一下调整好的模型了。

测试集也要进行处理,类比本章第一节的操作:

  1. 将测试数据分为两个测试数据X_test和测试标签y_test

  2. 将测试数据进行数据整理将X_test转为X_test_prepared,注意,这里使用tranform函数而不是fit_transform函数。

最后对测试集进行预测,计算预测值和实际值的均方根误差就能得到最终的误差效果。

#获得最佳的模型
final_model = grid_search.best_estimator_
#分割测试数据和测试标签
X_test = strat_test_set.drop("median_house_value", axis=1)
y_test = strat_test_set["median_house_value"].copy()
#将测试数据进行整理(使用transform函数)
X_test_prepared = full_pipeline.transform(X_test)
#计算预测值
final_predictions = final_model.predict(X_test_prepared)
#计算预测值和测试标签的均方误差
final_mse = mean_squared_error(y_test, final_predictions)
#计算最终的均方根误差
final_rmse = np.sqrt(final_mse)
48154.525254070046

得出该模型的均方根误差为48154。

至此,我们机器学习项目的开发阶段就算告一段落了。

最后,就是项目的预上线了,我们需要向万达集团展示具体实施方案,然后给自己倒上一杯卡布奇诺。

希望这一章能告诉你机器学习项目是什么样的,你能用学到的工具训练一个好系统。

你已经看到,大部分的工作是数据准备步骤、搭建监测工具、建立人为评估的流水线和自动化定期模型训练。

当然,最好能了解整个过程、熟悉三或四种算法,而不是在探索高级算法上浪费全部时间,导致在全局上的时间不够。 因此,如果你还没做,现在最好拿起台电脑,选择一个感兴趣的数据集,将整个流程从头到尾完成一遍。

讲实话,能坚持学到这里的朋友,真的很优秀。学完了这一章,你的机器学习之路已经成功了一半。

接下来我们会对机器学习的各种算法进行具体的学习和实践。


欢迎来我的博客留言讨论,我的博客主页:LeonG的博客

本文参考自:《Hands-On Machine Learning with Scikit-Learn & TensorFlow机器学习实用指南》,感谢中文AI社区ApacheCN提供翻译。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

最后编辑于:2024-08-25 10:33:47


喜欢的朋友记得点赞、收藏、关注哦!!!

相关文章:

  • Android 如何使用jdk命令给应用/APK重新签名。
  • 【pytorch】pytorch入门4:神经网络的卷积层
  • 实现简易 vuedraggable 的拖拽排序功能
  • JavaScript异步编程:async、await的使用
  • 高级java每日一道面试题-2024年9月18日-设计模式篇-JDK动态代理,CGLIB代理,AspectJ区别?
  • MySQL数据库迁移与备份实录
  • 如何在O2OA中使用ElementUI组件进行审批流程工作表单设计
  • 重生之我在代码随想录刷算法第十四天 | 513.找树左下角的值、112. 路径总和、106.从中序与后序遍历序列构造二叉树
  • mysql-connector-java本地试验
  • Python数据分析工具(三):pymssql的用法
  • 选对工具,效率飞跃提升
  • Kibana中突然看不到日志ElasticSearch突然采集不到日志问题解决分析
  • Ubuntu24.04 安装ssh开启22端口及允许root用户远程登录
  • 记录一次学习--委派攻击学习
  • Ubuntu以及ROS的一些方便设置及使用
  • 「前端」从UglifyJSPlugin强制开启css压缩探究webpack插件运行机制
  • 5、React组件事件详解
  • CSS实用技巧干货
  • es的写入过程
  • golang 发送GET和POST示例
  • Magento 1.x 中文订单打印乱码
  • Netty 4.1 源代码学习:线程模型
  • Netty源码解析1-Buffer
  • win10下安装mysql5.7
  • 阿里云Kubernetes容器服务上体验Knative
  • 初探 Vue 生命周期和钩子函数
  • 如何学习JavaEE,项目又该如何做?
  • 用mpvue开发微信小程序
  • Android开发者必备:推荐一款助力开发的开源APP
  • kubernetes资源对象--ingress
  • 积累各种好的链接
  • 智能情侣枕Pillow Talk,倾听彼此的心跳
  • ​VRRP 虚拟路由冗余协议(华为)
  • # 日期待t_最值得等的SUV奥迪Q9:空间比MPV还大,或搭4.0T,香
  • #HarmonyOS:Web组件的使用
  • #if 1...#endif
  • (0)Nginx 功能特性
  • (Demo分享)利用原生JavaScript-随机数-实现做一个烟花案例
  • (echarts)echarts使用时重新加载数据之前的数据存留在图上的问题
  • (MIT博士)林达华老师-概率模型与计算机视觉”
  • (PHP)设置修改 Apache 文件根目录 (Document Root)(转帖)
  • (Ruby)Ubuntu12.04安装Rails环境
  • (笔试题)合法字符串
  • (附源码)springboot太原学院贫困生申请管理系统 毕业设计 101517
  • (回溯) LeetCode 77. 组合
  • (十三)MipMap
  • (贪心) LeetCode 45. 跳跃游戏 II
  • (五)网络优化与超参数选择--九五小庞
  • (转)从零实现3D图像引擎:(8)参数化直线与3D平面函数库
  • (转载)Google Chrome调试JS
  • .bat批处理(十一):替换字符串中包含百分号%的子串
  • .NET 6 Mysql Canal (CDC 增量同步,捕获变更数据) 案例版
  • .net core 6 集成和使用 mongodb
  • .net操作Excel出错解决
  • .NET值类型变量“活”在哪?