当前位置: 首页 > news >正文

《机器学习》 逻辑回归 大批量数据的下采样 <8>

 一、案例文件

同样使用上节课的银行贷款案例,其文件内容大致如下:(共28万多条,31列)

现在要继续接着上节课的内容对模型进行优化

二、下采样流程

1、流程图示

2、具体流程介绍

1)切分原数据集        

        大量数据的文件data,其中有28万多条数据类别为0类的和480多条数据类别为1类的,对这28万多条数据随机取出和类别为1的数目相同条数的数据

data1 = a.sample(len(b))  # 使用sample方法,从a数据集中切出长度等于b的数据,将得到的数据赋值给data1

2)合并数据集

        将取出的480条数据和原先类别为1的数据合并,得到一个小数据集data_c,共480x2条数据

# 使用pandas中的concat合并两个数据集
data = pd.concat([train_1,train_2])
3)切分合并的数据集        

        对这960条数据随机取样取出其中的百分之20当做测试集test,百分之80当做训练集train

4)k折交叉运算

        再对这个训练集进行k折交叉验证得到最优的C值,然后在建立模型,导入最优C值,再对这个训练集train进行训练

c = [0.01,0.1,1,10,100]
for i in c:model = LogisticRegression(C=i)score = c(model,x_train,y_train,cv=8,scoring='recall')  # 使用模型model对数据集进行8折交叉运算print(score)

5)导入数据进行测试

        把小数据集分出来的百分之20的测试集导入模型,对其进行预测,来观察其召回率以及精确率情况,小数据集测完再去对将原始数据随机取出百分之20的数据当做测试集,再输入模型对其预测

model = LogisticRegression(C=best_c) # 导入上个步骤求得的最优C值
lr.fit(x_train,y_train)  # 对数据进行训练
6)修改阈值

        此时发现概率可能还是不高,那么再使用一种方法,也就是修改阈值的方法对其进行处理,取阈值为0.1-0.9这个阶段,分别测试其召回率,最后就可以得到最优模型,完成训练。

4、什么是k折交叉验证

        k折交叉验证是一种常用的模型评估方法。它将数据集分成k个子集,每次使用其中的k-1个子集作为训练集,剩下的1个子集作为验证集,然后对模型进行训练和评估。这个过程重复k次,每次使用不同的子集作为验证集。最终,将k次评估的结果平均得到模型的性能指标,如准确率、精确度、召回率等。

5、什么是修改阈值

        修改阈值是指在特定的系统或算法中,调整阈值的数值以达到不同的效果或目标。

        阈值是一个临界点,用于判断某个输入值是否满足某种条件或达到某个标准。在很多应用中,阈值的设定对结果的准确性和可靠性至关重要。通常情况下,阈值的设定是根据具体需求和应用场景进行的。

三、完整代码实现

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from pylab import mpl# 可视化混淆矩阵,网上都是包装好的,可以直接复制使用
def cm_plot(y, yp):from sklearn.metrics import confusion_matriximport matplotlib.pyplot as pltcm = confusion_matrix(y, yp)plt.matshow(cm, cmap=plt.cm.Blues)plt.colorbar()for x in range(len(cm)):for y in range(len(cm)):plt.annotate(cm[x, y], xy=(y, x), horizontalalignment='center',verticalalignment='center')plt.ylabel('True label')plt.xlabel('Predicted label')return pltdata = pd.read_csv(r'./creditcard.csv')
data.head()  # 默认输出前5行,这里用来提示防止忘记代码了# 设置字体,用来显示中文
mpl.rcParams['font.sans-serif'] = ['Microsoft YaHei']
mpl.rcParams['axes.unicode_minus'] = False# 同级class列中每个类型的数据个数,(这里的样本极度不均衡)
labels_count = pd.value_counts(data['Class'])
# 可视化上述分类数据的个数
plt.title("正负例样本数")
plt.xlabel('类别')
plt.ylabel('频数')
labels_count.plot(kind='bar')
plt.show()# 将Amount列的数据进行Z标准化,因为其余列的值有负值,所以不能使用0-1归一化
# 导入库的用法
from sklearn.preprocessing import StandardScaler
# z标准化
scaler = StandardScaler()  # 这是一个类,专门用来处理z标准化,适合处理大量数据的类,还有一种叫scale,适合对小部分数据进行z标准化
a = data[['Amount']]  # 取出Amount整列数据
data['Amount'] = scaler.fit_transform(data[['Amount']])  # 对Amount整列数据进行z标准化后将其传入原data内,覆盖原来的列# 删除无用的列,Time列,axis=1表示列,axis=0表示行,然后再传入data文件
data = data.drop(['Time'],axis=1)x_big = data.drop('Class',axis=1)
y_big = data.Class# 处理小数据集
positive_eg = data[data['Class'] == 0]  # 分别取出列中数据等于1的0的,分别赋值
negative_eg = data[data['Class'] == 1]
np.random.seed(seed=4)  # 随机种子 
positive_eg = positive_eg.sample(len(negative_eg))   # 使用sample函数取出等长度条数的数据
data_c = pd.concat([positive_eg,negative_eg])   # 使用pandas中的concat合并两个数据集
print(data_c)
# 显示中文
mpl.rcParams['font.sans-serif'] = ['Microsoft YaHei']
mpl.rcParams['axes.unicode_minus'] = Falsefrom sklearn.model_selection import train_test_split
# 删除列Class后的数据赋值给 x,然后再将Class单独取出赋值给y
x = data_c.drop('Class',axis=1)   # 对小数据集分类,特征数据集x以及标签
y = data_c.Classx_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.3,random_state=0)  # 对小数据集进行随机取样,取出30%当做测试集,剩下的70%当做训练集
x_train_bid,x_test_big,y_train_big,y_test_big = train_test_split(x_big,y_big,test_size=0.3,random_state=0)  # 对大数据集(原始数据)进行随机取样,取出30%当做测试集,剩下的70%当做训练集from sklearn.linear_model import LogisticRegression  # 导入逻辑回归模型
from sklearn.model_selection import cross_val_score  # 用来进行k折交叉验证scores = []  # 定义一个空列表,用来存放后面更改正则化强度后的每个C值计算结果对应的score值
c_param_range = [0.01,0.1,1,10,100] # 循环更改的C值for i in c_param_range:lr = LogisticRegression(C=i,penalty='l2',solver='lbfgs',max_iter=1000)  # 建立模型,循环更改其参数score = cross_val_score(lr,x_train,y_train,cv=8,scoring='recall')  # 使用上述模型对数据集进行k折交叉验证score_mean = sum(score)/len(score)    # 计算不同C值对应概率平均值scores.append(score_mean)print(score_mean)best_c = c_param_range[np.argmax(scores)]   # 取出最大概率对应的最优C值lr = LogisticRegression(C=best_c,penalty='l2',max_iter=1000)   # 将最优C值导入模型,正式对其训练
lr.fit(x_train,y_train)   # 倒入训练数据集from sklearn import metrics  # 用来查看分类报告train_predict = lr.predict(x_train)   # 导入测试集进行预测
print(metrics.classification_report(y_train,train_predict))  # 打印分类报告
cm_plot(y_train,train_predict).show()   # 可视化混淆矩阵test_predict = lr.predict(x_test)   # 对测试集进行测试
print(metrics.classification_report(y_test,test_predict))  # 打印分类报告
cm_plot(y_test,test_predict).show()  # 可视化混淆矩阵test_predict_big = lr.predict(x_test_big)   # 对原始数据测试集进行测试
print(metrics.classification_report(y_test_big,test_predict_big))train_predict_big = lr.predict(x_train_bid)  # 对原始数据的训练集进行测试
print(metrics.classification_report(y_train_big,train_predict_big))thresholds = [0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9]  # 修改阈值,设置阈值范围不断迭代来判断概率最大值
recalls = []
for i in thresholds:   y_predict_proba = lr.predict_proba(x_test)  # 打印属于0类和1类的概率y_predict_proba = pd.DataFrame(y_predict_proba)  # 更改数据类型为二维数组y_predict_proba = y_predict_proba.drop([0],axis=1)  # 删除类别0的数据y_predict_proba[y_predict_proba[[1]] > i] = 1  # 判断如果概率大于i,则将其定义为1类y_predict_proba[y_predict_proba[[1]] <= i] =0recall = metrics.recall_score(y_test,y_predict_proba[1])  # 输入测试集标签和测试结果,直接打印需要的召回率recalls.append(recall)print("{}Recall metric in the testing dataset:{:.3f}".format(i,recall))

代码输出结果如下:

1)最初的样本分类情况

2)处理后的数据的混淆矩阵:

3)最终打印输出结果

四、总结:

        下采样是一种处理大批量数据的方法,其目的是减少数据集的规模,从而提高算法的效率和速度,同时保持对数据集的代表性。

总结下采样的步骤如下:

  1. 确定下采样的目标:首先需要明确下采样的目的是为了解决什么问题。例如,如果数据集不平衡,可以采用下采样来平衡正负样本的比例;如果算法运行速度较慢,可以采用下采样来减少计算量。

  2. 选择下采样的方法:常见的下采样方法包括随机下采样、集群下采样和有选择性地下采样。

    • 随机下采样:随机从原始数据集中抽取一定数量的样本,使得抽样后的数据集大小满足要求。这种方法简单快速,但可能会损失一些稀有的样本信息。

    • 集群下采样:使用聚类算法将原始数据集划分为若干个簇,然后从每个簇中选择代表性的样本作为下采样的结果。这种方法可以保留原始数据集中的多样性特征,但计算复杂度较高。

    • 有选择性地下采样:根据具体问题的需求,有选择地保留或删除某些特定的样本。例如,根据样本的分类结果或属性进行选择性地下采样。

  3. 实施下采样:根据选择的下采样方法,对原始数据集进行处理。可以使用编程工具或库来实现下采样的操作,如Python中的numpy、pandas和sklearn等工具。

  4. 检查结果:完成下采样后,需要对结果进行检查,确保下采样后的数据集仍保持了原始数据集的代表性和特征。可以使用数据可视化和统计分析等方法对下采样结果进行评估。

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • git本地仓库同步到远程仓库
  • 黑客入门教程(非常详细)从零基础入门到精通,看完这一篇就够了
  • EasyExcel_通过模板导出(多sheet、列表、图片)
  • Linux ps命令详解
  • 【NI国产替代】NI‑9235四分之一桥应变计,8通道C系列应变/桥输入模块
  • 基于LSTM的交通流量预测算法及Python实现
  • ECMAScript性能优化技巧与陷阱(上)
  • 上门搬家小程序源码开发:打造便捷高效的搬家新体验
  • Triplet Loss解析及示例计算
  • 私域流量与公域流量的主要区别
  • 【游戏】什么是摄影游戏(Photography Games)
  • python-docx 实现 Word 办公自动化
  • 基于网络小说的多维度数据分析与可视化系统
  • 七牛云测试空间过期了,怎么进行迁移?
  • 【Spring Boot】定时任务
  • 实现windows 窗体的自己画,网上摘抄的,学习了
  • ES学习笔记(10)--ES6中的函数和数组补漏
  • extjs4学习之配置
  • in typeof instanceof ===这些运算符有什么作用
  • JavaScript-Array类型
  • JWT究竟是什么呢?
  • rc-form之最单纯情况
  • springMvc学习笔记(2)
  • webpack4 一点通
  • Webpack入门之遇到的那些坑,系列示例Demo
  • 关于 Cirru Editor 存储格式
  • 基于 Ueditor 的现代化编辑器 Neditor 1.5.4 发布
  • 将 Measurements 和 Units 应用到物理学
  • 如何进阶一名有竞争力的程序员?
  • 适配iPhoneX、iPhoneXs、iPhoneXs Max、iPhoneXr 屏幕尺寸及安全区域
  • 听说你叫Java(二)–Servlet请求
  • 微信开源mars源码分析1—上层samples分析
  • 译米田引理
  • Semaphore
  • 翻译 | The Principles of OOD 面向对象设计原则
  • ​queue --- 一个同步的队列类​
  • ​二进制运算符:(与运算)、|(或运算)、~(取反运算)、^(异或运算)、位移运算符​
  • # Swust 12th acm 邀请赛# [ E ] 01 String [题解]
  • #pragam once 和 #ifndef 预编译头
  • #VERDI# 关于如何查看FSM状态机的方法
  • #免费 苹果M系芯片Macbook电脑MacOS使用Bash脚本写入(读写)NTFS硬盘教程
  • #我与Java虚拟机的故事#连载06:收获颇多的经典之作
  • #我与Java虚拟机的故事#连载15:完整阅读的第一本技术书籍
  • (3)选择元素——(14)接触DOM元素(Accessing DOM elements)
  • (30)数组元素和与数字和的绝对差
  • (Matlab)遗传算法优化的BP神经网络实现回归预测
  • (PyTorch)TCN和RNN/LSTM/GRU结合实现时间序列预测
  • (ZT) 理解系统底层的概念是多么重要(by趋势科技邹飞)
  • (六)vue-router+UI组件库
  • (亲测)设​置​m​y​e​c​l​i​p​s​e​打​开​默​认​工​作​空​间...
  • (十二)devops持续集成开发——jenkins的全局工具配置之sonar qube环境安装及配置
  • (十三)MipMap
  • (一)Docker基本介绍
  • (原创)boost.property_tree解析xml的帮助类以及中文解析问题的解决
  • .dat文件写入byte类型数组_用Python从Abaqus导出txt、dat数据