当前位置: 首页 > news >正文

2022年第三届MathorCup高校数学建模挑战赛——大数据竞赛 赛道B 北京移动用户体验影响因素研究 问题二建模方案及代码实现详解

2022年第三届MathorCup高校数学建模挑战赛——大数据竞赛 赛道B 北京移动用户体验影响因素研究 建模方案及代码实现

在这里插入图片描述

更新进展

2022年12月21日 12:20 发布问题一、二思路及问题一的python代码实现

2022年12月22日 15:00 发布问题二python实现的代码

更新完毕

相关链接

(1)问题一建模方案及代码实现

(2)问题二建模方案及代码实现

1 题目

移动通信技术飞速发展,给人们带来了极大便利,人们也越来越离不开移动通信技术带来的各种便捷。随着网络不断的建设,网络覆盖越来越完善。各个移动运营商,越来越重视客户的网络使用体验,从而进一步提升网络服务质量。 客户满意度是客户对运营商产品服务的满意程度,反映了客户期望与实际感知的产品服务之间的差异。特别是在信息透明、产品同质化的今天, 客户满意度的表现成为各大运营商市场运营状况的重要体现。数字经济时代,各大运营商需要运用数字经济的管理理念和技术手段,建立客户体验生态的全方位系统性测评体系,实现客户满意度评测的数字化转型,让客户体验赋能商业决策,让商业决策真正服务客户,共同推动移动网络高质量可持续发展。 根据客户投诉,对影响用户体验的问题逐点解决,是传统提升客户满意度的方法。但是随着用户数量的大幅增加,移动产品的种类越来越丰富, 客户的需求越来越高,传统的方法已经难以有效提升客户的满意度。本研究拟通过分析影响用户满意度的各种因素,为决策提供依据,从而实现更早、更全面提升用户满意度。 中国移动通信集团北京公司,让客户根据自身在网络覆盖与信号强度、语音通话清晰度和语音通话稳定性三个方面的体验进行打分,同时还让客户根据语音通话的整体体验进行语音通话整体满意度的打分,并统计整理影响客户语音业务体验的因素,希望以此来分析客户语音业务满意度的主要影响因素,并提升客户语音业务满意度。同时,对于上网数据业务,中国移动北京公司让客户根据自身在网络覆盖与信号强度、手机上网速度、手机上网稳定性三个方面的体验进行打分,同时还让客户根据手机上网的整体体验进行手机上网整体满意度的打分,并统计整理影响客户上网体验的因素,希望以此可以分析影响客户上网业务体验的主要因素,并提升客户的上网体验。

初赛问题 基于以上背景,请你们的团队根据附件给出的数据,通过数据分析与建模的方法帮助中国移动北京公司解决以下问题:

问题 1:根据附件 1 和附件 2,分别研究影响客户语音业务和上网业务满意度的主要因素,并给出各因素对客户打分影响程度的量化分析和结果。附件 1、2 中各字段的解释说明见附件 5。

问题 2:结合问题 1 的分析,对于客户语音业务和上网业务分别建立客户打分基于相关影响因素的数学模型,并据此对附件 3、4 中的客户打分

进行预测研究,将预测结果分别填写在result.xlsx 的Sheet1“语音”和Sheet2“上网”两个工作表中,并上传到竞赛平台,说明你们预测的合理性。

附件

附件 1 语音业务用户满意度数据 附件 2 上网业务用户满意度数据 附件 3 语音业务用户满意度预测数据 附件 4 上网业务用户满意度预测数据附件 5 附件 1、2、3、4 的字段说明result.xlsx

2 思路分析

2.1 问题一

这是相关性分析问题,分别对附件1和附件2计算所有因素与语音通话整体满意度和手机上网整体满意度的相关性。首先对数据集进行数据预处理和数据可视化分析,具体的分析过程看以下 部分python代码实现。查看异常值,去除异常值,查看数据分布,对分布进行抓换等处理。预处理完毕后,采用的相关性分析方法有

  • Pearson相关

Pearson相关用于评估两个连续变量之间的线性关联强度。这种统计方法本身不区分自变量和因变量,但如果您根据研究背景已经对变量进行了区分,我们仍可以采用该方法判断相关性。

  • Spearman相关

Spearman相关又称Spearman秩相关,用于检验至少有一个有序分类变量的关联强度和方向。

  • Kendall’s tau-b相关系数

Kendall’s tau-b 相关系数是用于检验至少有一个有序分类变量关联强度和方向的非参数分析方法。该检验与Spearman相关的应用范围基本一致,但更适用于存在多种关联的数据(如列联表)。

  • 卡方检验

卡方检验常用于分析无序分类变量之间的相关性,也可以用于分析二分类变量之间的关系。但是该检验只能分析相关的统计学意义,不能反映关联强度。因此,我们常联合Cramer’s V检验提示关联强度。

  • Fisher精确检验

Fisher精确检验可以用于检验任何RC数据之间的相关关系,但最常用于分析22数据,即两个二分类变量之间的相关性。与卡方检验只能拟合近似分布不同的是,Fisher精确检验可以分析精确分布,更适合分析小样本数据。但是该检验与卡方检验一样,只能分析相关的统计学意义,不能反映关联强度。

2.2 问题二

这是一个多分类问题,1-10的评分,10分类问题。简单的机器学习问题。首先数据预处理,包括缺失值处理、异常值处理、类别特征编码,label 采用onehot编码或者数值编码。接下来是特征工程,特征工程的方法有,特征筛选、特征降维、特征交叉、特征标准化或归一化等等。接下来选择常用的机器学习分类模型

  • 1.KNN
  • 2.感知机
  • 3.朴素贝叶斯法
  • 4.决策树
  • 5.逻辑斯谛回归模型*
  • 6.SVM
  • 7.AdaBoost
  • 8.随机森林
  • 9.XGB
  • 10.LGB

XGB、LGB一般效果更好。此比赛时间充足,可以多对比几种模型,看实验效果。此外还可以采用神经网络分类模型,耗时较长,效果更佳。

3 问题二python代码实现

3.1 读取数据

import datetime
import numpy as np
import pandas as pd
import numpy as np
from tqdm import tqdm
tqdm.pandas()

file1 = pd.read_excel('./data/附件1语音业务用户满意度数据.xlsx')
clear_file1=file1[(file1['语音通话整体满意度']<=10) & (file1['语音通话整体满意度']>=1)]
label = clear_file1['语音通话整体满意度']

3.2 数据预处理

用户描述,用户描述.1,重定向次数,重定向驻留时长 ,是否关怀用户,是否去过营业厅列,这些列缺失值太多,直接删除。

clear_file1_1 = clear_file1.drop(columns=['语音通话整体满意度','用户描述','用户描述.1','重定向次数','重定向驻留时长','是否关怀用户','是否去过营业厅'])
clear_file1_1 

在这里插入图片描述

异常值填充,类别特征,用众数填充,数值特征,用平均值填充

是否4G网络客户(本地剔除物联网),终端品牌,终端品牌类型,外省流量占比,是否5G网络客户,是否实名登记用户,客户星级标识,当月欠费金额,前第3个月欠费金额

for s in ['是否4G网络客户(本地剔除物联网)','终端品牌','终端品牌类型','外省流量占比','是否5G网络客户','是否实名登记用户','客户星级标识','当月欠费金额','前第3个月欠费金额']:
    if clear_file1_1[s].dtype==object:
        fill_none = clear_file1_1[s].value_counts().index[0]
    else:
        fill_none = np.mean(clear_file1_1[s])
    clear_file1_1[s] = clear_file1_1[s].fillna(fill_none)
clear_file1_1.isnull().any()

在这里插入图片描述

3.3 特征工程

3.3.1 特征交叉

统计类别特征和数值特征


cross_cat = []
cross_num = []
for s in clear_file1_1.columns:
    if clear_file1_1[s].dtype==object or clear_file1_1[s].dtype==int:
        cross_cat.append(s)
    else:
        cross_num.append(s)
 cross_cat

在这里插入图片描述

将类别特征编码

clear_file1_2 = clear_file1_1.copy()
for s in clear_file1_2.columns:
    if clear_file1_2[s].dtype==object:
        class_mapping = {label:idx+1 for idx,label in enumerate(set(clear_file1_2[s]))}
        clear_file1_2[s] = clear_file1_2[s].map(class_mapping)

定义交叉特征统计

def cross_cat_num(df, num_col, cat_col):
    for f1 in tqdm(cat_col):
        g = df.groupby(f1, as_index=False)
        for f2 in tqdm(num_col):
            。。。略
            df = df.merge(feat, on=f1, how='left')
    return(df)
data = cross_cat_num(clear_file1_2, cross_num, cross_cat)  # 一阶交叉
data.shape

3.3.2 特征降维

步骤一:根据与满意度打分的相关性,筛选性相关性高的特征

tmp_train = data.copy()
tmp_train['语音通话整体满意度'] = label
col_list = tmp_train.columns.tolist()
mcorr = tmp_train[col_list].corr().abs()
tt = mcorr['语音通话整体满意度'] > 0.2
new_col = list(tt[tt == True].index)
new_col.remove('语音通话整体满意度')


clear_dataset_df1 = data[new_col].copy()
clear_dataset_df1['语音通话整体满意度'] = label
clear_dataset_df1.to_csv('data/clear_file1.csv',index=False)
len(new_col)

将清洗后的数据集存储起来

clear_dataset_df1 = data[new_col].copy()
clear_dataset_df1['label'] = label
clear_dataset_df1.to_csv('data/clear_file1.csv',index=False)

3.4 模型训练

划分训练集和测试集


from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split

df = pd.read_csv('data/clear_file1.csv')
Y = df['label']
X = df.drop(columns=['label'])


X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.3, random_state=42)
scaler = StandardScaler()
train_X = scaler.fit_transform(X_train)
test_X = scaler.transform(X_test)

XGB分类模型

import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.metrics import accuracy_score
import xgboost as xgb
from xgboost import plot_importance
from sklearn import metrics
import warnings
warnings.filterwarnings("ignore")

model = xgb.XGBClassifier(learning_rate=0.01,
                      n_estimators=10,           # 树的个数-10棵树建立xgboost
                      max_depth=4,               # 树的深度
                      min_child_weight = 1,      # 叶子节点最小权重
                      gamma=0.,                  # 惩罚项中叶子结点个数前的参数
                      subsample=1,               # 所有样本建立决策树
                      colsample_btree=1,         # 所有特征建立决策树
                      scale_pos_weight=1,        # 解决样本个数不平衡的问题
                      random_state=27,           # 随机数
                      slient = 0
                      )
model.fit(train_X,y_train)
y_pred = model.predict(test_X)
print("Accuracy : %.4g"%accuracy_score(y_test, y_pred)) 

输出:Accuracy : 0.7724

预测附件3,并存储为csv文件

test_df = pd.read_csv('data/clear_file3.csv')
y_pred = model.predict(test_df)
pd.DataFrame(y_pred).to_csv('result_1.csv',index=False)

同理,对附件2和附件4进行处理,附件4预测结果存储为result_2.csv,最后合并两个csv为result.xlsx。

对附件2 的代码在下载内容中,不再在文章中展示。

在这里插入图片描述

4 两问代码及图片下载

# https://www.betterbench.top/#/17/detail

相关文章:

  • 测试人不得不知的 HTTP 状态码知识
  • 【十分钟学懂Linux操作系统】
  • 【Java基础知识复盘】Java概述篇
  • Stm32标准库函数6——f103 PWM 电调(50Hz)
  • 不喜欢现在的工作,如何成功转行?
  • 腾讯天美Java程序员月均20万!掌握这个后,也太香了....
  • 网络ping不通,试试这8招
  • 密码改造技术路径大比拼--“免”改造太理想,“重”改造太复杂,“易”改造是王道
  • Docker镜像的原理
  • APS排产帮助面板制造厂商进行计划调整
  • 口罩后,那些被“优化”的程序员都去哪儿了?
  • 为什么你的程序跑不满CPU?——简单聊聊多核多线程
  • 使用windows系统给C盘分盘
  • 外包四年太差劲,幡然醒悟要跳槽
  • 合并字符串-指针
  • (十五)java多线程之并发集合ArrayBlockingQueue
  • 【个人向】《HTTP图解》阅后小结
  • 【划重点】MySQL技术内幕:InnoDB存储引擎
  • 【前端学习】-粗谈选择器
  • Docker下部署自己的LNMP工作环境
  • Eureka 2.0 开源流产,真的对你影响很大吗?
  • gulp 教程
  • happypack两次报错的问题
  • JavaScript 无符号位移运算符 三个大于号 的使用方法
  • Linux gpio口使用方法
  • node学习系列之简单文件上传
  • VuePress 静态网站生成
  • 爱情 北京女病人
  • 程序员该如何有效的找工作?
  • 工程优化暨babel升级小记
  • 缓存与缓冲
  • 解决iview多表头动态更改列元素发生的错误
  • 买一台 iPhone X,还是创建一家未来的独角兽?
  • 排序算法之--选择排序
  • FaaS 的简单实践
  • ( )的作用是将计算机中的信息传送给用户,计算机应用基础 吉大15春学期《计算机应用基础》在线作业二及答案...
  • (2022 CVPR) Unbiased Teacher v2
  • (cljs/run-at (JSVM. :browser) 搭建刚好可用的开发环境!)
  • (C语言)深入理解指针2之野指针与传值与传址与assert断言
  • (NO.00004)iOS实现打砖块游戏(九):游戏中小球与反弹棒的碰撞
  • (二)七种元启发算法(DBO、LO、SWO、COA、LSO、KOA、GRO)求解无人机路径规划MATLAB
  • (收藏)Git和Repo扫盲——如何取得Android源代码
  • (续)使用Django搭建一个完整的项目(Centos7+Nginx)
  • (学习日记)2024.01.09
  • (转)3D模板阴影原理
  • (转)利用ant在Mac 下自动化打包签名Android程序
  • (转载)Google Chrome调试JS
  • .h头文件 .lib动态链接库文件 .dll 动态链接库
  • .L0CK3D来袭:如何保护您的数据免受致命攻击
  • .NET BackgroundWorker
  • .NET中 MVC 工厂模式浅析
  • @GetMapping和@RequestMapping的区别
  • @基于大模型的旅游路线推荐方案
  • [.net]官方水晶报表的使用以演示下载
  • [Android] Amazon 的 android 音视频开发文档