当前位置: 首页 > news >正文

零基础入门转录组数据分析——机器学习算法之xgboost(筛选特征基因)

零基础入门转录组数据分析——机器学习算法之xgboost(筛选特征基因)

目录

  • 零基础入门转录组数据分析——机器学习算法之xgboost(筛选特征基因)
    • 1. xgboost基础知识
    • 2. xgboost(Rstudio)——代码实操
      • 2. 1 数据处理
      • 2. 2 构建boruta模型
      • 2. 3 xgboost结果简单可视化


您首先需要了解本贴是完全免费按实际案例分享基础知识和全部代码,希望能帮助到初学的各位更快入门,但是 尊重创作和知识才会有不断高质量的内容输出 ,如果阅读到最后觉得本贴确实对自己有帮助,希望广大学习者能够花点自己的小钱支持一下作者创作(条件允许的话一杯奶茶钱即可),感谢大家的支持~~~~~~ ^_^ !!!

注:当然这个并不是强制的哦,大家也可以白嫖~~,只是一点点小的期盼!!!

祝大家能够开心学习,轻松学习,在学习的路上少一些坎坷~~~请添加图片描述



1. xgboost基础知识

1.1 xgboost是什么?
XGBoost(eXtreme Gradient Boosting)是一种基于梯度提升(Gradient Boosting)框架的高效、灵活且广泛使用的机器学习算法,通过多次迭代后旨在找到最优预测模型。

1.2 xgboost的算法原理是什么?
XGBoost的核心思想是通过组合多个弱学习器(通常是决策树)来形成一个强学习器。在每一次迭代中,XGBoost都会基于当前模型的预测结果和真实值之间的差异(残差)来训练一个新的弱学习器,然后将这个新的弱学习器加入到已有的模型集合中,以期望能够减少整体的预测误差,从而找到一个最优模型。

1.3 xgboost的优势?

  • 高效性: XGBoost在算法层面进行了多项优化,包括使用高效的树学习算法、支持并行和分布式计算、利用CPU缓存进行加速等,这使得它虽然需要经过多次迭代但是速度相对会很快
  • 准确性: XGBoost通过引入二阶泰勒展开来近似目标函数,并使用正则化项来控制模型的复杂度,从而能够更准确地拟合数据,提高模型的预测精度。
  • 灵活性: XGBoost支持多种类型的损失函数和弱学习器,同时也支持自定义评估函数,这使得它能够适应不同的机器学习任务。
  • 鲁棒性: XGBoost通过加入正则化项和使用贪心算法进行节点分裂,来防止过拟合,提高模型的泛化能力

1.4 xgboost的缺点?
在特征选择的时候只能输出每个特征的重要性,无法自动筛选出关键特征,需要人为选择关键特征,给最终结果添加部分主观性。

1.5 xgboost筛选基因的本质是什么?
XGBoost在训练过程中会自动评估每个特征的重要性(重要性通常基于该特征在构建决策树时对模型性能提升的贡献程度),之后人为的手动筛选关键特征。

举个栗子: 有8个基因构建xgboost模型来预测患病的概率,算法结果会输出每个基因的重要性评分,这样就知道哪些基因对预测结果影响最大,之后就人为选择一些关键基因。

综上所述: xgboost先通过多次迭代达到最优模型,然后输出每个特征的重要性,这时就可以根据重要性排序去获取那些比较重要的特征。



2. xgboost(Rstudio)——代码实操

本项目以TCGA——肺腺癌为例展开分析
物种:人类(Homo sapiens)
R版本:4.2.2
R包:tidyverse,Matrix,xgboost,ggplot2

废话不多说,代码如下:

2. 1 数据处理

设置工作空间:

rm(list = ls()) # 删除工作空间中所有的对象
setwd('/XX/XX/XX') # 设置工作路径
if(!dir.exists('./12_xgboost')){dir.create('./12_xgboost')
} 
setwd('./12_xgboost/') 

加载包:

library(tidyverse)
library(Matrix)
library(xgboost) 
library(ggplot2)

导入要分析的表达矩阵train_data ,并对train_data 的列名进行处理(这是因为在读入的时候系统会默认把样本id中的“-”替换成“.”,所以要给替换回去

train_data <- read.csv("./data_fpkm.csv", row.names = 1, check.names = F)  # 行名为全部基因名,每列为样本名
colnames(train_data) <- gsub('.', '-', colnames(train_data), fixed = T)

train_data 如下图所示,行为基因名(symbol),列为样本名
在这里插入图片描述
导入分组信息表group

group <- read.csv("./data_group.csv", row.names = 1) # 为每个样本的分组信息(tumor和normal)
colnames(group) <- c('sample', 'group')

group 如下图所示,第一列sample为样本名,第二列为样本对应的分组 (分组为二分类变量:disease和control)
在这里插入图片描述
导入要筛选的基因hub_gene (8个基因)

hub_gene <- data.frame(symbol = gene <- c('ADAMTS2', 'ADAMTS4', 'AGRN', 'COL5A1', 'CTSB', 'FMOD', 'LAMB3', 'LAMB4'))
colnames(hub_gene) <- "symbol"

hub_gene 如下图所示,只有一列:8个基因的基因名
在这里插入图片描述
从全部的基因表达矩阵中取出这8个基因对应的表达矩阵,并且与之前准备的分组信息表进行合并

dat <- train_data[rownames(train_data) %in% hub_gene$symbol, ] %>%t() %>%as.data.frame() # 整理后行为样本名,列为基因名
dat$sample <- rownames(dat)
dat <- merge(dat, group, var = "sample")
dat <- column_to_rownames(dat, var = "sample") %>% as.data.frame()table(dat$group)
dat$group <- factor(dat$group, levels = c('disease', 'control'))

dat 如下图所示,行为基因名,前8列为基因对应的表达矩阵,第9列为合并的分组信息表
在这里插入图片描述

2. 2 构建boruta模型

前置准备:将前8列转换成matrix矩阵

# 将trainset的1-8列(自变量)转换为矩阵
traindata1 <- data.matrix(dat[, -9])

traindata1 如下图所示,和dat类似,区别就在于traindata1没有第9列分组信息,并且是个矩阵,不是数据框。
在这里插入图片描述
之后将traindata1转换成稀疏矩阵traindata2,这一步是为了进一步减少内存使用。

# 利用Matrix函数,将sparse参数设置为TRUE,转化为稀疏矩阵
traindata2 <- Matrix(traindata1, sparse = T)

指定dat的最后一列分组信息作为因变量,并转为数值型

# 将因变量转换为numeric类型,-1是为了从0开始计数
train_y <- as.numeric(dat[, 9])-1

将准备好的稀疏矩阵traindata2和因变量train_y打包成一个列表(这么做是为了方便后续用数据构建xgboost模型

# 将自变量和因变量拼接为list
traindata <- list(data = traindata2, label = train_y)

将traindata列表里的表达矩阵traindata2和因变量train_y传入到xgb.DMatrix函数中转换成一个DMatrix对象(这个对象是xgboost算法内部用于存储数据和标签的优化格式,可以提高计算效率

dtrain <- xgb.DMatrix(data = traindata$data, label = traindata$label)

之后就是构建xgboost模型

  • data = dtrain —— 这个参数指定了要训练的数据,传入的应该是个DMatrix对象
  • max_depth = 5 ——这个参数定义了树的最大深度,增加这个值会使模型更加复杂,可以关注到更多细节,但同时也会导致过拟合。
  • eta = 0.3 ——这个参数通常被称为学习率/收缩率。它控制了在每一步中如何更新权重,从而减少每次迭代对模型的影响。较小的eta值就意味着更小的权重更新,可以使模型训练变慢,从而得到更好的结果和更好的泛化能力。
  • objective = ‘binary:logistic’ ——这个参数指定了学习任务的类型和相应的损失函数。binary:logistic表明是一个二分类问题,并且使用的是逻辑回归损失函数。xgboost算法支持很多不同的objective,适用于不同的情况,具体在这里不展开介绍,感兴趣的小伙伴可以自行查询函数帮助。
  • nround = 25 —— 这个参数指定了迭代次数,数值越大迭代次数越多,会使模型变得更复杂,同时也会增加过拟合风险和训练时间。
res.xgb <- xgboost(data = dtrain, max_depth = 5, eta=0.3, objective='binary:logistic', nround = 25)

构建完模型之后此时就可以从模型中提取变量的贡献度了

xgb_importance <- xgb.importance(train_matrix@Dimnames[[2]], model = res.xgb)    ##特征重要度

xgb_importance 如下图所示

  • Feature——这一列就是基因的名称
  • Gain——这一列表示每个特征在模型构建过程中平均增益的贡献,较高的增益值意味着该特征对于提升模型预测性能有更大的作用(重要)
  • Cover——这一列可以理解成平均覆盖度(不需要关注)
  • Frequency——这一列表示每个特征在树的构建过程中被用作分裂节点的频率,简单来说,值越大表明频率越高,也说明该特征在模型中被频繁使用,同样的对模型的预测能力有重要的贡献。(不需要关注)

在这里插入图片描述
接下来从构建好的xgboost模型中提取出最重要的5个基因并输出

## 结果
hub_gene <- xgb_importance[c(1 : 5), ]
hub_gene$Feature <- gsub('.','-',hub_gene$Feature,fixed = T )
write.csv(hub_gene, '01.hub_gene.csv')
write.csv(xgb_importance, '02.xgb_importance.csv')

2. 3 xgboost结果简单可视化

接下来一步就是要对xgboost结果进行简单可视化,毕竟文章里是要放图的,并且图片展现的效果会更好!!!

# xgboost结果简单可视化(ggplot2函数)
ggplot(xgb_importance, aes(x= reorder( Feature,Gain), y=Gain,fill=Feature)) +geom_bar(stat="identity") +theme_classic() +guides(fill=FALSE)+#theme(legend.position = )+scale_fill_manual(values=c("#8DD3C7","#FFFFB3","#BEBADA","#FB8072","#80B1D3","#FDB462","#B3DE69","#FCCDE5","#D9D9D9","#BC80BD","#CCEBC5","#FFED6F","#377EB8","#100EB2","#FDB999"))+coord_flip()+theme_bw()+ggtitle('XGBoost')+theme(plot.title = element_text(size=24,color='black', face = "bold",family='Times'),axis.title.x =element_text(size=18,color='black', face = "bold",family='Times'),axis.text.x =element_text(size=16, color='black', face = "bold",family='Times'),axis.title.y =element_blank(),axis.text.y=element_text(size=16,   color='black',face = "bold",family='Times'),legend.title=element_text(size=20, color='black', face = "bold",family='Times'),legend.text=element_text(size=18, color='black', face = "bold",family='Times'),title=element_text(size=20, color='black', face = "bold",family='Times'),strip.text = element_text(size = 14,family = "Times", face = "bold"))+theme(panel.grid.major=element_blank(),panel.grid.minor=element_blank())+labs(x="gene",y="Gain",fill="")

结果如下图所示横坐标为贡献度(也可以叫成重要性),纵坐标为基因,柱子越高表明该基因越重要。
在这里插入图片描述



结语:

以上就是xgboost算法筛选关键基因的所有过程,如果有什么需要补充或不懂的地方,大家可以私聊我或者在下方评论。

如果觉得本教程对你有所帮助,点赞关注不迷路!!!


  • 目录部分跳转链接:零基础入门生信数据分析——导读

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • 返校季热度持续发酵,赛盈分销浅谈下半年选品趋势!
  • vue3父子组件通信
  • 开源大模型(LLM)震撼来袭:解锁AI语言处理新纪元,引领全球开发者共创未来!
  • 树与二叉树【下】
  • nagle算法作用
  • 采购在供应链管理中有什么作用?8个步骤拆解供应链采购流程!
  • Java工厂模式详解:方法工厂模式与抽象工厂模式
  • 什么是SpringMVC?
  • 【一图学技术】6.反向代理 vs API网关 vs 负载均衡的原理和使用场景
  • IDEA启动springBoot项目,显示构建和正在启动XxxApplication之后无反应
  • 一文带你读懂GPU算力在不同行业的应用!
  • 查找算法:线性查找,golang实现
  • 封装自己的底部弹出框
  • Docker搭建Flink
  • 【爬虫原理】
  • Android开发 - 掌握ConstraintLayout(四)创建基本约束
  • gops —— Go 程序诊断分析工具
  • HTTP 简介
  • input实现文字超出省略号功能
  • JAVA并发编程--1.基础概念
  • Java面向对象及其三大特征
  • JDK 6和JDK 7中的substring()方法
  • Magento 1.x 中文订单打印乱码
  • opencv python Meanshift 和 Camshift
  • React系列之 Redux 架构模式
  • Redash本地开发环境搭建
  • storm drpc实例
  • webgl (原生)基础入门指南【一】
  • WebSocket使用
  • 得到一个数组中任意X个元素的所有组合 即C(n,m)
  • 基于游标的分页接口实现
  • 老板让我十分钟上手nx-admin
  • 前端 CSS : 5# 纯 CSS 实现24小时超市
  • 浅谈JavaScript的面向对象和它的封装、继承、多态
  • 微信小程序设置上一页数据
  • 一份游戏开发学习路线
  • 译有关态射的一切
  • 用 vue 组件自定义 v-model, 实现一个 Tab 组件。
  • 用jQuery怎么做到前后端分离
  • AI又要和人类“对打”,Deepmind宣布《星战Ⅱ》即将开始 ...
  • #Java第九次作业--输入输出流和文件操作
  • $Django python中使用redis, django中使用(封装了),redis开启事务(管道)
  • (13):Silverlight 2 数据与通信之WebRequest
  • (16)UiBot:智能化软件机器人(以头歌抓取课程数据为例)
  • (20)docke容器
  • (vue)el-tabs选中最后一项后更新数据后无法展开
  • (八十八)VFL语言初步 - 实现布局
  • (二)linux使用docker容器运行mysql
  • (附源码)ssm教材管理系统 毕业设计 011229
  • (附源码)ssm考生评分系统 毕业设计 071114
  • (三)模仿学习-Action数据的模仿
  • (学习日记)2024.04.10:UCOSIII第三十八节:事件实验
  • (已解决)什么是vue导航守卫
  • (转)自己动手搭建Nginx+memcache+xdebug+php运行环境绿色版 For windows版
  • (轉貼) 2008 Altera 亞洲創新大賽 台灣學生成果傲視全球 [照片花絮] (SOC) (News)