模型数据(模型数据变量函数代码)「模型 数据」

预测模型在各个领域都越来越火,今天的分享和之前的临床预测模型背景上有些不同,但方法思路上都是一样的,多了解各个领域的方法应用,视野才不会被局限
今天试图再用一个实例给到大家一个统一的预测模型的做法框架(R中同样的操作可以有多种多样的实现方法,框架统一尤其重要,不是简单的我做出来就行)
而是要:
eliminate syntactical differences between many of the functions for building and predicting models数据划分通常我们的数据是有限的,所以首先第一步就是决定如何使用我们的数据,就这一步来讲都有很多流派
数据比较少的情况下,一般还是将全部数据都拿来做训练,尽可能使得模型的代表性强一点,但是随之而来的问题就是没有样本外验证
上文写机器学习的时候提到,样本外验证是模型评估的重要一步,所以一般还是会划分数据
个人意见:好多同学就200多个数据,就别去划分数据集了,全用吧,保证下模型效度
我现在手上有数据如下:这是一个有4335个观测1579个变量的数据集,我现在要对其切分为训练集和测试集,代码如下:inTrain <- createDataPartition(mutagen, p = 3/4, list = FALSE)trainDescr <- descr[inTrain,]testDescr <- descr[-inTrain,]trainClass <- mutagen[inTrain]testClass <- mutagen[-inTrain]代码的重点在createDataPartition,这个函数的p参数指的是训练集的比例,此处意味着75%的数据用来训练模型,剩下的25%的数据用来验证
使用这个函数的时候要注意一定是用结局作为划分的依据,比如说我现在做一个死亡预测模型,一定要在生存状态这个变量上进行划分,比如原来数据中死亡与否的占比是7:3,这样我们能保证划分出的训练集死亡与否的占比依然是7:3
数据划分中会有两个常见的问题:一是zero-variance predictor的问题,二是multicollinearity的问题
第一个问题指的是很多的变量只有一个取值,不提供信息,比如变量A可以取y和n,y占90%n占10%,划分数据后训练集中有可能全是y,此时这个变量就没法用了
为了避免这个问题我们首先应该排除数据集中本身就是单一取值的变量,还有哪些本身比例失衡的变量,可以用到nearZeroVar函数找后进行删除
第二个问题是共线性,解决方法一个是取主成分降维后重新跑,另一个是做相关,相关系数大于某个界值后删掉,可以用到findCorrelation函数
下面的代码就实现了去除zero-variance predictor和相关系数大于0.9的变量:isZV <- apply(trainDescr, 2, function(u) length(unique(u)) == 1)trainDescr <- trainDescr[, !isZV]testDescr <- testDescr[, !isZV]descrCorr <- cor(trainDescr)highCorr <- findCorrelation(descrCorr, 0.90)trainDescr <- trainDescr[, -highCorr]testDescr <- testDescr[, -highCorr]ncol(trainDescr)运行上面的代码之后我们的预测因子就从1575个降低到了640个
接下来对于模型特定的预测算法,比如partial least squares, neural networks and support vector machines,都是需要我们将数值型变量中心化或标准化的,这个时候我们需要对数据进行预处理,需要用到preProcess函数,具体代码如下:xTrans <- preProcess(trainDescr)trainDescr <- predict(xTrans, trainDescr)testDescr <- predict(xTrans, testDescr)在preProcess函数中,可以通过method参数很方便地对训练数据进行插补,中心化,标准化或者取主成分等等操作,我愿称其为最强数据预处理函数
建模与调参建模是用train函数进行的,caret提供的预测模型建立的统一框架的精髓也在train函数中,我们想要用各种各样的机器学习算法去做预测模型,就只需要在train中改动method参数即可,并且我们能用的算法也非常多,列举部分如下:另外一个值得注意的参数就是trControl,这个参数可以用来设定交叉验证的方法:
trControl which specifies the resampling scheme, that is, how cross-validation should be performed to find the best values of the tuning parameters比如我现在需要训练一个logistics模型(大家用的最多的),我就可以写出如下代码:default_glm_mod = train( form = default ~ ., data = default_trn, trControl = trainControl(method = "cv", number = 5), method = "glm", family = "binomial")在上面的代码中,我们设定了4个重要的参数:一是模型公式form,二是数据来源data,三是交叉验证方法,这儿我们使用的是5折交叉验证,四是模型算法method
我现在要训练一个支持向量机模型,代码如下:bootControl <- trainControl(number = 200)svmFit <- train( trainDescr, trainClass, method = "svmRadial", trControl = bootControl, scaled = FALSE)上面的代码运行需要一点时间,我们是用自助抽样法,抽样迭代次数200次,也就是抽200个数据集,所以比较耗时
支持向量机是有两个超参的sigma和C,上面的结果输出中每一行代表一种超参组合,通过上图我们可以看到不同的超参组合下模型的表现其中有一致性系数Kappa,如果我们的结局是十分不平衡的,这个Kappa就会是特别重要的评估模型表现的一个指标
Kappa is an excellent performance measure when the classes are highly unbalanced我们发现超参取0.00137和2,模型会表现得更好,这个也成为我们的finalmodel
预测新样本模型目前已经训练好了,我们可以用训练好的最好的模型finalmodel来预测我们的测试集,进而评估模型表现
预测新样本的代码如下:predict(svmFit$finalModel, newdata = testDescr)有时候我们会训练不同算法的多个模型,比如一个支持向量机模型,另外一个gbm模型,这个时候使用predict也可以方便的得到多个算法的预测结果,只需要将模型放在一个list中即可
另外还有extractProb和extractPrediction两个函数,extractPrediction可以很方便地从预测模型中提出预测值,extractProb可以提出预测概率
评估模型表现对于分类问题,我们可以用confusionMatrix很方便地得到下面的模型评估指标:还有要报告的ROC曲线:svmROC <- roc(svmProb$mutagen, svmProb$obs)aucRoc则可以帮助我们快速地得到曲线下面积
对于回归问题,评估模型表现的时候就没有所谓的accuracy and the Kappa statistic了,我们关心R2,plotObsVsPred可以方便地画出实际值和预测值的走势,关心rmse和mae,calc_rmse函数可以帮助计算rmse,get_best_result函数可以输出R方等指标
预测因子选择预测因子的重要性作图,有时候我们的数据变量很多,或者叫维度很多,从而导致维度灾难,好多的预测因子其实并不能给模型提供信息,预测因子的选择则是要在尽量使得模型精简的情况下不损害模型的表现
varImp可以帮助我们查看各个预测因子对模型的贡献重要性,并且这个重要性是以得分的形式给出的,分怎么计算的,我也不知道
获得各个预测因子重要性得分的代码如下:varImp(gbmFit, scale = FALSE)更直观的我们将该对象plot下,就可以得到预测因子重要性的面条图如下:上面的图中只列出了重要性前20的变量,我们其实是有655个变量的,但是有200多个的重要性得分均为0,所以跑模型的时候其实是可以完全不要它们的
小结今天给大家简单介绍了在caret中做预测模型的一些知识,感谢大家耐心看完,自己的文章都写的很细,重要代码都在原文中,希望大家都可以自己做一做,请转发本文到朋友圈后私信回复“数据链接”获取所有数据和本人收集的学习资料
如果对您有用请先记得收藏,再点赞分享
也欢迎大家的意见和建议,大家想了解什么统计方法都可以在文章下留言,说不定我看见了就会给你写教程哦,有疑问欢迎私信,有合作意向请直接滴滴我
如果你是一个大学本科生或研究生,如果你正在因为你的统计作业、数据分析、模型构建,科研统计设计等发愁,如果你在使用SPSS, R,Mplus中遇到任何问题,都可以联系我
因为我可以给您提供最好的,最详细和耐心的数据分析服务
如果你对Z检验,t检验,方差分析,多元方差分析,回归,卡方检验,相关,多水平模型,结构方程模型,中介调节,量表信效度等等统计技巧有任何问题,请私信我,获取详细和耐心的指导
如果你或你的团队需要专业的科研数据清洗,建模服务,教学培训需求等等
请联系我
If you are a student and you are worried about you statistical #Assignments, #Data #Analysis, #Thesis, #Reports, #Composing, #Quizzes, Exams.. And if you are facing problem in #SPSS, #R-Programming, #Excel, Mplus, then contact me. Because I could provide you the best services for your Data Analysis.Are you confused with statistical Techniques like z-test, t-test, ANOVA, MANOVA, Regression, Logistic Regression, Chi-Square, Correlation, Association, SEM, multilevel model, mediation and moderation etc. for your Data Analysis...??Then Contact Me. I will solve your Problem...往期精彩R数据分析:如何做数据的非线性关系,多项式回归的做法和解释 R数据分析:跟随top期刊手把手教你做一个临床预测模型 Mplus数据分析:性别差异gendergap的相关研究如何做? R数据分析:50人中至少两人相同生日的概率有多大?模拟给你看 R数据分析:PLS结构方程模型介绍,论文报告方法和实际操作 R数据分析:变量间的非线性关系,多项式,样条回归和可加模型 R机器学习:分类算法之logistics回归分类器的原理和实现 R数据分析:结合APA格式作图大法讲讲ggplot2和ggsci,请收藏 R数据分析:Lasso回归筛选变量构建Cox模型并绘制列线图 R数据分析:嵌套数据分析为什么要用加随机效应?终于解释清楚了 R数据分析:cox模型如何做预测,高分文章复现 R数据分析:临床预测模型中校准曲线和DCA曲线的意义与做法 R数据分析:临床预测模型实操,校准曲线和DCA曲线做法示例 R数据分析:双连续变量交互作用的简单斜率图作图及解释 R数据分析:如何简洁高效地展示统计结果 R数据分析:生存分析与有竞争事件的生存分析的做法和解释 R数据分析:广义估计方程式GEE的做法和解释 R可视化:plot函数基础操作,小白教程
模型数据(模型数据变量函数代码)
(图片来源网络,侵删)

联系我们

在线咨询:点击这里给我发消息