📅  最后修改于: 2023-12-03 15:04:59.104000             🧑  作者: Mango
交叉验证是机器学习模型选择和调参中最常用的评估方法之一。它通过将数据集划分成多个互相重叠的子集,来评估模型的性能和泛化能力。在R编程中,我们可以通过多种包(如caret, mlr)实现交叉验证。
简单交叉验证是最基本的交叉验证方法,它将整个数据集只划分为两个部分:训练集和测试集。其中训练集用于训练模型,测试集用于评估模型的性能。以下是在R中实现简单交叉验证的示例:
# 读取数据集
data <- read.csv("data.csv")
# 随机划分数据集为训练集(70%)和测试集(30%)
set.seed(123)
train_index <- sample(nrow(data), nrow(data)*0.7, replace = F)
trainset <- data[train_index, ]
testset <- data[-train_index, ]
# 训练模型并预测测试集数据
model <- glm(Species ~ ., data = trainset, family = binomial)
predictions <- predict(model, newdata = testset, type = "response")
# 计算模型的性能
library(caret)
confusionMatrix(predictions, testset$Species)
其中,confusionMatrix
函数可以计算混淆矩阵和各种性能度量(如准确率、召回率、F1值等)。
K折交叉验证是一种更为稳健的交叉验证方法。它将数据集划分为K个互相重叠的子集,每次将其中一个子集作为测试集,剩下的K-1个子集作为训练集。这样,我们可以得到K次测试结果,最终将它们汇总起来得到模型的平均性能表现。以下是在R中实现K折交叉验证的示例:
# 读取数据集
data <- read.csv("data.csv")
# 进行10折交叉验证
library(caret)
set.seed(123)
folds <- createFolds(data$Species, k = 10)
for(i in 1:length(folds)){
# 每次取其中一份作为测试集,其他的作为训练集
trainset <- data[-folds[[i]], ]
testset <- data[folds[[i]], ]
# 训练模型并预测测试集数据
model <- glm(Species ~ ., data = trainset, family = binomial)
predictions <- predict(model, newdata = testset, type = "response")
# 计算模型的性能
cm <- confusionMatrix(predictions, testset$Species)
print(cm$overall["Accuracy"])
}
其中,createFolds
函数可以实现数据集的划分,把数据集分成K个互相重叠子集,并返回每个子集的索引。
Leave-One-Out交叉验证是k折交叉验证的一种特例,即K等于数据集大小。它是一种最为严格的交叉验证方法,它保证所有的样本都用来做了一次测试。以下是在R中实现Leave-One-Out交叉验证的示例:
# 读取数据集
data <- read.csv("data.csv")
# 进行Leave-One-Out交叉验证
library(caret)
set.seed(123)
folds <- createDataPartition(data$Species, p = 0.5, list = FALSE)
for(i in 1:length(folds)){
# 每次去掉一个样本作为测试集,其他的作为训练集
trainset <- data[-folds[i], ]
testset <- data[folds[i], ]
# 训练模型并预测测试集数据
model <- glm(Species ~ ., data = trainset, family = binomial)
predictions <- predict(model, newdata = testset, type = "response")
# 计算模型的性能
cm <- confusionMatrix(predictions, testset$Species)
print(cm$overall["Accuracy"])
}
其中,createDataPartition
函数可以创建留一份的索引,保证每个样本只被用作一次测试。