📅  最后修改于: 2023-12-03 15:23:46.846000             🧑  作者: Mango
线性回归是一种经典的机器学习算法,它用于建立依赖一个或多个自变量的因变量的线性函数模型。在R语言中,我们可以通过lm()
函数来实现线性回归模型,下面是一个简单的例子:
# 创建一个数据框
data <- data.frame(
x = c(1, 2, 3, 4, 5),
y = c(3, 5, 7, 9, 11)
)
# 创建线性回归模型
model <- lm(y ~ x, data = data)
# 查看模型摘要
summary(model)
执行上述代码我们可以得到如下结果:
Call:
lm(formula = y ~ x, data = data)
Residuals:
1 2 3 4 5
-0.00000 -0.00000 -0.00000 0.00000 0.00000
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 1.0000 0.0000 Inf < 2e-16 ***
x 2.0000 0.0000 Inf < 2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 2.663e-16 on 3 degrees of freedom
Multiple R-squared: 1, Adjusted R-squared: 1
F-statistic: Inf on 1 and 3 DF, p-value: < 2.2e-16
在上面的结果中,我们可以看到截距(intercept)对应的系数为1,即线性回归方程的截距。
在R语言中,我们可以通过coef()
函数来提取线性回归模型的系数,其中第一个元素是截距的系数。例如,我们可以通过以下代码来提取上述模型的截距:
# 提取截距
intercept <- coef(model)[1]
执行上述代码之后,我们可以得到该线性回归模型的截距,拟合出的截距为1.0。
在R语言中,我们可以通过lm()
函数来拟合线性回归模型,通过coef()
函数可以提取线性回归模型的系数,其中第一个元素为截距系数,即线性回归方程的截距。