毫升 |为什么分类中的逻辑回归?
使用线性回归,所有预测> = 0.5可以被认为是1,其余所有< 0.5都可以被认为是0。但是问题来了,为什么不能使用它进行分类?
问题 -
假设我们将邮件分类为垃圾邮件或非垃圾邮件,我们的输出是y ,它可以是 0(垃圾邮件)或 1(非垃圾邮件)。在线性回归的情况下,h θ (x) 可以 > 1 或 < 0。虽然我们的预测应该在 0 和 1 之间,但模型将预测值超出范围,即可能 > 1 或 < 0。
所以,这就是为什么对于分类任务,Logistic/Sigmoid 回归发挥其作用。
在这里,我们将θ T x插入逻辑函数,其中 θ 是权重/参数, x是输入, h θ (x)是假设函数。 g()是 sigmoid函数。
这意味着当 x 参数化为 θ时 y = 1 概率
为了获得用于分类的离散值 0 或 1,定义了离散边界。假设函数cab 可以翻译为
决策边界是区分 y=0 和 y=1 的区域的线。这些决策边界由所考虑的假设函数产生。
用一个例子来理解决策边界——
让我们的假设函数为
然后决策边界看起来像
让权重或参数为 -
因此,它预测 y = 1 如果
这就是半径= 1,原点为圆心的圆的方程。这是我们定义的假设的决策边界。