博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
学习Logistic Regression的笔记与理解(转)
阅读量:5331 次
发布时间:2019-06-14

本文共 1048 字,大约阅读时间需要 3 分钟。

学习Logistic Regression的笔记与理解

1.首先从结果往前来看下how logistic regression make predictions。

设我们某个测试数据为X(x0,x1,x2···xn),Θ(θ0,θ1,θ2,···θn)为我们的学习算法所学到的参数,那么

写成向量的话就变成

Z就是我们得到的结果,但是logistic regression只能处理二值数据,这个Z是一个连续值,它的范围可以很广。为了把这个Z化为二值变量,引人Sigmoid函数

这个函数的图形如下所示,将算得的Z代入上式即可得到一个接近1或者0的值,我们把g(Z)函数得出的值>=0.5的判断为1。

所以最终构造出的预测函数为

这个函数也可以用下式表示,即在给定测试数据X和训练算法所得的系数Θ的条件下,该测试数据位positive(y=1)的概率。

当然相对的,下式为该测试数据位negative(y=0)的概率。

学习Logistic <wbr>Regression的笔记与理解

 

2.训练算法(得到参数Θ)

2.1首先通过一个例子来看下Cost函数:有一组数据(X,Y),其中X是属性,Y是类别属性(连续)。其图像如图1所示,训练算法要得到一个评估函数入图2的绿色直线所示来预测未来的测试数据。

很明显只要使训练数据离该直线的距离最短即可,即图3中的黑色直线之和最短。用数学公式来表示的话就是

其中

所以我们的训练算法就是要找合适的θ0,θ1来使下式最小

上式就称为cost函数,当然cost函数可以有很多种,这个cost函数只是适用于这种情况。

 

2.2而logistic regression使用的cost函数为

   接下来问题就变成了如何求J(Θ)的最小值。求这个J(Θ)可以采用梯度下降法,以有两个参数θ1,θ2为例(多维的也类似),图中的圈代表J(Θ)的值(类似于地理上的等高线)

每次向该点处梯度方向移动α的距离,这样就能在多次计算后就能得到其最小值。迭代的终止条件可以设为达到某个指定的迭代次数或算法达到某个允许的误差范围。用数学公式来表示这个迭代过程就是:

其中表示对每个θj分别求偏导:

       

由上面的化简可得Θ的更新过程如下:

由这个公式迭代多次最终得到所需参数,完成logistic regression算法的训练过程。

 

来源:http://blog.sina.com.cn/s/blog_64ecfc2f0101ranp.html

转载于:https://www.cnblogs.com/tibetanmastiff/p/4536820.html

你可能感兴趣的文章
使用vue的v-model自定义 checkbox组件
查看>>
[工具] Sublime Text 使用指南
查看>>
Hangfire在ASP.NET CORE中的简单实现方法
查看>>
Algorithm——何为算法?
查看>>
Web服务器的原理
查看>>
小强升职计读书笔记
查看>>
常用的107条Javascript
查看>>
#10015 灯泡(无向图连通性+二分)
查看>>
elasticsearch 集群
查看>>
忘记root密码,怎么办
查看>>
linux设备驱动归纳总结(三):1.字符型设备之设备申请【转】
查看>>
《黑客与画家》 读书笔记
查看>>
bzoj4407: 于神之怒加强版
查看>>
mysql统计一张表中条目个数的方法
查看>>
ArcGIS多面体(multipatch)解析——引
查看>>
css3渐变画斜线 demo
查看>>
JS性能DOM优化
查看>>
设计模式 单例模式 使用模板及智能指针
查看>>
c#的const可以用于引用类型吗
查看>>
手动实现二值化
查看>>