吴恩达机器学习逻辑回归的代价函数06

源代码
• 阅读 677

1.回顾线性回归的平方误差代价函数

代价函数,它可以测量出一组特定参数与训练数据的吻合程度,从而为我们提供了一种更好参数的方法,在本节课中,我们会看到平方误差代价函数并不是逻辑回归的理想代价函数。
下面我们来看一个不同的成本函数,它可以逻辑回归选择更好的参数

训练集
吴恩达机器学习逻辑回归的代价函数06
平方误差代价函数
由下图可知,逻辑回归的平方误差代价函数是非凸代价函数,不是凸的,这意味着,如果使用梯度下降法,因为有很多局部最小值,很容易卡在这些地方,事实证明,对于逻辑回归,平方误差代价函数并不是一个好选择。
这里有一个可以使得代价函数再次凸化的代价函数,保证梯度下降可以收敛到全局最小值。唯一的改变就是把1/2放在了求和里面,而不是外面,仔细观察这个求和的式子,我们把这个项叫做单个训练例子的损失,用大写的L表示损失函数,它是关于f(x)和真实标签y的函数,在这个例子中损失(给了f(x)和y)等于平方差的一半
吴恩达机器学习逻辑回归的代价函数06

2.逻辑损失函数

·逻辑回归使用的损失函数更适合于目标为0或1而不是任何数字的分类任务。

注:在本课程中,使用以下定义:
Loss(损耗)是衡量单个示例与目标值之间的差异,而
Cost(成本)是对训练集损失的度量

吴恩达机器学习逻辑回归的代价函数06
吴恩达机器学习逻辑回归的代价函数06

这是定义:

·吴恩达机器学习逻辑回归的代价函数06为单个数据点的代价,为:
吴恩达机器学习逻辑回归的代价函数06
·吴恩达机器学习逻辑回归的代价函数06为模型的预测值,吴恩达机器学习逻辑回归的代价函数06为目标值。
·吴恩达机器学习逻辑回归的代价函数06其中函数𝑔是sigmoid函数。

这个损失函数的决定性特征是它使用两条独立的曲线。一个用于目标为0或(𝑦=0)时,另一个用于目标为1时(𝑦=1)。结合起来,这些曲线提供了对损失函数有用的行为,即当预测与目标匹配时为零,当预测与目标不同时值迅速增加。考虑下面的曲线:

综合起来,这两条曲线类似于误差损失平方的二次曲线。注意,x轴是𝑓𝐰,𝑏是sigmoid的输出。sigmoid输出严格在0和1之间。


上面的损失函数可以重写以更容易实现。
吴恩达机器学习逻辑回归的代价函数06
这是一个看起来相当可怕的方程。当您考虑吴恩达机器学习逻辑回归的代价函数06只能有两个值,即0和1时,就不那么令人畏惧了。我们可以将这个方程分为两部分:当吴恩达机器学习逻辑回归的代价函数06=0时,左项被消去:
吴恩达机器学习逻辑回归的代价函数06
吴恩达机器学习逻辑回归的代价函数06=1时,右项消去:
吴恩达机器学习逻辑回归的代价函数06
好的,有了这个新的逻辑损失函数,就可以产生一个成本函数它包含了所有例子中的损失。这将是下次实验的主题。现在,让我们看看上面我们考虑的简单例子的成本vs参数曲线:
吴恩达机器学习逻辑回归的代价函数06
这条曲线非常适合梯度下降!它没有高原、局部极小值或不连续。注意,在平方误差的情况下,它不是一个碗。成本和成本的对数都被绘制出来,以说明这样一个事实:当成本很小时,曲线有一个斜率,并继续下降。提示:您可以使用鼠标旋转上面的情节。

3.简化的代价函数

这个特殊的代价函数是用一种叫做极大似然估计的统计原理中推导出来的
吴恩达机器学习逻辑回归的代价函数06


吴恩达机器学习逻辑回归的代价函数06

点赞
收藏
评论区
推荐文章
黎明之道 黎明之道
4年前
天池比赛数据挖掘心电图模型调参
Task4建模与调参4.1学习目标学习机器学习模型的建模过程与调参流程完成相应学习打卡任务4.2内容介绍逻辑回归模型:理解逻辑回归模型;逻辑回归模型的应用;逻辑回归的优缺点;树模型:理解树模型;树模型的应用;树模型的优缺点;集成模型基于bagging思想的集成
Wesley13 Wesley13
4年前
AI金融知识自学偏量化方向
前提:统计学习(统计分析)和机器学习之间的区别金融公司采用机器学习技术及招募相关人才要求第一个问题:  机器学习和统计学都是数据科学的一部分。机器学习中的学习一词表示算法依赖于一些数据(被用作训练集),来调整模型或算法的参数。这包含了许多的技术,比如回归、朴素贝叶斯或监督聚类。但不是所有的技术都适合机器学习。例如有一种统计和数
Wesley13 Wesley13
4年前
C++中构造函数和析构函数
构造函数定义它是一种特殊的方法。主要用来在创建对象时初始化对象,即为对象成员变量赋初始值,总与new运算符一起使用在创建对象的语句中。另外,一个类可以有多个构造函数,我们可以根据其参数个数的不同或参数类型的不同来区分它们(这就是构造函数的重载)特点1.构造函数的命名必须和类名完全相同;2.构造函数的功能主要用于在类的对象创建时定义
Easter79 Easter79
4年前
TiDB 源码阅读系列文章(八)基于代价的优化
概述本文是TiDB源码阅读系列文章的第八篇。内文会先简单介绍制定查询计划以及优化的过程,然后用较大篇幅详述在得到逻辑计划后,如何基于统计信息和不同的属性选择等生成各种不同代价的物理计划,通过比较物理计划的代价,最后选择一个代价最小的物理计划,即CostBasedOptimization(CBO)的过程。优化器框架一般优
Stella981 Stella981
4年前
Scala基础
1\.介绍柯里化(currying,以逻辑学家HaskellBrooksCurry的名字命名)指的是将原来接受两个参数的函数变成新的接受一个参数的函数的过程。新的函数返回一个以原有第二个参数作为参数的函数。在Scala中方法和函数有细微的差别,通常编译器会自动完成方法到函数的转换。如果想了解Scala方法和函数的具体区别,请参考博文S
Wesley13 Wesley13
4年前
2、创建分类器笔记
创建分类器\\简介:\\分类是指利用数据的特性将其分类成若干类型的过程。分类与回归不同,回归的输出是实数。监督学习分类器就是用带标记的训练数据建立一个模型,然后对未知的数据进行分类。分类器可以实现分类功能的任意算法,最简单的分类器就是简单的数学函数。其中有二元(binary)分类器,将数据分成两类,也可多元(m
Wesley13 Wesley13
4年前
N数码问题的启发式搜索算法
一、启发式搜索:A算法1)评价函数的一般形式:f(n)g(n)h(n)g(n):从S0到Sn的实际代价(搜索的横向因子)h(n):从N到目标节点的估计代价,称为启发函数(搜索的纵向因子);特点:效率高,无回溯, 搜索算法OPEN表:存放待扩展的节点.CLOSED表:存放已被扩展过的节点
Easter79 Easter79
4年前
TiDB 源码阅读系列文章(七)基于规则的优化
作者:毛康力在TiDB里面,SQL优化的过程可以分为逻辑优化和物理优化两个部分。逻辑优化主要是基于规则的优化,简称RBO(rulebasedoptimization)。物理优化会为逻辑查询计划中的算子选择某个具体的实现,需要用到一些统计信息,决定哪一种方式代价最低,所以是基于代价的优化CBO(costbasedoptimizatio
Stella981 Stella981
4年前
KTV歌曲推荐
前言上一篇写了推荐系统最古老的的一种算法叫协同过滤,古老并不是不好用,其实还是很好用的一种算法,随着时代的进步,出现了神经网络和因子分解等更优秀的算法解决不同的问题。这里主要说一下逻辑回归,逻辑回归主要用于打分的预估。我这里没有打分的数据所以用性别代替。这里的例子就是用歌曲列表预判用户性别。什么是逻辑回归逻辑回归的资料比
Stella981 Stella981
4年前
Python——sklearn 中 Logistics Regression 的 coef_ 和 intercept_ 的具体意义
sklearn中LogisticsRegression的coef\_和intercept\_的具体意义​使用sklearn库可以很方便的实现各种基本的机器学习算法,例如今天说的逻辑斯谛回归(LogisticR
Wesley13 Wesley13
4年前
Mysql索引选择逻辑
有时候我们会发现mysql可能出现选错索引的情况,要了解这个问题我们得先看看sql优化器是怎么选择索引的索引选择逻辑优化器选择索引的目的,是找到一个最优的执行方案,并用最小的代价去执行语句。在数据库里面,扫描行数是影响执行代价的因素之一。扫描的行数越少,意味着访问磁盘数据的次数越少,消耗的CPU资源越少扫描行数是怎么判断的?