逻辑斯蒂回归与最大熵模

Table of Contents

  1. 逻辑斯蒂回归
    1. 逻辑斯蒂分布
    2. 二项逻辑斯蒂回归模型
    3. 模型参数估计
    4. 多项logistic regression
  2. 最大熵模型
    1. 最大熵原理
    2. 最大熵模型的定义
    3. 最大熵模型的学习
    4. 极大似然估计
  3. 模型学习的最优化算法
    1. 改进的迭代尺度法(IIS)
    2. 拟牛顿法

逻辑斯蒂回归与最大熵模型都属于对数线性模型

逻辑斯蒂回归

逻辑斯蒂分布

二项逻辑斯蒂回归模型

定义: 2017-2-27-逻辑斯蒂回归与最大熵模_b1bbf718f3b4268d322b5cc5bd1ae5b163f0a6b8.png 2017-2-27-逻辑斯蒂回归与最大熵模_2b28c027c5bc123608b4d16a2108e5afe5b3a501.png 比较两个条件概率的大小,将实例x分到条件概率值较大的那一类。 对数几率或logit函数是: 2017-2-27-逻辑斯蒂回归与最大熵模_cd843a5826291e85c7d07abd2acb8fb4a0e161ac.png 在logistic regression模型中,输出 Y=1 的对数几率是输入x的线性函数 2017-2-27-逻辑斯蒂回归与最大熵模_f515955531cc0ee1764e3d5c43d4095f0c3d5fbd.png

模型参数估计

应用极大似然估计法估计模型的参数 设: 2017-2-27-逻辑斯蒂回归与最大熵模_e3f2942f868f086781262fcd64e9ba1fcab52748.png 似然函数为: 2017-2-27-逻辑斯蒂回归与最大熵模_47d27633eb99affbfe48da8090f3bfee08820542.png 对数似然函数为: 2017-2-27-逻辑斯蒂回归与最大熵模_3408934bb87076c3bbea1869ac696ef8d52b2fd3.png 对对数似然函数求极大值,得到 2017-2-27-逻辑斯蒂回归与最大熵模_1ee5b3f866f25c1f47294cec3665c01aa14c1ade.png 的估计值。 问题变成以对数似然函数为目标函数的最优化问题。 通常采用梯度下降法和拟牛顿法。

多项logistic regression

最大熵模型

由最大熵推导实现

最大熵原理

假设离散随机变量X的概率分布为P(X),则其熵为: 2017-2-27-逻辑斯蒂回归与最大熵模_378c3df25d6fa0d66906575d63c90a5093753ef5.png 熵最大的模型为最好的模型。 最大熵原理通过熵的最大化来表示等可能性。

最大熵模型的定义

对于给定的输入X,以条件概率P(Y|X)输出Y。 学习的目标:用最大熵原理选择最好的分类模型。 最大熵模型 定义在条件概率分布P(Y|X)上的条件熵为: 2017-2-27-逻辑斯蒂回归与最大熵模_74ab4a04812c4f695c1e391ebda845a408d8579b.png 则满足所有约束条件的模型集合为C中条件熵H(P)最大的模型称为最大熵模型。

最大熵模型的学习

形式化为约束最优化问题,将约束最优化问题转换为无约束最优化的对偶问题,通过解对偶问题求解原问题。 最大熵模型: 2017-2-27-逻辑斯蒂回归与最大熵模_3741c4a2dee3b3b6e3c6221aa7f4ea08b82ee980.png 其中, 2017-2-27-逻辑斯蒂回归与最大熵模_f80ed5aa77eddc6c0d63a4b8dc8b7da93b778b7a.png 特征函数为 2017-2-27-逻辑斯蒂回归与最大熵模_f80054f79b9e053b45a466d689ca3e695a90af87.png2017-2-27-逻辑斯蒂回归与最大熵模_960ad8bef55aa259b22a4296ec2b54c50da0e41a.png 称为规范化因子, n为特征函数的个数, 2017-2-27-逻辑斯蒂回归与最大熵模_c75933d854b6531563fa6d0eb304d82e7543525a.png 为特征的权值。

极大似然估计

证明了最大熵模型学习中的对偶函数的极大化等价于最大熵模型的极大似然估计 最大熵模型的一般形式 2017-2-27-逻辑斯蒂回归与最大熵模_dbb0ac09f0a44d1920b2e8c6c7fd904f8b80e3ff.png 其中 2017-2-27-逻辑斯蒂回归与最大熵模_1c35edeeeb722036f21d64c623c39989bd41a397.png 这里 2017-2-27-逻辑斯蒂回归与最大熵模_a2cea2b163856fa1013931c25d6fa509f795750f.png 为输入, 2017-2-27-逻辑斯蒂回归与最大熵模_9fba271638fba6e14af1e2dead49c6ae4df85649.png 为输出, 2017-2-27-逻辑斯蒂回归与最大熵模_7cfa0cd194b195c271a0dec2ce7aa5116c9d9576.png 为权值向量,2017-2-27-逻辑斯蒂回归与最大熵模_2e62312bafce782bf399c6debb54b0b89fcecc40.png 为任意实值特征函数。

模型学习的最优化算法

logistic regression、最大熵模型学习归结为以似然函数为目标函数的最优化问题,通常通过迭代法求解。能保证找到全局最优解,牛顿法和拟牛顿法收敛速度快。

改进的迭代尺度法(IIS)

当前的参数向量是 2017-2-27-逻辑斯蒂回归与最大熵模_d4d1aed1667079a50cac8b266a4019c8e334bb24.png,找到一个新的参数向量 2017-2-27-逻辑斯蒂回归与最大熵模_c981a0e7c5537fa8dc6c1e4a62764df1e3dfaf92.png,使得模型的对数似然函数增大,重复这一过程,直至找到对数似然函数的最大值。

拟牛顿法

最大熵模型: 2017-2-27-逻辑斯蒂回归与最大熵模_13765d87a07c223ae17d27fb724368090b700bfb.png 目标函数(熵最大化): 2017-2-27-逻辑斯蒂回归与最大熵模_0690f6e456e7330faf849bfd3b11049677530b38.png 梯度: 2017-2-27-逻辑斯蒂回归与最大熵模_96494c3f5dd43a7d6f61addb6d1f7fd70751a6d0.png

算法: (1)选定初始点 2017-2-27-逻辑斯蒂回归与最大熵模_8c14eebbdbbd1e3f19b909346fc19677886c2ecc.png ,取 2017-2-27-逻辑斯蒂回归与最大熵模_4c85bbab3d2e8df7d9116248dfc821b278921d8a.png 为正定对称矩阵,置k=0 (2)计算 2017-2-27-逻辑斯蒂回归与最大熵模_5f23d048cf4bd44b9dec160a65d93e3f439c094b.png , 若 2017-2-27-逻辑斯蒂回归与最大熵模_52208d17c6a1d7caed54b8c95bbe44cab95897d1.png ,则停止计算, 得 2017-2-27-逻辑斯蒂回归与最大熵模_6bd939fc663996285d191e53d6686b7b193f4ee8.png ; 否则转到(3) (3)由 2017-2-27-逻辑斯蒂回归与最大熵模_859373274a327881176aa0395585c94984b3f03f.png 求出 2017-2-27-逻辑斯蒂回归与最大熵模_56808d3531da4eb8f2400f55871a590ca59ce58f.png 。 (4)一维搜索:求 2017-2-27-逻辑斯蒂回归与最大熵模_ab5a0f30ecb47b4de509542acb725ad0c94ae751.png 使得 2017-2-27-逻辑斯蒂回归与最大熵模_b3c8957a068a91e54dc4f1b58f445948e36eebd8.png (5)置 2017-2-27-逻辑斯蒂回归与最大熵模_0f81f2bd92b3395101ed6b5d9277b25ba8a0569b.png (6)计算 2017-2-27-逻辑斯蒂回归与最大熵模_5dad521fa134343994117f6f9a10efe50d9b52e6.png , 若 2017-2-27-逻辑斯蒂回归与最大熵模_1a8b9f47734649c06ae2362ace72958e76a930f4.png , 则停止计算, 得 2017-2-27-逻辑斯蒂回归与最大熵模_8e113342fd7c9825266774bb60fbea8716c56f77.png ; 否则, 按下式求出 2017-2-27-逻辑斯蒂回归与最大熵模_6459c9a652a0fd515bfca8acfd8ccd52a6ba27ce.png : 2017-2-27-逻辑斯蒂回归与最大熵模_8fe0d4776ba9ceb28a068892351c8d660cd50fd6.png 其中, 2017-2-27-逻辑斯蒂回归与最大熵模_7cff8a01599cc14b3d396aad91ec6efe5968a1d6.png (7)置 k = k +1, 转(3).

发布于: 2017年 02月 27日