机器学习复习

一、机器学习介绍&线性、逻辑回归

什么是机器学习

  • 要学什么—决策函数
  • 从哪里学—训练数据
  • 怎样学习—求解机器学习模型

针对某个任务 (Task ),利用训练数据 (Experience ),求
解一个学习模型,从而提高该任务的性能 (Performance)

机器学习要素:

  • 任务、目标(Task)
  • 使用经验数据(Experience)
  • 提高学习性能(Performance)

线性、逻辑回归

多元线性回归

image-20210108105501675

image-20210108105823098

image-20210108105915740

损失函数几何意义:试图找到一个超平面,使所有样本到超平面上的欧式距离之和最小

梯度下降法求解

image-20210108110107043

image-20210108121452211

随机梯度下降法

image-20210108121548608

正规方程

image-20210108122218592

image-20210108122226039

image-20210108122237542

比较

image-20210108122339936

  • MSE (mean square error) 均方误差

F1 measure

image-20210108122618980

逻辑回归

image-20210108124017039

image-20210108124032366

梯度上升法求解:

image-20210108125450374

二、神经网络

image-20210108133751141

损失

二分类损失

image-20210108131604993

多分类损失

image-20210108131624798

image-20210108131634968

回归损失

image-20210108131650807

反向传播一般情形

image-20210108135853429

image-20210108140046831

image-20210108140921319

image-20210108141827426

image-20210108141847890

image-20210108141936433

  • 注意,由于$z^l$是关于l-1层权重和偏置的函数,所以对$b^{l-1}$ 求偏导,链式法则前面应该是对l层的z求偏导。

image-20210108142659383

image-20210108142710900

image-20210108142727415

image-20210108142739751

神经网络模型算法

image-20210108144043966

对数似然vs二次代价

  • 二次代价:刚开始学习的速度比较缓慢

    image-20210108145016997

  • 交叉熵:刚开始学习的速度相当快,与期待一样,当严重错误时能以最快速度学习;当预测输出接近正确输出时,学习速度变慢

image-20210108144828797

image-20210108144758437

三、支持向量机

问题建模

image-20210108164518211

image-20210108164532062

image-20210108164549486

求解

约束优化、对偶

image-20210108164650226

image-20210108164720638

image-20210108165135301

image-20210108165148868

SVM对偶问题

image-20210108165650606

image-20210108170310260

image-20210108170927376

image-20210108170944889

  • 对偶问题的规模正比于训练样本数

image-20210108182843976

例子

image-20210108184654166

image-20210108184703008

  • 超平面法向量是支持向量的线性组合:仅支持向量的 $\alpha_i \neq0$

SVM性质

image-20210108185442232

软SVM

image-20210108190527897

image-20210108190602266

image-20210108191521838

  • 注意,软SVM主问题中的约束多了一个 $\epsilon_i \geq 0$

软SVM对偶问题推导

image-20210108191707731

image-20210108191744154

image-20210108194331300

软SVM高效求解

image-20210108194857976

image-20210108194926798

image-20210108194946685

image-20210108195028912

image-20210108195047944

image-20210108195147484

image-20210108200835447

四、集成学习、特征选择

集成学习

集成方法分类

  • 串行式集成学习 :个体学习器之间存在强依赖关系,后生成的个体学习器依赖前面生成的个体学习器。代表
    性算法 Boosting。
  • 并行式集成学习方法: 个体学习器之间不存在强依赖关系,代表是 Bagging和随机森林

重采样方法

  • 随机采样:在原来的数据集上随机采样一个子集,得到新的训练集,这就是 Bagging 族方法的做法。
  • 带权采样:采样时,可以给训练集里的每个元素不同的权,权值通过上一次训练的结果来确定。这就是
    Boosting 族方法的做法。

AdaBoost

关注 被错分的样本 器重 性能好的弱分类器

image-20210108210815773

Bagging

image-20210108210851925

image-20210108211144741

随机森林

image-20210108211500387

特征选择与稀疏学习

过滤式方法

  • 单变量过滤方法:Singal-to-noise ratio (S2N)
  • Relief

image-20210108212238667

包裹式方法

image-20210108212326139

image-20210108212437733

嵌入式方法

image-20210108212525198

image-20210108212737639

Lasso回归

image-20210108215148325

坐标下降法求解

image-20210108221621387

image-20210108221537516

坐标下降法推导

image-20210108222706473

image-20210108222743026

image-20210108222837266

综上有:

image-20210108222905302

总结

image-20210108221202560

image-20210108221719018

image-20210108221728915

稀疏学习

image-20210108222201945

xi为p*1维,B为p*k维,ai为k*1维,也就是将样本x从p维降到k维

image-20210108222523345

image-20210108222602939

五、非监督学习概述、贝叶斯分类器

聚类算法

  • 层次聚类算法:自底而上:聚合;自顶而下:分裂
  • 划分式聚类算法:给出随机化初始划分;对划分迭代优化:Kmeans、GMM

K-means

image-20210109114717384

image-20210109114915647

image-20210109115105754

image-20210109115431917

image-20210109115550237

image-20210109115640626

  • 算法复杂度

image-20210109115719364

  • 聚类中心初值选择:
    • 通过启发式方法选择好的初值:例如要求种子点之间有较大的距离
    • 尝试多个初值 ,选择平方误差和最小的一组聚类结果

image-20210109115843195

贝叶斯分类器

image-20210109140144105

image-20210109140313015

image-20210109141153252

  • 判别式模型:通过对 𝑃(𝑐|𝑥)直接建模预测,直接对条件概率建模,不关心背后的数据分布 𝑃(𝑥,𝑐)

    image-20210109141420624

  • 生成式模型:概率分布建模

    image-20210109141523954

image-20210109141629948

朴素贝叶斯分类器

image-20210109141833411

image-20210109142020847

避免0概率问题

image-20210109142316809

朴素必要性

image-20210109143033628

高斯朴素贝叶斯分类器

高斯分布

image-20210109143118434

这里公式里的p是维度,即p维高斯

image-20210109143140684

高斯朴素贝叶斯

image-20210109143303243

image-20210109143331696

朴素高斯必要性

image-20210109144009186

高斯贝叶斯决策面

image-20210109151651778

image-20210109151702629

image-20210109151715409

image-20210109151740240

线性判别分析(LDA)

image-20210109144540101

image-20210109151803619

  • LDA是假设协方差矩阵相同,朴素高斯和非朴素高斯的区别在于协方差矩阵是否为对角阵

LDA vs 逻辑回归

image-20210109151859775

高斯朴素贝叶斯决策面

image-20210115131756654

image-20210115131808042

总结

  • 朴素贝叶斯可以处理离散属性和可以处理连续属性

image-20210109152151298

KNN

image-20210109153045785

image-20210109153100573

六、GMM、EM

GMM

image-20210109153257125

image-20210109153829323

image-20210109154113886

image-20210109154740188

image-20210109154855847

EM算法求解

image-20210109155046582

image-20210109201950716

image-20210109202004673

image-20210109202014954

image-20210109202022556

image-20210109202030602

image-20210109202042143

image-20210109203346409

image-20210109203400105

image-20210109210942114

image-20210109203501102

image-20210109203510449

缺点

image-20210109211217659

总结

image-20210109211231072

七、马尔可夫链

贝叶斯网

image-20210109211550811

image-20210109211636040

image-20210109211731948

image-20210109211744556

马尔可夫链

image-20210109212108102

image-20210109212348808

  • 三要素

    image-20210109212420885

  • 状态转移

    image-20210109212445042

    image-20210109212753046

    image-20210109212902169

    image-20210109212911447

image-20210109214533255

image-20210109215556938

image-20210109215922221

八、PCA

http://blog.codinglabs.org/articles/pca-tutorial.html

https://croook.github.io/2020/04/08/%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0%E3%80%81%E6%A6%82%E7%8E%87%E8%AE%BA/

image-20210112124946203

image-20210112125215455

image-20210112125737697

image-20210112125907856

image-20210112125952421

image-20210112130755719

image-20210112131819277

image-20210112131828118

SVD

image-20210112133524475

image-20210112133533319

方法

image-20210112133736223

image-20210112133750146

概率PCA

image-20210112134331317

image-20210112134341315

image-20210112145525485

image-20210112145537315

image-20210112145702743

image-20210112145712221

image-20210112145724168

image-20210112145732474

image-20210112145920170

image-20210112150051441

image-20210112150236900

PCA EM算法

image-20210112150610515

核PCA

image-20210113103425395

image-20210113103450435

LLE

image-20210113103750772

image-20210113103830454

image-20210113103839376

image-20210113103849707

image-20210113103857228

image-20210113103906907

image-20210113103916733

image-20210113103924416

image-20210113103932798

image-20210113103940994

t-SNE

image-20210113103958867

image-20210113104614552

image-20210113104641117