type
status
date
slug
summary
tags
category
icon
password
上次编辑时间
Sep 23, 2024 08:51 AM
close-form solution
supervised/reinforcement learning
强化学习的目标是通过 最大化长期累积的奖励(cumulative reward) 来学习最优策略,而不是仅仅关注每次动作的短期损失或误差。
在强化学习中,虽然在算法优化过程中可能会使用类似于损失函数的概念,比如通过TD误差(Temporal Difference Error) 来调整 Q 值,但整体目标是确保智能体能学习到一个策略,使得它能在未来的多个步骤中获得最大的总回报。
linear regression
class,loss function,optimization
squared loss
meansquared error (MSE) 均方误差损失
向量的范数平方形式:
假设我们有一个回归问题,其中输入特征为x,输出标签为y。我们假设输出y一个确定的模型f(x)产生,再加上一些噪声ϵ:
这里ϵ是模型无法解释的随机噪声,在正态分布假设下,表示模型输出y在f(x)周围随机波动。
Multiple Dimensions: Gradients
residual sum of squares (RSS)
通过设置梯度为0可求。但可逆计算复杂度过高,在实践中一般采用梯度下降法。
e.g.对于以下的(x,y),取初始
x | y |
1 | 1 |
2 | 3 |
4 | 3 |
Stochastic gradient descent(随机梯度下降)
训练数据量很⼤时,遍历所有样本要花很⻓时间
线性回归在不同分组上的效果
计算组内损失最大值
AdaBoost(Adaptive Boosting)算法
coordinate descent
表示错判正例或负例
AdaBoost’s objective:,以达到错误分类的样本给予较大的惩罚,而对正确分类的样本给予较小的惩罚的目的
while:
这里的t是指weak classifier的数量,而j代表维度,相当于将t个进行整合形成j个weak classifier.这里使用了coordinate descent的思想
i.d.
Misl.error等价于
step1:规定坐标下降的方向
Regularation
L1 Regression
hyperparameter
Generative Learning Method
即生成式学习算法,是一类通过建模数据的联合概率分布 p(x,y)来进行学习的算法。与判别式学习算法(如逻辑回归、SVM)不同,判别式算法直接学习条件概率分布 p(y∣x),生成式算法则试图学习整个数据的生成过程。
logistic regression modeled as where g is the sigmoid function
生成式学习算法的核心思想
生成式学习算法不仅仅关注如何预测标签y(给定数据 x),它还试图学习数据x是如何生成的。换句话说,它们通过学习数据的生成机制来进行分类或预测。
生成式模型的主要任务是建模联合概率分布:p(x,y).一旦学到了 p(x,y),我们就可以使用贝叶斯定理来推断 p(y∣x):
The Gaussian Discriminant Analysis model(GDA)
这里的的指数部分为马式距离,可参考这篇文章
Gaussian Naïve Bayes
PCA, Matrix Completion, Autoencoders
Principal Component Analysis(PCA)
clustering(聚类)
k-means clusters
Mixtures of Gaussian
多项式分布 :
其中:。给定时,满足高斯分布
EM algrithoms
convex optimization
参考资料:‣
- Author:Waang Rui
- URL:https://atrionline.me//article/statistical-learning
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!
Relate Posts