一:回归和分类的区别与联系:

在回归问题中,我们的目标是预测连续的输出值,例如预测房价或股票价格等。回归问题通常涉及到连续变量的预测,输出值是一个实数或者是一个连续的数值。而在分类问题中,我们的目标是预测离散的输出值,例如将一张图片分类为猫或狗等。分类问题通常涉及到对于不同类别的分类,输出值是一个离散的标签或者是概率分布。分类问题输出的是物体所属的类别,回归问题输出的是物体的值。

而softmax回归中,解决的是多分类问题。

线性问题的优点在于它们具有良好的解析性质,例如闭式解和梯度下降等优化方法可以直接用于求解权重和偏置的最优值,但是它的建模能力有限,不能很好地捕捉复杂的非线性关系。

回归问题则通常指的是建模为一个多层神经网络的问题,这个神经网络可以拥有多个非线性激活函数,如sigmoid、tanh、ReLU等。通过堆叠多个非线性层,神经网络可以学习复杂的非线性关系,具有更强的建模能力。

回归可以用于预测多少的问题。 比如预测房屋被售出价格,或者棒球队可能获得的胜场数,又或者患者住院的天数。

事实上,我们也对分类问题感兴趣:不是问“多少”,而是问“哪一个”:

  • 某个电子邮件是否属于垃圾邮件文件夹?

  • 某个用户可能注册或不注册订阅服务?

  • 某个图像描绘的是驴、狗、猫、还是鸡?

  • 某人接下来最有可能看哪部电影?

我们从一个图像分类问题开始。 假设每次输入是一个2×2的灰度图像。 我们可以用一个标量表示每个像素值,每个图像对应四个特征x1,x2,x3,x4。 此外,假设每个图像属于类别“猫”“鸡”和“狗”中的一个。

接下来,我们要选择如何表示标签。 我们有两个明显的选择:最直接的想法是选择y∈{1,2,3}, 其中整数分别代表狗猫鸡{狗,猫,鸡}。 这是在计算机上存储此类信息的有效方法。

有一种表示表示分类数据的简单方法:独热编码(one-hot encoding)。 独热编码是一个向量,它的分量和类别一样多。 类别对应的分量设置为1,其他所有分量设置为0。 在我们的例子中,标签y将是一个三维向量, 其中(1,0,0)对应于“猫”、(0,1,0)对应于“鸡”、(0,0,1)对应于“狗”。

二:softmax网络架构

为了估计所有可能类别的条件概率,我们需要一个有多个输出的模型,每个类别对应一个输出。 为了解决线性模型的分类问题,我们需要和输出一样多的仿射函数(affine function)。 每个输出对应于它自己的仿射函数。 在我们的例子中,由于我们有4个特征和3个可能的输出类别, 我们将需要12个标量来表示权重(带下标的w), 3个标量来表示偏置(带下标的b)。下面我们为每个输入计算三个未规范化的预测(logit):o1,o2,o3。

softmax回归也是一个单层神经网络。 由于计算每个输出o1,o2,o3。取决于所有输入x1,x2,x3,x4, 所以softmax回归的输出层也是全连接层。

为了更简洁地表达模型,我们仍然使用线性代数符号。 通过向量形式表达为o = Wx + b, 这是一种更适合数学和编写代码的形式。 由此,我们已经将所有权重放到一个3×4矩阵中。 对于给定数据样本的特征x, 我们的输出是由权重与输入特征进行矩阵-向量乘法再加上偏置b得到的。

1.全连接层

全连接层通常位于神经网络的中间层或者最后一层,它由多个神经元组成,每个神经元与前一层的所有神经元都有连接,即前一层的所有输出都会作为输入送到全连接层中的每个神经元。这些连接通常由可学习的权重和偏置参数来描述,其中权重参数用于控制输入信号的加权和,偏置参数用于对每个神经元的输出进行平移。全连接层的输出可以通过一个激活函数进行非线性映射,从而增加网络的非线性建模能力。

2.前馈神经网络

而前馈神经网络又是什么呢?它的名称来源于网络中信号的传递方向,即从输入层到输出层的单向传递,没有反馈连接。前馈神经网络通常由多个全连接层和激活函数组成,其中每个全连接层的输出作为下一层的输入。虽然前馈神经网络的结构比较简单,但是它可以学习到非常复杂的模式,具有强大的建模能力。

3.反馈连接(Feedback Connection)

是神经网络中一种特殊的连接方式,它允许网络中的信息从输出层反馈到输入层或中间层,从而影响网络的计算过程和学习过程。它可以使神经网络具有更强的记忆和适应能力,它可以使网络在处理时序数据、动态系统等任务中表现更加优秀。例如,在语音识别任务中,反馈连接可以帮助网络更好地利用上下文信息,提高识别准确率。在图像处理任务中,反馈连接可以使网络更好地处理时间序列信息,如视频分类、视频预测等。

4.全连接层的参数量

对于任何具有d个输入和p个输出的全连接层, 参数开销为O(np),这个数字在实践中可能高得令人望而却步。 幸运的是,将d个输入转换为p个输出的成本可以减少到O(dq/n), 其中超参数n可以由我们灵活指定,以在实际应用中平衡参数节约和模型有效性。

5.softmax:对类别进行一位有效编码,不关心真实值,而更关心它的置信度,输出和为1

我们希望模型的输出y^可以视为属于某一类的概率, 然后选择具有最大输出值的类别argmax(y^)作为我们的预测。 例如,如果y^1、y^2和y^3分别为0.1、0.8和0.1, 那么我们预测的类别是2这一类。

然而我们能否将未规范化的预测(就好比线性模型的输出)直接视作我们感兴趣的输出呢? 答案是否定的。 因为将线性层的输出直接视为概率时存在一些问题: 一方面,我们没有限制这些输出数字的总和为1。 另一方面,根据输入的不同,它们可以为负值,无法达到我们的需求。

softmax函数能够将未规范化的预测变换为非负数并且总和为1,同时让模型保持 可导的性质。 为了完成这一目标,我们首先对每个未规范化的预测求幂,这样可以确保输出非负(使用e的指数)。 为了确保最终输出的概率值总和为1,我们再让每个求幂后的结果除以它们的总和。如下式:

看公式可以发现,其实softmax本质是贝叶斯后验

这里,对于所有的j总有0≤y^≤1。 因此,y^可以视为一个正确的概率分布。 softmax运算不会改变未规范化的预测0之间的大小次序,只会确定分配给每个类别的概率。 因此,在预测过程中,我们仍然可以用下式来选择最有可能的类别。尽管softmax是一个非线性函数,但softmax回归的输出仍然由输入特征的仿射变换决定。 因此,softmax回归是一个线性模型。

这里分享一个讲解线性转化为非线性的图解过程,对于我们入门小白非常友好:为什么神经网络可以学习几乎任何东西?_哔哩哔哩_bilibili

小批量样本的矢量化

这一部分对于刚接触softmax的来说不太好理解,最好用草稿纸推算一下,这样思路比较清晰。

特征维度(输入数量)为d,批量大小为n。 此外,假设我们在输出中有q个类别。 那么小批量样本的特征为X∈R(n×d), 权重为W∈R(d×q), 偏置为b∈R(1×q)。 softmax回归的矢量计算表达式为:

在 上面的公式中,WX+b的求和会使用广播机制, 小批量的未规范化预测O和输出概率Y^ 都是形状为n×p的矩阵。

6.损失函数:(利用梯度下降法更新w进而减小损失,当损失越小,纵坐标就越小,当纵坐标接近1的时候,这时候的概率也就是置信度也是最高的。)

yj是独热编码,0或者1,y^是softmax的值

根据对数函数的性质,加负号是因为在(0,1)区间,其y的值是负数。当y(0<y<1)增大时,也就是概率变大时(这里公式的y看成是x),对于的纵坐标就越来越小,其值越小,代表熵的混乱程度越小,在预测里边,也叫做置信度越小,所以当y很接近1的时候,置信度也就是概率接近1,如果P=0,即熵等于0,那就是确定性事件了。所以它也被叫做交叉熵损失函数。

在观察一个事件p时,并赋予它(主观)概率p(j)。 当我们赋予一个事件较低的概率时,我们的惊异会更大,该事件的信息量也就更大。

7:logistic回归的softmax回归的区别

前者是后者的一个特例,因为深度学习任务中也比较少遇到二分类(+1,-1)分类。找到+1的概率,那么-1就是1减去正分类的就得到-1分类,而softmanx是加起来=1

三:代码部分,用pytorch实现softmax回归,实现分类任务。

1、首先加载数据集 ,一共有60000/batch_size组train_iter训练数据集,10000/batch_size组test_iter测试数据就

# Defined in file: ./chapter_linear-networks/image-classification-dataset.md
def load_data_fashion_mnist(batch_size, resize=None):"""Download the Fashion-MNIST dataset and then load it into memory."""trans = transforms.ToTensor()# if resize:#     trans.insert(0, transforms.Resize(resize))# trans = transforms.Compose(trans)mnist_train = torchvision.datasets.FashionMNIST(root="../data", train=True, transform=trans, download=True)mnist_test = torchvision.datasets.FashionMNIST(root="../data", train=False, transform=trans, download=True)return (data.DataLoader(mnist_train, batch_size, shuffle=True,num_workers=get_dataloader_workers()),data.DataLoader(mnist_test, batch_size, shuffle=False,num_workers=get_dataloader_workers()))

2、因为图片是28*28,需要拉长变成784(就是784个点的坐标)变成一个向量计算,但是会损失一些空间的信息,这个可以让卷积网络处理

train_iter, test_iter = load_data_fashion_mnist(batch_size)
num_inputs = 784
num_outputs = 10  # 一共10个类别

3、初始化w和b,这里的w和b的形状要特别注意

W = torch.normal(0, 0.01, size=(num_inputs, num_outputs), requires_grad=True)
b = torch.zeros(num_outputs, requires_grad=True)

4、每一行 是一个样本,列是其特征,sum(1,keepdim=True) 将所有的列进行压缩,求和成一列,也就是softmax公式的分母。keepdim=True避免sum损失维度

X = torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
print(X.shape)
print(X.sum(0, keepdim=True), X.sum(1, keepdim=True))
print(100 * '*')
#torch.Size([2, 3])
#tensor([[5., 7., 9.]]) tensor([[ 6.], [15.]])

5、定义softmax函数

def softmax(oj):X_exp = torch.exp(oj)partition = X_exp.sum(1, keepdim=True)  # 每一行求和,维度不变# 按行求和并保持维度不变return X_exp / partition  # 利用广播机制,每一行除以partition中第i个元素

6、定义网络模型:其中,偏置的个数等于类别的个数,对X进行reshape使其能够与W做内积

def net(X): return softmax(torch.matmul(X.reshape((-1, W.shape[0])), W) + b)  

7、定义损失函数:y_hat是softmax算出来的概率值,

def cross_entropy(y_hat, y):return - torch.log(y_hat[range(len(y_hat)), y])

例子:

y = torch.normal(0, 1, (4, 4))
X_prob = softmax(y)
print(X_prob, X_prob.sum(1))
print(100 * '*')
#tensor([[0.0545, 0.8214, 0.1159, 0.0083],
#        [0.6153, 0.1715, 0.1496, 0.0636],
#        [0.1584, 0.1134, 0.3983, 0.3300],
#        [0.3704, 0.1787, 0.3115, 0.1394]]) tensor([1., 1., 1., 1.])

8、y_hat是预测值,两个样本3个类别的概率,也就是用softmax函数来计算他们的概率,然后#给你一个预测值,然后拿出真实标号对应的预测值是多少(第0行的第0个,第1行的第2个)。当真正训练的时候,就这样拿出来你标号对应的概率,然后计算损失。进行迭代优化。就又回到了类似梯度下降一样,计算y的损失,更新w和b去逼近真实的曲线。

y = torch.tensor([0, 2])
y_hat = torch.tensor([[0.1, 0.3, 0.6], [0.3, 0.2, 0.5]])
print('定义的测试:对应正确的标号的概 率{}'.format(y_hat[[0, 1], y]))print('交叉熵的loss的值:{}'.format(cross_entropy(y_hat, y)))
print(100 * '*')#定义的测试:对应正确的标号的概 率tensor([0.1000, 0.5000])
#交叉熵的loss的值:tensor([2.3026, 0.6931])

9、计算正确率

y和y_hat匹配,y是真实的下标,来自softmanx计算的概率,net(net(X), y)返回了batchsize行10列。10个类别每个类别的概率,第四行代码表示一维里面比较找出最大的下标(每一行),第五行代码是避免类型不一样但是值一样的误判,多少给测试集就有多少个y对应的下标,然后yhat是从样本里面取到概率中最大的下标跟真实的下标相比,cmp为false和true,转化为01向量,表示y_hat和y相同索引的个数

def accuracy(y_hat, y):  """计算预测正确的数量"""if len(y_hat.shape) > 1 and y_hat.shape[1] > 1:  # 维度大于1并且列数大于1,跟argmanx匹配y_hat = y_hat.argmax(axis=1)  cmp = y_hat.type(y.dtype) == y  return float(cmp.type(y.dtype).sum())  # 0和1,返回总数# 返回cmp中所有相同索引的和

10、测试计算准确率这个测试的数据是上面自己人文定义的,准确率是0.5

print('准确率为{}'.format(accuracy(y_hat, y)/len(y)))
#准确率为0.5 

11、计算精度

传入net是计算y_hat, numel函数是tensor里面数量的的总个数,每次传进去的累加获得预测正确的个数和总个数和总样本数都会保存哎data里面,#metric[0]就是data[0],每一轮(256一轮)正确的个数除以总,metric[1]是每一轮加256

def evaluate_accuracy(net, data_iter):if isinstance(net, torch.nn.Module):  # 评估模式 只输入后得出结果用来评估模型真确率 不做反向传播net.eval()# eval()停用dropout和batchnormmetric = Accumulator(2)# 创建两个元素的列表for X, y in data_iter:  #metric.add(accuracy(net(X), y), y.numel()) return metric[0] / metric[1] 

12、一轮训练的函数

def train_epoch_ch3(net, train_iter, loss, updater):"""训练模型一个迭代周期(定义见第3章)"""if isinstance(net, torch.nn.Module):  # 判断是否自己实现函数net.train()metric = Accumulator(3)for X, y in train_iter:y_hat = net(X)  # 计算预测值的概率,而且每一行相加等于1l = loss(y_hat, y)  # 上面的交叉熵lossif isinstance(updater, torch.optim.Optimizer):  # 判断是否自己实现函数updater.zero_grad()l.sum().backward()updater.step()else:  # 否则是自己实现的l.sum().backward()updater(X.shape[0])metric.add(float(l.sum()), accuracy(y_hat, y), y.numel())return metric[0] / metric[2], metric[1] / metric[2]  # 计算这一轮的loss和准确率,还有精度。

13、训练函数: test_acc = evaluate_accuracy(net, test_iter)是因为每次train完更新w就可以用testdata去看一下效果的变化

# test_iter用做计算精度
def train_ch3(net, train_iter, test_iter, loss, num_epochs, updater):"""训练模型(定义见第3章)"""animator = Animator(xlabel='epoch', xlim=[1, num_epochs], ylim=[0.3, 0.9],legend=['train loss', 'train acc', 'test acc'])  # 可视化的Animatorfor epoch in range(num_epochs):  # 测试每一轮的损失,也就是用每一轮的训练好的w和b去与(x,y),把x代入w和b与他的y做预测train_metrics = train_epoch_ch3(net, train_iter, loss, updater)test_acc = evaluate_accuracy(net, test_iter)animator.add(epoch + 1, train_metrics + (test_acc,))train_loss, train_acc = train_metrics# 损失超过0.5报错是因为函数定义中有assert语句,注释掉即可assert train_loss < 0.5, train_lossassert train_acc <= 1 and train_acc > 0.7, train_accassert test_acc <= 1 and test_acc > 0.7, test_acc

14、优化函数

def updater(batch_size):return d2l.sgd([W, b], lr, batch_size)

15、预测函数,流程就是 :用更新后的w和b去预测,然后输入一张图片去预测的话。对所有的类别就行计算,选出概率最大的类别与你输入的图片的标签进行比对,labels(下标)一样的话就正确

def predict_ch3(net, test_iter, n=6):"""预测标签(定义见第3章)"""for X, y in test_iter:breaktrues = d2l.get_fashion_mnist_labels(y)preds = d2l.get_fashion_mnist_labels(net(X).argmax(axis=1))titles = [true + '\n' + pred for true, pred in zip(trues, preds)]d2l.show_images(X[0:n].reshape((n, 28, 28)), 1, n, titles=titles[0:n])if __name__ == '__main__':lr = 0.1num_epochs = 10print(train_ch3(net, train_iter, test_iter, cross_entropy, num_epochs, updater))  # 调用前面的函数predict_ch3(net, test_iter)d2l.plt.show()

16、下面运行的结果

四:总结

这一章节介绍了softmax的理论介绍和实现softmax代码的讲解,下一篇我将会介绍多层感知机,它就是在softmax基础上加了一层隐藏层,并且介绍一些解决欠拟合过拟合的方法和以及解决梯度爆炸和消失的原因以及解决方法

什么是softmax相关推荐

  1. pytorch之expand,gather,squeeze,sum,contiguous,softmax,max,argmax

    目录 gather squeeze expand sum contiguous softmax max argmax gather torch.gather(input,dim,index,out=N ...

  2. PyTorch学习笔记——softmax和log_softmax的区别、CrossEntropyLoss() 与 NLLLoss() 的区别、log似然代价函数...

    1.softmax 函数 Softmax(x) 也是一个 non-linearity, 但它的特殊之处在于它通常是网络中一次操作. 这是因为它接受了一个实数向量并返回一个概率分布.其定义如下. 定义 ...

  3. 机器学习入门(13)— Affine 仿射层、Softmax 归一化指数函数层实现

    1. 一维 Affine 仿射层 我们回顾下之前为了计算加权信号的总和,使用了矩阵的乘积运算 NumPy 中是 np.dot() , 参照代码如下: In [7]: X = np.random.ran ...

  4. 机器学习入门(06)— 输出层多元分类、softmax 归一化指数函数以及输出层的神经元数量

    输出层所用的激活函数,要根据求解问题的性质决定.一般地, 回归问题可以使用恒等函数,也就是说会将输入按原样输出: 二元分类问题可以使用 sigmoid 函数: 多元分类问题可以使用 softmax 函 ...

  5. Deep Learning 学习随记(三)续 Softmax regression练习

    上一篇讲的Softmax regression,当时时间不够,没把练习做完.这几天学车有点累,又特别想动动手自己写写matlab代码 所以等到了现在,这篇文章就当做上一篇的续吧. 回顾: 上一篇最后给 ...

  6. logisitic和softmax函数

    1,logistic函数 其实logistic函数也就是经常说的sigmoid函数,它的几何形状也就是一条sigmoid曲线.logistic函数的公式形式如下: 其中,x0表示了函数曲线的中心(si ...

  7. 激活函数之softmax介绍及C++实现

    下溢(underflow):当接近零的数被四舍五入为零时发生下溢.许多函数在其参数为零而不是一个很小的正数时才会表现出质的不同.例如,我们通常要避免被零除或避免取零的对数. 上溢(overflow): ...

  8. 今日头条李磊等最新论文:用于文本生成的核化贝叶斯Softmax

    译者 | Raku 出品 | AI科技大本营(ID:rgznai100) 摘要 用于文本生成的神经模型需要在解码阶段具有适当词嵌入的softmax层,大多数现有方法采用每个单词单点嵌入的方式,但是一个 ...

  9. 在注意力中重新思考Softmax:分解非线性,这个线性transformer变体实现多项SOTA

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 来源丨机器之心 编辑丨极市平台 导读 来自商汤.上海人工智能实验室等 ...

  10. Softmax和Cross-entropy是什么关系?

    公众号关注 "视学算法" 设为 "星标",DLCV消息即可送达! 来自 | 知乎   作者 | 董鑫 https://www.zhihu.com/questio ...

最新文章

  1. 从实现角度分析js原型链
  2. 如何从机器学习数据中获取更多收益 1
  3. Hadoop之Shuffle机制详解
  4. linux 树型显示文件 tree ls tree 命令
  5. 海量运维、运营规划之道
  6. 10_python基础—数据序列(推导式)
  7. Oracle锁庞大介绍
  8. eclipse调试java web_eclipse调试web项目
  9. 探秘亚马逊最特别的机器人工厂:800只机器人在奔跑,人类却没有被淘汰?
  10. Spark SQL将rdd转换为数据集-反射来推断Inferring the Schema Using Reflection
  11. SharePoint 2007部署过程详细图解(上)— 前期环境搭建
  12. 冲顶大会/芝士超人/花椒直播...答题助手
  13. html黑洞效果,HTML5+Canvas的黑洞特效
  14. HTML制作诗词,利用 html2canvas 做个简单的诗词卡片生成器
  15. android平板电脑忘记密码怎么解锁,平板密码忘了怎么解锁
  16. fatal The remote end hung up unexpectedly
  17. JAVA实现无损word转pdf文件完整代码教程
  18. 浅析Go中三个点(...)用法
  19. 如何将多个 Docx 格式 Word 文档批量转为 Doc 格式
  20. 仿菁优网首页动画效果

热门文章

  1. matplotlib 合理设置colorbar和子图的对应关系
  2. 无源蜂鸣器与源蜂鸣器
  3. 鼠标右键菜单清理方法
  4. php实例一实验报告心得,实验报告个人心得体会【两篇】
  5. 现在进行时的被动语态
  6. 《Python机器学习及实践》----良/恶性乳腺癌肿瘤预测
  7. 跳台阶问题(变态跳台阶)
  8. 快讯:新一届“教指委”有了回音(修改稿)
  9. 实验(2)信号与系统的时域分析
  10. mysql30天到期了_msyql设置合同到期提醒天数30天