Category: ML学术相关

  • 机器怎样学习:使用概率统计的视角

    视角的转换:预测取值还是预测分布 泛泛而论,机器学习就是给定一个输入 x,预测一个输出值 y,或者说,逼近目标函数 y = f(x)。回归模型接受输入 x,线性地预测一个输出 y。图像分类器将每个输入的图像分到一个类别中。 如果说上面的论述你全盘接受了的话,那么你本应该提出若干补充和质疑的。卷积神经网络的图像分类器,如果有…

  • 从一维回归任务说起

    任务的定义和评价 给定一个输入空间和输出空间,我们想要通过输入空间中的变量预测输出空间中的变量,这就是ML和统计学中的回归任务。让我们考察一个简单的例子,输入空间、输出空间均连续一维的情况,即(单变量单值的)函数 f 的拟合。 我们假设数据按照如下的规律生成:y = f(x) + err, err ~ N(0, sigma),即背后真实的分布…

  • 再谈神经网络的惊人表现:两步跳跃

    我在2022年2月曾写博客谈论神经网络的惊人表现,七个月过去了,在泛读机器学习概论课程参考书(Tom Mitchell著),阅读更多文献,产生更多思考后,今天我再次探讨神经网络。本文主要探讨训练神经网络解决实际问题需要经历的“两次跳跃”。 按照机器学习讨论的惯例,我们的任务是逼近一个目标函数,这里目标函数由神经网络所定义。训练神经网络解决实际问题,一般经过如下两步:1)构造训练集,通过定义损失函数对网络参数进行优化的方式让网络在训练集上逼近目标函数;2)在测试集或实际问题上,通过网络给出预测,此预测仍然接近目标函数。…

  • [仅作存档] 谈谈神经网络的惊人表现

    2016年前后,在机器翻译的任务中,诸多指标(人类评价、BLEU分数等)表明神经网络翻译(NMT)效果已经与统计翻译(SMT)不相上下,很多场景下更好。谷歌更是将自己的翻译系统由统计翻译系统替换成基于人工神经网络的翻译系统。 这并不意味着神经网络能够胜任翻译的任务了——目前的机器翻译很大程度上局限于逐句对应的翻译,不能兼顾上下句的信息。这也不代表神经网络的方法全面超越了统计学习的方法,因为前者的可解释性更差,更难以操控,其表现和出错都难以预料,也要求海量的低噪声训练数据。…