绪论
基本术语
西瓜书名不虚传。假定收集了一批关于西瓜的数据,例如
编号 | 色泽 | 根蒂 | 敲声 | 好坏 |
---|---|---|---|---|
1 | 青绿 | 蜷缩 | 浊响 | 好 |
2 | 乌黑 | 蜷缩 | 浊响 | 好 |
3 | 青绿 | 硬挺 | 清脆 | 坏 |
4 | 乌黑 | 稍蜷 | 沉闷 | 坏 |
这组记录的集合称为一个数据集(data set)。
其中每条记录是关于一个事件或对象的描述,称为一个示例(instance),例如上表其中一个示例就是第一行不包括好坏的部分。
色泽、根蒂、敲声称为属性(attribute)或特征(feature)。属性张成的空间称为属性空间(attribute space)、样本空间(sample space)或输入空间(input space)。
可以将各个属性作为坐标轴,则它们张成一个用于描述西瓜的空间,每个西瓜示例都是这个空间中的一个点。由于空间中的每个点对应一个坐标向量,因此我们也把一个示例称为一个特征向量(feature vector)。
一般地,令 表示包含 个示例的数据集,其中 是 维样本空间 中的一个向量,每个示例 由 个属性描述。 表示示例 的第 个属性。 称为样本 的维数(dimensionality)。
从数据中学得模型的过程称为学习(learning)或训练(training),这个过程通过执行某个学习算法来完成。训练过程中使用的数据称为训练数据(training data),其中每个样本称为一个训练样本(training sample)。训练样本组成的集合称为训练集(training set)。
学得模型对应了关于数据的某种潜在规律,称为假设(hypothesis)。这种潜在规律自身,则称为真相或真实(ground-truth)。学习的过程就是为了找出或逼近真相,有时将模型称为学习器(learner)。
若希望得到一个通过这几种属性预测一个瓜是否为好瓜的模型,仅有示例数据是不够的,有时需要训练样本的结果信息。
这里关于示例结果的信息,例如「好」「坏」称为标记(label)。拥有标记的示例称为样例(example)。
一般地,用 表示第 个样例,其中 是示例 的标记, 是所有标记的集合,称为标记空间(label space)或输出空间(output space)。
若欲预测的的是离散值,例如「好瓜」「坏瓜」,则称为分类(classification);若欲预测的是连续值,如西瓜成熟度,则称为回归(regression)。
对于只涉及两个类别的分类任务,称为二分类(binary classification),通常将其中一个类别称为正类(positive class),另一个类别称为反类(negative class)。对二分类任务,通常 或 ,多分类任务 ,回归任务 。
学得模型后进行预测的过程称为测试(testing)。被预测的样本称为测试样本(testing sample),测试样本组成的集合称为测试集(testing set)。
训练集中的西瓜可以分成若干组,例如「浅色瓜」「深色瓜」等,有助于了解数据的内在规律,能为更深入地分析数据建立基础。每个组称为一个簇(cluster)。这个操作称为聚类(clustering)。聚类学习过程中使用的训练样本通常不拥有标记信息。
根据训练数据是否拥有标记信息,学习任务可分为监督学习(supervised learning)和无监督学习(unsupervised learning)。前者代表有分类和回归,后者代表有聚类。
机器学习的目标是使学得的模型能很好地适用于「新样本」。学得模型适用于新样本的能力称为泛化(generalization)能力。
尽管训练集通常只是样本空间的一个很小的采样,我们仍希望它能很好地反映出样本空间的特性,否则就很难期望在训练集上学得的模型能在整个样本空间上都工作得很好。
通常假设样本空间中全体样本服从一个未知分布(distribution),获得的每个样本都是独立地从这个分布上采样得到的,即独立同分布(independent and identically distributed, i.i.d.)假设。
假设空间
归纳(induction)是从特殊到一般的泛化过程,演绎(deduction)是从一般到特殊的特化(specialization)过程。因此从样例中学习的过程也被称为归纳学习(inductive learning)。
广义归纳学习大体相当于从样例中学习。狭义归纳学习要求从训练数据中学得概念,因此也被称为概念学习(concept learning)或概念形成(concept formation)。
概念学习最基本的便是布尔概念学习,如上面的「好瓜」和「坏瓜」。
可以将学习过程看作是在一个所有假设组成的空间中进行搜索的过程。这个空间称为假设空间(hypothesis space)。搜索目标是找到与训练集匹配(fit)的假设。
假设各个属性分别有 种可能的取值,那么假设空间规模大小为 。属性中的 考虑的是可能与这个属性无关,最后再 是因为可能没有好瓜。
现实问题常面临很大的假设空间,但学习过程是基于有限样本训练集训练的,可能存在多个假设和样本集一致,即存在一个与训练集一致的假设集合,称为版本空间(version space)。例如与最上面的表格对应的版本空间如下:
- 色泽=*;根蒂=蜷缩;敲声=浊响
- 色泽=*;根蒂=蜷缩;敲声=*
- 色泽=*;根蒂=*;敲声=浊响
归纳偏好
如上的版本空间所示,现在有三个与训练集一致的假设,但与它们对应的模型在面临新样本时会产生不同的输出。所以究竟应该采用哪一个模型(或假设)呢?
仅凭表格的训练样本,其实无法判断三个假设哪个「更好」。但对于具体的学习算法,必须产生一个模型,这时就需要引入算法本身的「偏好」。机器学习算法在学习过程中对某种类型假设的偏好称为归纳偏好(inductive bias),或简称偏好(bias)。例如学习算法更喜欢「尽可能特殊」的模型,就可能会喜欢第 1 个模型。若它更喜欢「尽可能一般」的模型,同时更「相信」根蒂,就会喜欢第 2 个模型。
若没有偏好,学得模型每次在进行预测时都会随机选择一个假设,时而告诉我们这个瓜是好的,时而又说这是坏的。显然没有意义。
归纳偏好可看作学习算法自身在一个可能很庞大的假设空间中对假设进行选择的启发式或「价值观」。
奥卡姆剃刀(Occam's razor)是一种常用的归纳偏好。奥卡姆剃刀原则是指,若有多个假设与观察一致,则选最简单的那个。
然而这并不是唯一可行的原则,即使采用这个原则,它也存在不同的诠释,例如「更简单」的定义是什么?
对于训练样本(黑点),学习算法可能得到图中 两条曲线。相较而言, 更平滑,而 更崎岖。若奥卡姆剃刀原则认为平滑的 更好,那么在测试样本(白点)上, 的泛化能力可能更好。但若测试样本在 的曲线上, 的泛化能力可能更好。
对于一个学习算法 ,若它在某些问题上比学习算法 好,则必然存在另一些问题,在那里 比 好。
反直觉的是,这个结论对任何算法都成立,即使是将一些「好的算法」作为 和一些随机乱猜的笨拙算法作为 ,也是如此。下面进行一个简单的证明。
为了简单起见,假设样本空间 和假设空间 都是离散的。 代表算法 基于训练数据 产生假设 的概率, 代表我们希望学习的真实目标函数, 代表 的训练集外误差(out-of-training error,即 在训练集之外的所有样本上的误差)。则有
其中 是指示函数。 为真时,,否则 。
上式的含义就为,对于每个假设 ,当它对训练集外每个示例 的预测 与真实标记 不一致时,计算基于这个训练数据 产生假设 的概率 ,乘以这个示例出现的概率 ,再求和。
考虑二分类问题,真实目标函数是 。那么函数空间为 ,其规模大小为 。对于所有的 按均匀分布对误差求和,有(为保证推导公式的连贯性,解释在下面)
- 第一个等号就是展开上面的训练集外误差式子;
- 第二个等号是将求和顺序交换,以简化运算;
- 第三个等号是因为,若 均匀分布,那么一定有一半的 对 的预测与 不一致,即 ;
- 第四个等号是因为, 是产生假设 的概率。对所有的 进行求和,自然为 ,即 。
从而我们得到了一个惊人的结论,总误差与学习算法无关!即对于任意两个学习算法 ,有
即无论学习算法 多聪明, 多笨拙,期望性能是一样的。这就是「没有免费的午餐」定理(No Free Lunch Theorem,简称 NFL 定理)。
那学习机器学习有什么用处吗,不如就此结课?
NFL 定理有一个重要前提,即所有问题的分布是均匀的。但实际情形并不是这样的。
NFL 定理的重要寓意是让我们认识到,脱离具体的问题,空谈「什么学习算法更好」毫无意义。若考虑所有潜在的问题,所有学习算法一样好。要讨论算法的相对优劣,必须要针对具体的学习问题。