阅读记录

第三十九谈 试卷全做对[1/2页]

别进游戏 作家萌

设置 ×

  • 阅读主题
  • 字体大小A-默认A+
  • 字体颜色
    对唐一方与卫场子来说,考试简直就是人生中的大挑战。
      不过对于江墨玄与宋伊人这些学霸来说,大概就是种享受了吧。
      继续搬一下度娘关于人工智能的知识,等考完试回归故事正轨。
      支撑向量机,bsig,最大熵方法比如lgisirgrss,lr等。这些模型的结构基本上可以看成带有一层隐层节点如sv,bsig,或没有隐层节点如lr。这些模型在无论是理论分析还是应用都获得了巨大的成功。
      另一个集成决策树模型由布雷曼博士在001年提出,它是由一个随机子集的实例组成,并且每个节点都是从一系列随机子集中选择。由于它的这个性质,被称为随机森林rf,随机森林也在理论和经验上证明了对过拟合的抵抗性。
      甚至连adabs算法在数据过拟合和离群实例中都表现出了弱点,而随机森林是针对这些警告更稳健的模型。随机森林在许多不同的任务,像daaasl、kaggl等比赛等都表现出了成功的一面。
      大放光芒的蓬勃发展时期
      1世纪初至今
      在机器学习发展分为两个部分,浅层学习(shallrig)和深度学习(drig)。浅层学习起源上世纪0年代人工神经络的反向传播算法(bakaga)的发明,使得基于统计的机器学习算法大行其道,虽然这时候的人工神经络算法也被称为多层感知机(ulily),但由于多层络训练困难,通常都是只有一层隐含层的浅层模型。
      神经络研究领域领军者hi在006年提出了神经络drig算法,使神经络的能力大大提高,向支持向量机发出挑战。006年,机器学习领域的泰斗hi和他的学生sakhudiv在顶尖学术刊物《si》上发表了一篇文章,开启了深度学习在学术界和工业界的浪潮。
      这篇文章有两个主要的讯息:
      1)很多隐层的人工神经络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻划,从而有利于可视化或分类;
      )深度神经络在训练上的难度,可以通过“逐层初始化”(yrisrraiig)来有效克服,在这篇文章中,逐层初始化是通过无监督学习实现的。
      hi的学生ya的ls深度学习络可以被广泛应用在全球的a机和银行之中。同时,ya和吴恩达等认为卷积神经络允许人工神经络能够快速训练,因为其所占用的内存非常,无须在图像上的每一个位置上都单独存储滤镜,因此非常适合构建可扩展的深度络,卷积神经络因此非常适合识别模型。
      015年,为纪念人工智能概念提出60周年,、bg和hi推出了深度学习的联合综述。
      深度学习可以让那些拥有多个处理层的计算模型来学习具有多层次抽象的数据的表示。这些方法在许多方面都带来了显著的改善,包括最先进的语音识别、视觉对象识别、对象检测和许多其它领域,例如药物发现和基因组学等。深度学习能够发现大数据中的复杂结构。它是利用b算法来完成这个发现过程的。b算法能够指导机器如何从前一层获取误差而改变本层的内部参数,这些内部参数可以用于计算表示。深度卷积络在处理图像、视频、语音和音频方面带来了突破,而递归络在处理序列数据,比如文本和语音方面表现出了闪亮的一面。
      当前统计学习领域最热门方法主要有drig和sv(survrahi),它们是统计学习的代表方法。可以认为神经络与支持向量机都源自于感知机。
      神经络与支持向量机一直处于“竞争”关系。sv应用核函数的展开定理,无需知道非线性映射的显式表达式;由于是在高维特征空间中建立线性学习机,所以与线性模型相比,不但几乎不增加计算的复杂性,而且在某种程度上避免了“维数灾难”。而早先的神经络算法比较容易过训练,大量的经验参数需要设置;训练速度比较慢,在层次比较少于等于的情况下效果并不比其它方法更优。
      神经络模型貌似能够实现更加艰难的任务,如目标识别、语音识别、自然语言处理等。但是,应该注意的是,这绝对不意味着其他机器学习方法的终结。尽管深度学习的成功案例迅速增长,但是对这些模型的训练成本是相当高的,调整外部参数也是很麻烦。同时,sv的简单性促使其仍然最为广泛

第三十九谈 试卷全做对[1/2页]