推荐阅读:Pytoch版代码详解
MAML本身存在一些问题被发表在How to train your MAML中。
meta-leaning指的是元学习,元学习是深度学习的一个分支,一个好的元模型(meta-learner)应该具备对新的、少量的数据做出快速而准确的学习。通俗的来讲, 对于人来说,给几张橘猫的图片让看一下,再给你几张没见过的英短猫图片,你一定能很快识别出来都是猫。但是对于神经网络来说,并非如此。如果让一个小汽车分类网络去识别不同的大货车,那效果肯定很差。而传统的CNN网络都是输入大量的数据,然后进行分类的学习。但是这样做的问题就是,神经网络的通用性太差了,根本达不到“智能”的标准。而人类的认知系统,可以通
所有这些都包含在Anaconda中。
只需运行maml.py 。 这实现了二进制分类问题。 但是,我注意到MAML的结果并不令人鼓舞。 更好的更深层次的模型将是有益的。
Finn C,Abbeel P,Levine S.快速适应深度网络的模型不可知元学习[C] //第34届机器学习国际会议论文集70. JMLR。 组织,2017年:1126-1135。
论文题目:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks
模型不可知元学习在深度网络快速自适应中的应用
论文是2017年发表在ICML上的,目前被引用量也超过4600+,值得大家进行学习。
Abstract
通过论文题目,我们会有一个大致的了解,Model-Agnostic(模型无关)、Fast Adaptation(快速适应)、Deep Networks(深度网络),可以看出这篇文章是适用于深度网络并且提出一种与模型.
元学习—模型不可知元学习(MAML)
在之前的文章中,我们介绍了神经图灵机和记忆增强网络(MANN),主要介绍了其对于内存中信息的读取与写入。有兴趣的读者可以参考我之前的博客元学习—神经图灵机。在今天的文章中,我们来介绍一种更加常见的元学习的学习方法,即模型不可知元学习。
1. MAML原理
1.1 MAML引入
MAML是一种最近被提出的,最为主流的一种元学习的方法。其是元学习上的一个重大突破。在元学习中,众所周知,其目标是学会学习。在元学习中,我们从大量的相关学习任务中获取一小部分的样本点,然后通过元学
Meta Learning
Deep-learning:从0开始训练一个模型
Meta-learning:模仿人类的学习过程,先学习一个Prior先验知识,并且利用这些知识,在新的问题上学的更快更好。通过学习到的模型,来学习新的模型;用【任务】生成【模型】。
Life-Long Learning VS Meta-Learning
都是通过任务的学习来应用到新的任务上。
Life-Long Learning:学习一个模型,然后将这一个模型运用到不同的任务上
Meta-Learning:对新的任务,用新的模型,
元学习算法MAML简介1.元学习(meta learning)2.模型无关元学习2.1 元学习问题建模2.2 MAML算法3.将MAML应用到回归分类任务上的算法流程参考资料
论文: Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks Chelsea
代码: https://github.com/cbfinn/maml
ICML2017的一篇论文,作者Chelsea Finn是斯坦福的老师,一步小心去作者主页看了下,MIT和
MAML and Model Pre-training
为了进一步区分两者,MAML在意训练后KaTeX parse error: Undefined control sequence: \thea at position 6: \hat{\̲t̲h̲e̲a̲}^{n}表现得好,如图处,对task1和task2都下降很快
在图中Model Pre-training在所有task上都最好
两者就像刚毕业学生一样,Model Pre-training就是直接毕业工作拿工资,对于当前是很好,MAML...