克服神经网络的灾
难性遗忘问题
迁移学 以及 继续学习continual learning
业应用不常见一个模型解决多个问题
一个随时间改变了特征空间的分布的数据样本重新训练模型后变成了一个新
的模型
即便是一个数据集,如果不小心选择
batch
num
也会造成无法学习的情况
但是真正的人工智能不是这样的,继续学习的问题必须解决
the sequence of tasks may not be explicitly labelled,
tasks may switch unpredictably,
and any individual task may not recur for long time intervals
目前的workaround
一次训练全部的数据集(训练大量的数据集)
Current approaches have typically ensured that data from all tasks are
simultaneously available during training
如果是时间序列的问题
使用强化学习玩
Atari
戏的,一种局面可能长时间不出现
解决办法是添加
memory
replay
仿生学带给我们希望 ---- 插一条广告
一切没有仿生学依据的设计都是伪科学
人的神经网络里没有深度多层
人的神经网络里面没有BP
人学习一张动物图片不需要连续看上几十遍
人在连续学习的时候不需要同时将之前的任务完整的记忆下来
哺乳动物如何学习
Learning takes place through the formation and elimination of postsynaptic dendritic
spines over time
习是通过形成或者是消除突触后突状棘发生的行为
一个跟之前学习到的任务相关的突出会受到某种保护,在学习新的任务的时
候收到的更改相对较少
---- Sleep promotes branch-specific formation of dendritic spines after learning
Can catastrophic forgetting be overcome
by using a similar approach of varying
individual neuron's plasticity depending
on each neuron's importance?
能通过基于权重的重要性来
变权重的大小吗
一些理论基础
一些研究表明:对于一个任务,很多不同的权重组(参数组)(大型网络)(过
参数化:设置多于需要的参数个数,神经元个数)能达到相似的效果
https://pdfs.semanticscholar.org/4d3f/050801bd76ef10855ce115c31b301a83b405.pdf
那么过参数化就很有可能在满足一个任务的最优参数组附近找到满足另一个任务
的最优参数组(无论如何不要过分的改变一个已经为了A务优化好的参数)
绿色很可能找到的是一个中庸的参数组
蓝色又会找到只对
B
说最优的参数组
红色
EWC
才能找到最优的交集
EWC算法:如果确定A务重要的参
效果 多份MNIST样本
https://rylanschaeffer.github.io/content/research/overcoming_catastrophic_forgett
ing/main.html
https://github.com/ariseff/overcoming-catastrophic
http://www.inference.vc/comment-on-overcoming-catastrophic-forgetting-in-nns-are-
multiple-penalties-needed-2/
https://arxiv.org/pdf/1612.00796.pdf