这一堂主讲内容。迁移学习。
多目标多任务一起学习。当然任务直接是有联系的,可以互相促进。
如果信息不够的话,可以从其他任务的信息中学习。或者使用以前的相似任务中提取有用信息的过程
google搜索能做的好的都是语言相近的。它上面的例子比如说识别汽车,是否有帮助识别自行车。
这几个函数,就是最下面的图,就是不同的任务,但是相似性很高。
这里是一个房子的切面图,一个光线,一个温度,就可以联合训练。
图像分类。图像本来就具有天生的传递学习的条件。因为椅子凳子桌子都是具有共性的。
神经网络,输入层,中间层,输出层。中间层,或者说隐层,就是第一层的特征的集成过程。
X--Z就是从x空间投影到z空间。
高斯过程。
第一个是先验概率。第二个后验概率。
下面是2个核函数。
有时候数据很难得到。比如说很花钱,很花时间,或者发生的情况比较少等。
用这个方法的目标就是,用其他的相关数据学习,比光用有效数据学习效果更好呢、??
这个需要的时间是2年。时间太长了。
后面还有一些数学模型。不过我都不理解,所以就不贴出来了。
我能力有限,但是我努力的学习。望望前方路途还很遥远。