【新智元导读】大连理工大学的研究人员提出了一种基于Wasserstein距离的知识蒸馏方法,克服了传统KL散度在Logit和Feature知识迁移中的局限性,在图像分类和目标检测任务上表现更好。 自Hinton等人的开创性工作以来,基于Kullback-Leibler散度(KL-Div)的知识蒸馏一直 ...
目前,时间序列预测方法通常采用基于极大似然估计的 MSE 作为损失函数,但这类损失在标签序列具有自相关性时有偏。 近期,北大林宙辰团队将时间序列预测转化为条件分布对齐问题。并提出一种新的损失函数,通过最小化预测序列与标签序列条件分布之间的 ...
雷锋网按:本文作者郑华滨,原载于知乎。雷锋网已获转载授权。 在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文《Wassertein GAN》却在Reddit的Machine Learning频道火了,连Goodfellow都在帖子里和大家热烈讨论,这篇论文究竟有什么了不得的 ...
在超高维数据下,我们基于 Wasserstein 相关系数提出了筛选重要特征的自适应切片 Wasserstein 相关系数方法,该方法不依赖于确定的模型形式,可适用于不同类型的数据(包括连续型、离散型或混合型数据,以及一元或多元数据)和变量之间的线性或非线性关系 ...
导语:从weight clipping到gradient penalty,更加先进的Lipschitz限制手法。 雷锋网按:本文作者为中山大学郑华滨,他在知乎的提问《生成式对抗网络GAN有哪些最新的发展,可以实际应用到哪些场景中?》中做了回答,介绍了Wasserstein GAN的最新进展。本文为郑华滨基于 ...
用微信扫描二维码 分享至好友和朋友圈 原标题:学界 | 优于VAE,为万能近似器高斯混合模型加入Wasserstein距离 选自arXiv 作者:Benoit Gaujac、Ilya Feige、David Barber 机器之心编译 参与:乾树、晓坤 近日,来自伦敦大学学院和阿兰·图灵学院等机构的研究者提出了一种 ...
用微信扫描二维码 分享至好友和朋友圈 原标题:ICLR 2018 | 谷歌大脑Wasserstein自编码器:新一代生成模型算法 选自arXiv 作者:Ilya Tolstikhin等 机器之心编译 参与:白悦、许迪 变分自编码器(VAE)与生成对抗网络(GAN)是复杂分布上无监督学习主流的两类方法。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果