ECCV 2020 | 自监督任务辅助的知识蒸馏
相关推荐
-
LogME:通用快速准确的预训练模型评估方法
AI TIME欢迎每一位AI爱好者的加入! 引言 在深度学习时代,神经网络的参数量越来越大,从头开始训练(train from scratch)的成本也越来越大.幸运的是,在计算机视觉.自然语言处理等 ...
-
【完结】16篇图像分类干货文章总结,从理论到实践全流程大盘点!
专栏<图像分类>正式完结啦!我们从数据集展开讲解,由最基本的多类别图像分类一步步深入到细粒度图像分类.多标签图像分类,再到更加有难度的无监督图像分类,随后我们又对图像分类中面临的各种问题展 ...
-
又是Dropout两次!这次它做到了有监督任务的SOTA
关注NLP新进展的读者,想必对四月份发布的SimCSE印象颇深,它通过简单的"Dropout两次"来构造正样本进行对比学习,达到了无监督语义相似度任务的全面SOTA.无独有偶,最近 ...
-
【图像分类】 标签噪声对分类性能会有什么样的影响?
不同类型的噪声会对模型的分类性能产生什么样的影响呢,让我们一同进行实验,来探索那暗中作祟的标签噪声! 作者&编辑 | 郭冰洋 1 简介 在数据集制作过程中,由于主观.客观的原因,会导致标签噪声 ...
-
CMU & MILA & 谷歌 | 三家巨头发布史上最干文本增强总结
深度学习自然语言处理 一个热衷于深度学习与NLP前沿技术的平台,期待在知识的殿堂与你相遇~ 154篇原创内容 公众号 文 | Sherry 来自 | 夕小瑶的卖萌屋 一直以来,数据都是推动深度神经网络 ...
-
最新综述!NLP中的Transformer预训练模型
NewBeeNLP 永远有料,永远有趣 231篇原创内容 公众号 在如今的 NLP 领域,几乎每项任务中都能看见「基于 Transformer 的预训练语言模型(T-PTLM)」成功的身影.这些模型的 ...
-
达摩院基于元学习的对话系统
作者:戴音培, 黎航宇, 李永彬, 孙健 出品:阿里达摩院Conversational AI团队 导读:随着科技的不断进步发展,智能对话系统因其巨大的潜力和商业价值将会成为下一代人机交互的风口,不少公 ...
-
字节跳动在联邦学习领域的探索及实践
数据是人工智能时代的石油,但是由于监管法规和商业机密等因素限制,'数据孤岛'现象越来越明显.联邦学习(Federated Learning)是一种新的机器学习范式,它让多个参与者可以在不泄露明文数据的 ...
-
【技术综述】深度学习中的数据增强方法都有哪些?
很多实际的项目,我们都难以有充足的数据来完成任务,要保证完美的完成任务,有两件事情需要做好:(1)寻找更多的数据.(2)充分利用已有的数据进行数据增强,今天就来说说数据增强. 作者 | 言有三 编辑 ...
-
26亿参数,智源、清华开源中文大规模预训练模型
机器之心报道 机器之心编辑部 近日,北京智源人工智能研究院和清华大学研究团队联合发布了以中文为核心的大规模预训练语言模型 CPM-LM,参数规模达 26 亿,预训练中文数据规模 100 GB. 自 2 ...
