【新智元导读】DeepMind 最新发布30万 YouTube 视频剪辑的 Kinetics 数据集,包含400类人类动作注释,有助于视频理解机器学习。 Kinetics 是一个大规模、高质量的 YouTube 视频URL数据集,包含了各种各样的人类动作标记。我们发布 Kinetics 数据集的目的是助力机器学习社区推进视频理解模型的研究。 Kinetics 数据集包含大约30万个视频剪辑,涵盖400类人类动作,每类动作至少有400个视频剪辑。每个剪辑时长约10秒,并被标记一个动作类别。所有剪辑都经过多轮人工注释,每个剪辑都来自一个单独的 YouTube 视频。这些动作包含了广泛的人类-物体交互的动作,例如演奏乐器,以及人类-人类交互的动作,例如握手和拥抱。 Kinetics 是 ActivityNet 组织的国际人类动作分类竞赛(international human action classification competition)的基础数据集。 论文 有关数据集如何构成以及基线分类性能的详细说明,请参阅我们的论文: The Kinetics Human Action Video Dataset(Kinetics 人类动作视频数据集) Will Kay,Joao Carreira,Karen Simonyan,Brian Zhang,Chloe Hillier,Sudheendra Vijayanarasimhan,Fabio Viola,Tim Green,Trevor Back,Paul Natsev,Mustafa Suleyman,Andrew Zisserman, arXiv:1705.06950,May 2017 在这里下载论文:https://arxiv.org/abs/1705.06950 如果您使用这个数据集,请引用该论文。 下载数据集(文末链接) Kinetics Training (ZIP file) Kinetics Validation (ZIP file) Kinetics Test (ZIP file) Kinetics Readme (TXT file) 本数据集由Google Inc.根据知识共享署名4.0国际许可(CC BY 4.0)提供。 为了提供新的人类行动课程的建议和数据集上的其他反馈,请点击这里。 浏览数据集 在网页浏览数据集部分剪辑:
使用此数据集的注意事项:Kinetics 是从上传到 YouTube 的视频剪辑而来,基于由上传者提供的视频标题。因此,剪辑反映了所上传视频的分布。例如,直播,有些类型可能主要包含男性或女性,并可能包含偏见。因此,直播,此数据集既不是对人类活动标准收录,所包含的动作的示例剪辑也不代表这些动作的标准表示。特别是,数据集中所描绘的人类的性别、种族、年龄或其他因素的分布不应该解释为代表人类行动的实际分布。 Kinetics 团队: Will Kay,Joao Carreira,Brian Zhang,Chloe Hillier,Prof.Andrew Zisserman 原文:https://deepmind.com/research/open-source/open-source-datasets/kinetics/ (责任编辑:本港台直播) |