我们结合了基于LSTM的循环神经网络和Deep Q-learning建立了实时生成音乐序列。LSTM的任务是学习音乐评分(编码为MIDI,开奖,而不是音频文件)的一般结构。Deep Q-learning用来改进基于奖励的序列,如期望的类型,组成正确性和预测人类协作者演奏的内容。基于RNN模型的生成与强化学习的结合是一种生成音乐的全新方式。这种方式比单独使用LSTM更为稳定,生成的音乐更加好听。该方法有两个任务:生成对短旋律输入的响应,以及实时生成对旋律输入的伴奏,持续对未来输出进行预测。本方法在TensorFlow中加入了一个全新的MIDI接口产生即兴的音乐体验,让使用者可以与神经网络实时交互。 标题:Content-based Related Video Recommendation 作者:Joonseok Lee 这是一个相关视频推荐的展示,种子来源于YouTube上随机的视频,纯粹基于视频内容信号。传统的推荐系统使用协同过滤**(CF)** 方法,在有多少用户在看了种子视频之后观看特定的候选视频的基础之上来推荐相关视频。这种方式没有考虑视频内容但是考虑了用户行为。在这个展示中,我们关注的是冷启动问题,其中种子或者候选视频都是新上传的(或者未被发现的)。对此我们按照一个基于视频内容的相似性学习问题进行建模,并学习了深度视频嵌入经过训练去预测真实情况的视频关系(由一个CF基于协同手表的系统鉴定) ,但仅使用视觉内容。它基于任一新视频内容,将其嵌入进一个1024维的表征中,同时成对视频的相似性在嵌入的空间中仅当做一个点积来计算。我们发现,被学习的视频嵌入超越了简单的视觉相似性,并能捕捉复杂的语义关系。 更多的 workshops 和 tutorials 可点击网址:https://research.googleblog.com/2016/12/nips-2016-research-at-google.html ©本文为机器之心编译文章,转载请联系本公众号获得授权。 ?------------------------------------------------ 加入机器之心(全职记者/实习生):[email protected] 投稿或寻求报道:[email protected] 广告&商务合作:[email protected] (责任编辑:本港台直播) |