作者:
(1)加州大学伯克利分校的任志航和本文其他作者对本文的贡献相同(Email: peter.zhren@berkeley.edu);
(2)加州大学伯克利分校的 Jefferson Ortega 和本文其他作者对本文做出了同等贡献(电子邮箱:jefferson_ortega@berkeley.edu);
(3)加州大学伯克利分校的 Yifan Wang 和本文其他作者对本文的贡献相同(电子邮箱:wyf020803@berkeley.edu);
(4)陈志敏,加州大学伯克利分校(电邮:zhimin@berkeley.edu);
(5)郭云晖,德克萨斯大学达拉斯分校(电子邮箱:yunhui.guo@utdallas.edu)
(6)Stella X. Yu,加州大学伯克利分校和密歇根大学安娜堡分校(电子邮箱:stellayu@umich.edu)
(7)加州大学伯克利分校的 David Whitney(电子邮箱:dwhitney@berkeley.edu)。
链接表
六,结论
在本研究中,我们提出了第一个基于上下文的大型视频数据集VEATIC ,用于连续效价和唤醒预测。各种可视化显示了我们数据集的多样性和注释的一致性。我们还提出了一种简单的基线算法来解决这一挑战。实证结果证明了我们提出的方法和 VEATIC 数据集的有效性。