Авторы:
(1) Чжихан Рен, Калифорнийский университет в Беркли, и эти авторы внесли равный вклад в эту работу (электронная почта: peter.zhren@berkeley.edu);
(2) Джефферсон Ортега, Калифорнийский университет, Беркли, и эти авторы внесли равный вклад в эту работу (электронная почта: jefferson_ortega@berkeley.edu);
(3) Ифань Ван, Калифорнийский университет в Беркли, и эти авторы внесли равный вклад в эту работу (электронная почта: wyf020803@berkeley.edu);
(4) Чжимин Чен, Калифорнийский университет, Беркли (электронная почта: zhimin@berkeley.edu);
(5) Юнхуэй Го, Техасский университет в Далласе (электронная почта: yunhui.guo@utdallas.edu);
(6) Стелла X. Ю, Калифорнийский университет, Беркли и Мичиганский университет, Анн-Арбор (электронная почта: stellayu@umich.edu);
(7) Дэвид Уитни, Калифорнийский университет, Беркли (электронная почта: dwhitney@berkeley.edu).
Таблица ссылок
- Аннотация и введение
- Похожие Вок
- Набор данных ВЕАТИК
- Эксперименты
- Обсуждение
- Заключение
- Подробнее о стимулах
- Подробности аннотации
- Обработка выбросов
- Предметное соглашение по видео
- Знакомство и удовольствие Оценки и ссылки
6. Заключение
В этом исследовании мы предложили первый большой набор видеоданных на основе контекста, VEATIC , для непрерывного прогнозирования валентности и возбуждения. Различные визуализации показывают разнообразие нашего набора данных и согласованность наших аннотаций. Мы также предложили простой базовый алгоритм для решения этой проблемы. Эмпирические результаты доказывают эффективность предложенного нами метода и набора данных VEATIC.
Этот документ доступен на arxiv под лицензией CC 4.0.