लेखक:
(1) झिहांग रेन, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: peter.zhren@berkeley.edu);
(2) जेफरसन ऑर्टेगा, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: jefferson_ortega@berkeley.edu);
(3) यिफान वांग, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: wyf020803@berkeley.edu);
(4) झिमिन चेन, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: zhimin@berkeley.edu);
(5) युनहुई गुओ, यूनिवर्सिटी ऑफ टेक्सास एट डलास (ईमेल: yunhui.guo@utdallas.edu);
(6) स्टेला एक्स. यू, कैलिफोर्निया विश्वविद्यालय, बर्कले और मिशिगन विश्वविद्यालय, एन आर्बर (ईमेल: stellayu@umich.edu);
(7) डेविड व्हिटनी, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: dwhitney@berkeley.edu).
लिंक की तालिका
- सार और परिचय
- संबंधित वोक
- VEATIC डेटासेट
- प्रयोगों
- बहस
- निष्कर्ष
- उत्तेजनाओं के बारे में अधिक जानकारी
- एनोटेशन विवरण
- आउटलाइअर प्रसंस्करण
- वीडियो में विषय सहमति
- परिचितता और आनंद रेटिंग और संदर्भ
6। निष्कर्ष
इस अध्ययन में, हमने निरंतर वैलेंस और उत्तेजना की भविष्यवाणी के लिए पहला संदर्भ आधारित बड़ा वीडियो डेटासेट, VEATIC प्रस्तावित किया। विभिन्न विज़ुअलाइज़ेशन हमारे डेटासेट की विविधता और हमारे एनोटेशन की स्थिरता को दर्शाते हैं। हमने इस चुनौती को हल करने के लिए एक सरल बेसलाइन एल्गोरिदम भी प्रस्तावित किया। अनुभवजन्य परिणाम हमारे प्रस्तावित तरीके और VEATIC डेटासेट की प्रभावशीलता को साबित करते हैं।
यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।