<dd id="ids4b"></dd>

    <dd id="ids4b"></dd>
    <em id="ids4b"></em>
    <dd id="ids4b"></dd>

    <progress id="ids4b"></progress>

  1. <button id="ids4b"><acronym id="ids4b"></acronym></button>

        1. <em id="ids4b"><acronym id="ids4b"><u id="ids4b"></u></acronym></em><button id="ids4b"><acronym id="ids4b"></acronym></button>
          <rp id="ids4b"><object id="ids4b"><input id="ids4b"></input></object></rp>

          <dd id="ids4b"></dd>
        2. <nav id="ids4b"></nav>

          馬鞍山特爾特軟件全體員工歡迎您

          登錄    注冊

          行業資訊

          當前位置

          ICLR 2020|MIT、DeepMind等聯合發布CLEVRER數據集,推動視頻理解因果邏輯推理

          發布于:2020-04-28

          分享到:

          作者:機器之心 鏈接:https://zhuanlan.zhihu.com/p/135323240 來源:知乎 著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請注明出處。 從視頻的物理事件中識別物體并推斷其運動軌跡的能力是人類認知發展的核心。人類,即使是幼兒,也能夠通過運動將圖片區域劃分為多個物體,并使用物體的永久性、實體性和連貫性的概念來解釋發生了什么,推斷將發生什么以及想象在反事實情況下會發生什么。在靜態圖像和視頻上提出的各種數據集的推動下,復雜視覺推理問題已經在人工智能和計算機視覺領域得到了廣泛研究。然而,大多數視頻推理數據集的側重點是從復雜的視覺和語言輸入中進行模式識別,而不是基于因果結構。盡管這些數據集涵蓋了視覺的復雜性和多樣性,但推理過程背后的基本邏輯、時間和因果結構卻很少被探索。在這篇論文中,麻省理工和 DeepMind 的研究者從互補的角度研究了視頻中的時間和因果推理問題。受視覺推理數據集 CLEVR 的啟發,他們簡化了視覺識別問題,但增強了交互對象背后的時間和因果結構的復雜度。結合從發展心理學中汲取的靈感,他們提出了一種針對時間和因果推理問題的數據集。CLEVRER研究者將這個數據集稱為基于碰撞事件的視頻推理(CLEVRER)。CLEVRER 的設計遵循兩個準則:首先,發布的任務應側重于在時間和因果上的邏輯推理,同時,保持簡單以及在視覺場景和語言上出現的偏差最??;其次,數據集應完全可控并正確標注,以承載復雜的視覺推理任務并為模型提供有效的評估。CLEVRER 包含 20,000 個關于碰撞物體的合成視頻以及 300,000 多個問題和答案。問題的類型包括以下四種,如下圖所示:

          來源:中山日報

          相關推薦

          亚洲av无码破坏版在线观看_67194在线观看免费无码_日韩中文高清在线专区_亚洲深深色噜噜狠狠爱网站