<?xml version="1.0" encoding="UTF-8"?><lom xmlns="http://ltsc.ieee.org/xsd/LOM" xmlns:lomfr="http://www.lom-fr.fr/xsd/LOMFR" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://ltsc.ieee.org/xsd/LOM http://www.lom-fr.fr/xsd/lomfrv1.0/std/lomfr.xsd">
<general>
<identifier>
<catalog>Canal-U_Ocms</catalog>
<entry>7945</entry>
</identifier>
<title><string language="fre"><![CDATA[Action recognition from video: some recent results]]></string></title>
<language>ENG</language>
<description>
<string language="fre"><![CDATA[While recognition in still images has received a lot of attention over the past years, recognition in videos is just emerging. In this talk I will present some recent results. 
Bags of features have demonstrated good performance for action recognition in videos. We briefly review the underlying principles and introduce trajectory-based video features, which have shown to outperform the state of the art. These features are obtained by dense point sampling in each frame and tracking them based on displacement information from a dense optical flow field. Trajectory descriptors are obtained from motion boundary histograms, which are robust to camera motion. 
We then show how to integrate temporal structure into a bag-of-features model based on so-called actom sequences. We localize actions based on sequences of atomic actions, i.e., represent the temporal structure by sequences of histograms of actom-anchored visual features. This representation is flexible, sparse and discriminative. The resulting model is shown to significantly improve performance over existing methods for temporal action localization. Finally, we show how to move towards more structured representations by explicitly modeling human-object interactions. We learn how to represent human actions as interactions between persons and objects. We localize in space and track over time both the object and the person, and represent an action as the trajectory of the object with respect to the person position, i.e., our human-object interaction features capture the relative trajectory of the object with respect to the human. This is shown to improve over existing methods for action localization.]]></string></description>
<keyword><string language="fre"><![CDATA[apprentissage]]></string></keyword><keyword><string language="fre"><![CDATA[analyse video]]></string></keyword><keyword><string language="fre"><![CDATA[interprétation scène]]></string></keyword><keyword><string language="fre"><![CDATA[reconnaissance video]]></string></keyword>
<lomfr:documentType>
<lomfr:source>LOMFRv1.0</lomfr:source>
<lomfr:value>image en mouvement</lomfr:value>
</lomfr:documentType>
</general><lifeCycle>
<contribute>
<role>
<source>LOMv1.0</source>
<value>author</value>
</role>
<entity><![CDATA[BEGIN:VCARD
VERSION:3.0
CLASS:PUBLIC
REV:2021-09-16 17:46:22
FN:Cordelia SCHMID
N:SCHMID;Cordelia;;;
URL;TYPE=work:http://lear.inrialpes.fr/~schmid/
ROLE:author
NOTE: Cordelia Schmid est docteur en informatique. Après un post-doctorat à l'Université d'Oxford, elle a rejoint Inria où elle poursuit ses travaux en vision artificielle, notamment en reconnaissance visuelle. Elle a reçu le prix Longuet-Higgins pour sa contribution à la vision par ordinateur en 2006 et est reconnue « Fellow IEEE » en 2012. En 2012 elle a également reçu un ERC advanced grant. 
TZ:+0200
END:VCARD
]]></entity>
<date><dateTime>2011-12-01</dateTime></date>
</contribute>
<contribute>
<role>
<source>LOMv1.0</source>
<value>content provider</value>
</role>
<entity><![CDATA[BEGIN:VCARD
VERSION:3.0
CLASS:PUBLIC
REV:2021-09-16 17:46:22
FN:INRIA (Institut national de recherche en informatique et automatique)
N:INRIA (Institut national de recherche en informatique et automatique);;;;
URL;TYPE=work:http://www.inria.fr/
ROLE:content provider
TZ:+0200
END:VCARD
]]></entity>
<date><dateTime>2011-12-01</dateTime></date>
</contribute>
<contribute>
<role>
<source>LOMv1.0</source>
<value>content provider</value>
</role>
<entity><![CDATA[BEGIN:VCARD
VERSION:3.0
CLASS:PUBLIC
REV:2021-09-16 17:46:22
FN:UNS
N:UNS;;;;
URL;TYPE=work:http://unice.fr/
ROLE:content provider
TZ:+0200
END:VCARD
]]></entity>
<date><dateTime>2011-12-01</dateTime></date>
</contribute>
<contribute>
<role>
<source>LOMv1.0</source>
<value>content provider</value>
</role>
<entity><![CDATA[BEGIN:VCARD
VERSION:3.0
CLASS:PUBLIC
REV:2021-09-16 17:46:22
FN:CNRS - Centre National de la Recherche Scientifique
N:CNRS - Centre National de la Recherche Scientifique;;;;
URL;TYPE=work:Centre National de la Recherche Scientifique
ROLE:content provider
NOTE: Le CNRS en bref Le Centre national de la recherche scientifique est un organisme public de recherche (Etablissement public à caractère scientifique et technologique, placé sous la tutelle du Ministère de l'Enseignement supérieur et de la Recherche). Il produit du savoir et met ce savoir au service de la société. Avec 30 000 personnes (dont 26 080 statutaires - 11 664 chercheurs et 14 416 ingénieurs, techniciens et administratifs), un budget 2007 de 3,080 milliards d'euros dont 513 millions d'euros de ressources propres, une implantation sur l'ensemble du territoire national, le CNRS exerce son activité dans tous les champs de la connaissance, en s'appuyant sur 1260 unités de recherche et de service. Histoire du CNRS Textes fondamentaux sur l'organisation du CNRS Bilan social Rapport annuel Image du CNRS auprès du grand public - Enquête TNS-Sofres de novembre 2006 Présent dans tous les champs de la connaissance Principal organisme de recherche à caractère pluridisciplinaire en France, le CNRS mène des recherches dans l'ensemble des domaines scientifiques, technologiques et sociétaux. Il couvre la totalité de la palette des champs scientifiques, qu'il s'agisse des mathématiques, de la physique, des sciences et technologies de l'information et de la communication, de la physique nucléaire et des hautes énergies, des sciences de la planète et de l'Univers, de la chimie, des sciences du vivant, des sciences humaines et sociales, des sciences de l'environnement ou des sciences de l'ingénierie. Le CNRS est présent dans toutes les disciplines majeures regroupées au sein de six départements scientifiques : Mathématiques, physique, planète et univers (MPPU) Chimie, Sciences du vivant, Sciences humaines et sociales, Environnement et développement durable (EDD), Sciences et technologies de l'information et de l'ingénierie (ST2I) ; et de deux instituts nationaux : Institut national de physique nucléaire et de physique des particules (IN2P3), Institut national des sciences de l'Univers (INSU). Le CNRS développe, de façon privilégiée, des collaborations entre spécialistes de différentes disciplines, et tout particulièrement avec l'université, ouvrant ainsi de nouveaux champs d'investigations qui permettent de répondre aux besoins de l'économie et de la société. Des actions interdisciplinaires de recherche sont notamment menées dans les domaines suivants : «Le Vivant et ses enjeux sociaux», «Information, communication et connaissance», «Environnement, énergie et développement durable», «Nanosciences, nanotechnologies, matériaux», «Astroparticules : des particules à l'Univers». Présent sur tout le territoire national 19 délégations en région assurent une gestion directe et locale des laboratoires et entretiennent les liens avec les partenaires locaux et les collectivités territoriales. Ouvert aux partenariats 1256 unités de recherche et de service dont près de 90 % en partenariat avec l'Enseignement supérieur et les autres organismes de recherche français ; 2649 brevets principaux, 9804 avec les extensions, 1057 licences actives et 2100 contrats industriels en cours avec les entreprises ; plus de 100 créations d'entreprises à partir de laboratoires CNRS depuis 1999 ; 5000 chercheurs étrangers accueillis dans les laboratoires, 1340 chercheurs étrangers statutaires au CNRS, 80 accords de coopération avec plus de 55 pays, 332 programmes internationaux de coopération scientifique, 54 laboratoires internationaux associés et 56 groupements de recherche internationaux, 13 jumelages de laboratoires et 10 unités mixtes internationales ; des représentations à Bonn, Bruxelles, Johannesburg, Moscou, Pékin, Santiago du Chili, Tokyo, Washington, et une antenne à Hanoï. 
TZ:+0200
END:VCARD
]]></entity>
<date><dateTime>2011-12-01</dateTime></date>
</contribute>
<contribute>
<role>
<source>LOMv1.0</source>
<value>publisher</value>
</role>
<entity><![CDATA[BEGIN:VCARD
VERSION:3.0
CLASS:PUBLIC
REV:2021-09-16 17:46:22
FN:Région PACA
N:Région PACA;;;;
URL;TYPE=work:http://www.regionpaca.fr/
ROLE:publisher
TZ:+0200
END:VCARD
]]></entity>
<date><dateTime>2011-12-01</dateTime></date>
</contribute>
<contribute>
<role>
<source>LOMv1.0</source>
<value>publisher</value>
</role>
<entity><![CDATA[BEGIN:VCARD
VERSION:3.0
CLASS:PUBLIC
REV:2021-09-16 17:46:22
FN:INRIA (Institut national de recherche en informatique et automatique)
N:INRIA (Institut national de recherche en informatique et automatique);;;;
URL;TYPE=work:http://www.inria.fr/
ROLE:publisher
TZ:+0200
END:VCARD
]]></entity>
<date><dateTime>2011-12-01</dateTime></date>
</contribute>
<contribute>
<role>
<source>LOMv1.0</source>
<value>content provider</value>
</role>
<entity><![CDATA[BEGIN:VCARD
VERSION:3.0
CLASS:PUBLIC
REV:2021-09-16 17:46:22
FN:VSP - Vidéo Sud Production
N:VSP - Vidéo Sud Production;;;;
URL;TYPE=work:VSP 
ROLE:content provider
TZ:+0200
END:VCARD
]]></entity>
<date><dateTime>2011-12-01</dateTime></date>
</contribute>
</lifeCycle>
<metaMetadata>
<metadataSchema>LOMv1.0</metadataSchema>
<metadataSchema>LOMFRv1.0</metadataSchema>
</metaMetadata>
<technical>
<format>video/mp4</format>
<location><![CDATA[https://www.canal-u.tv/video/inria/action_recognition_from_video_some_recent_results.7945]]></location>
<location><![CDATA[https://streaming-canal-u.fmsh.fr/vod/media/canalu/videos/fuscia/schmidt_H264_240kbit_inria_sd.mp4]]></location>
<location><![CDATA[https://streaming-canal-u.fmsh.fr/vod/media/canalu/videos/fuscia/colloquium-schmidt-inria_bd.mp4]]></location>
<size>101278089</size>
<duration><duration>PT0H44M9S</duration></duration>
</technical>
<educational>
<learningResourceType>
<source>LOMv1.0</source>
<value>lecture</value>
</learningResourceType>
<context>
<source>LOMv1.0</source>
<value>master</value>
</context>
<context>
<source>LOMv1.0</source>
<value>doctorat</value>
</context>
</educational>
<rights>
<cost>
<source>LOMv1.0</source>
<value>no</value>
</cost>
<copyrightAndOtherRestrictions>
<source>LOMv1.0</source>
<value>no</value>
</copyrightAndOtherRestrictions>
<description>
<string language="fre"><![CDATA[Droits réservés à l'éditeur et aux auteurs. 
]]></string>
</description>
</rights>
<relation>
<kind>
<source>LOMv1.0</source>
<value>ispartof</value>
</kind>
<resource>
<identifier>
<catalog>URI</catalog>
<entry>https://www.canal-u.tv/producteurs/inria/colloquium_jacques_morgenstern_recherches_en_stic_nouveaux_themes_scientifiques_nouveaux_domaines_d_application_et_enjeux</entry>
</identifier>
<description>
<string language="fre"><![CDATA[Colloquium Jacques Morgenstern : recherches en STIC - nouveaux thèmes scientifiques, nouveaux domaines d’application, et enjeux]]></string>
</description>
</resource>
</relation>
<classification>
<purpose>
<source>LOMv1.0</source>
<value>discipline</value>
</purpose>
<taxonPath>
<source>
<string language="fre"><![CDATA[Universités Numériques Thématiques 2009 http://www.universites-numeriques.fr]]></string>
</source>
<taxon>
<id/>
<entry>
<string language="fre"/>
</entry>
</taxon>
</taxonPath>
</classification>
<classification>
<purpose>
<source>LOMv1.0</source>
<value>discipline</value>
</purpose>
<taxonPath>
<source>
<string language="fre">CDD 22e éd.</string>
<string language="eng">DDC 22nd ed.</string>
</source>
<taxon>
<id>006.37</id>
<entry>
<string language="fre"><![CDATA[Vision par ordinateur]]></string>
</entry>
</taxon>
</taxonPath>
</classification> </lom>