<?xml version="1.0" encoding="UTF-8"?><metadata>
<lom xmlns="http://ltsc.ieee.org/xsd/LOM" xmlns:lomfr="http://www.lom-fr.fr/xsd/LOMFR" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://ltsc.ieee.org/xsd/LOM http://www.lom-fr.fr/xsd/lomfrv1.0/std/lomfr.xsd">
<general>
    <identifier>
        <catalog>Canal-U_Ocms</catalog>
        <entry>18700</entry>
    </identifier>
    <title><string language="fre"><![CDATA[08c - Vers un modèle de détection des affects, appréciations et jugements dans le cadre d’interactions humain-agent (Article RECITAL) (taln2015)]]></string></title>
    <language>FRE</language>
    <description>
        <string language="fre"><![CDATA[Sessions orales TALN 2015 – Mardi 23 juin 2015Session Opinions et sentimentsVers un modèle de détection des affects, appréciations et jugements dans le cadre d’interactions humain-agent  (Article RECITAL)

Caroline LangletRésumé : Cet
 article aborde la question de la détection des expressions d’attitude —
 affect, d’appréciation et de jugement (Martin and White, 2005)– dans le
 contenu verbal de l’utilisateur au cours d’interactions en face-à-face 
avec un agent conversationnel animé. Il propose un positionnement en 
terme de modèles et de méthodes pour le développement d’un système de 
détection adapté aux buts communicationnels de l’agent et à une parole 
conversationnelle. Après une description du modèle théorique de 
référence choisi, l’article propose un modèle d’annotation des attitudes
 dédié l’exploration de ce phénomène dans un corpus d’interaction 
humain-agent. Il présente ensuite une première version de notre système.
 Cette première version se concentre sur la détection des expressions 
d’attitudes pouvant référer à ce qu’aime ou n’aime pas l’utilisateur. Le
 système est conçu selon une approche symbolique fondée sur un ensemble 
de règles sémantiques et de représentations logico-sémantiques des 
énoncés.]]></string></description>
    <keyword><string language="fre"><![CDATA[traitement automatique du langage naturel]]></string></keyword><keyword><string language="fre"><![CDATA[taln2015]]></string></keyword>
    <lomfr:documentType>
        <lomfr:source>LOMFRv1.0</lomfr:source>
        <lomfr:value>image en mouvement</lomfr:value>
    </lomfr:documentType>
</general><lifeCycle>
    
</lifeCycle>
<metaMetadata>
    <metadataSchema>LOMv1.0</metadataSchema>
    <metadataSchema>LOMFRv1.0</metadataSchema>
</metaMetadata>
<technical>
    <format>video/x-flv</format>
    <location><![CDATA[http://www.canal-u.tv/video/centre_d_enseignement_multimedia_universitaire_c_e_m_u/08c_vers_un_modele_de_detection_des_affects_appreciations_et_jugements_dans_le_cadre_d_interactions_humain_agent_article_recital_taln2015.18700]]></location>
    <location><![CDATA[rtmpt://fms2.cerimes.fr:80/vod/centre_d_enseignement_multimedia_universitaire_c_e_m_u_universit/08c.vers.un.mod.le.de.d.tection.des.affects.appr.ciations.et.jugements.dans.le.cadre.da.interactions.humain.agent.article.recital.taln2015._18700/08c_langlet_sd.mp4]]></location>
        <location><![CDATA[http://www.canal-u.tv/video/centre_d_enseignement_multimedia_universitaire_c_e_m_u/dl.1/08c_vers_un_modele_de_detection_des_affects_appreciations_et_jugements_dans_le_cadre_d_interactions_humain_agent_article_recital_taln2015.18700]]></location>
        
    <size>106884194</size>
    <duration><duration>PT0H24M13S</duration></duration>
</technical>
<educational>
    <learningResourceType>
        <source>LOMv1.0</source>
        <value>lecture</value>
    </learningResourceType>
    
    <context>
        <source>LOMv1.0</source>
        <value>higher education</value>
    </context>
</educational>
<rights>
    <cost>
        <source>LOMv1.0</source>
        <value>no</value>
    </cost>
    <copyrightAndOtherRestrictions>
        <source>LOMv1.0</source>
        <value>no</value>
    </copyrightAndOtherRestrictions>
    <description>
        <string language="fre"><![CDATA[Droits réservés à l'éditeur et aux auteurs]]></string>
    </description>
</rights>

            <relation>
                <kind>
                    <source>LOMv1.0</source>
                    <value>ispartof</value>
                </kind>
                <resource>
                    <identifier>
                        <catalog>URI</catalog>
                        <entry>http://www.canal-u.tv/producteurs/centre_d_enseignement_multimedia_universitaire_c_e_m_u/taln_2015/session_opignions_et_sentiments_taln_2015</entry>
                    </identifier>
                    <description>
                        <string language="fre"><![CDATA[Session opinions et sentiments (taln 2015)]]></string>
                    </description>
                </resource>
            </relation>

<classification>
    <purpose>
        <source>LOMv1.0</source>
        <value>discipline</value>
    </purpose>
    <taxonPath>
        <source>
        <string language="fre"><![CDATA[Universités Numériques Thématiques 2009 http://www.universites-numeriques.fr]]></string>
        </source>
        <taxon>
            <id/>
            <entry>
                <string language="fre"/>
            </entry>
        </taxon>
    </taxonPath>
</classification>
<classification>
    <purpose>
        <source>LOMv1.0</source>
        <value>discipline</value>
    </purpose>
    
    <taxonPath>
        <source>
            <string language="fre">CDD 22e éd.</string>
            <string language="eng">DDC 22nd ed.</string>
        </source>
        <taxon>
            <id>418.02</id>
            <entry>
                <string language="fre"><![CDATA[Traduction automatique]]></string>
            </entry>
        </taxon>
   </taxonPath>
    <taxonPath>
        <source>
            <string language="fre">CDD 22e éd.</string>
            <string language="eng">DDC 22nd ed.</string>
        </source>
        <taxon>
            <id>410.285</id>
            <entry>
                <string language="fre"><![CDATA[Informatique appliquée à la linguistique]]></string>
            </entry>
        </taxon>
   </taxonPath>
</classification>      </lom>
   </metadata>