ebook img

Techniques d'apprentissage supervisé pour l'extraction d'événements TimeML en anglais et français PDF

17 Pages·2016·0.65 MB·French
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Techniques d'apprentissage supervisé pour l'extraction d'événements TimeML en anglais et français

View metadata, citation and similar papers at core.ac.uk brought to you by CORE provided by HAL-Rennes 1 Techniques d’apprentissage supervis´e pour l’extraction d’´ev´enements TimeML en anglais et fran¸cais B´eatrice Arnulphy, Vincent Claveau, Xavier Tannier, Anne Vilnat To cite this version: B´eatrice Arnulphy, Vincent Claveau, Xavier Tannier, Anne Vilnat. Techniques d’apprentissage supervis´e pour l’extraction d’´ev´enements TimeML en anglais et franc¸ais. Conf´erence en recherche d’information et applications, CORIA 2014, Mar 2014, Nancy, France. 16 p., 2014. <hal-01027563> HAL Id: hal-01027563 https://hal.archives-ouvertes.fr/hal-01027563 Submitted on 22 Jul 2014 HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est archive for the deposit and dissemination of sci- destin´ee au d´epˆot et `a la diffusion de documents entific research documents, whether they are pub- scientifiques de niveau recherche, publi´es ou non, lished or not. The documents may come from ´emanant des ´etablissements d’enseignement et de teaching and research institutions in France or recherche fran¸cais ou ´etrangers, des laboratoires abroad, or from public or private research centers. publics ou priv´es. Techniques d’apprentissage supervisé pour TimeML l’extraction d’événements en anglais et français Béatrice Arnulphy∗, Vincent Claveau†, Xavier Tannier§, Anne Vilnat§ ∗Inria-Rennes-BretagneAtlantique,†IRISA-CNRS,Rennes,France [email protected]@irisa.fr §Univ.ParisSud,LIMSI-CNRS,Orsay,France [email protected]@limsi.fr RÉSUMÉ. L’identificationdesévénementsauseindetextesestunetâched’extractiond’infor- mations importante et préalable à de nombreuses applications. Au travers des spécifications TimeML et des campagnes TempEval, cette tâche a reçu une attention particulière ces der- nières années, mais aucun résultat de référence n’est disponible pour le français. Dans cet articlenoustentonsderépondreàceproblèmeenproposantplusieurssystèmesd’extraction, en faisant notamment collaborer champs aléatoires conditionnels, modèles de langues et k- plus-proches-voisins.Cessystèmessontévaluéssurlefrançaisetconfrontésàl’état-de-l’art surl’anglais.Lestrèsbonsrésultatsobtenussurlesdeuxlanguesvalidentnotreapproche. ABSTRACT. Identifying events from texts is an information extraction task necessary for many NLP applications. Through the TimeML specifications and TempEval challenges, it has re- ceivedsomeattentioninthelastyears,yet,noreferenceresultisavailableforFrench. Inthis paper,wetrytofillthisgapbyproposingseveraleventextractionsystems,combiningforin- stanceConditionalRandomFields,languagemodelingandk-nearest-neighbors.Thesesystems areevaluatedonFrenchcorporaandcomparedwithstate-of-the-artmethodsonEnglish. The verygoodresultsobtainedonbothlanguagesvalidateourwholeapproach. MOTS-CLÉS: Identification d’événements, extraction d’information, TimeML, TempEval, CRF, modèledelangues,anglais,français. KEYWORDS: Event identification, information extraction, TimeML, TempEval, CRF, language modeling,English,French. 1. Introduction La détection d’événements dans les textes est une pierre angulaire pour de nom- breusesapplicationsd’accèsàl’information(systèmesdequestions-réponses,dedia- logue, de fouille de textes...). Ces dernières années, cette tâche a reçu une certaine attentionautraversdesconférences-compétitionsTempEval1(2007,2010,2013).Ces conférencesontorganisédeschallengesd’extractiond’événementsenfournissantdes corpus annotés au format TimeML (cf. sec. 2.1) dans plusieurs langues, ainsi qu’un cadred’évaluationquiapermisd’établirdesrésultatsderéférenceetpermettantdes comparaisonspertinentesentredifférentssystèmes. Cependant,malgrélesuccèsduchallengemultilingueTempEval-2,aucunpartici- pantn’aproposédesystèmespourlefrançais,toutestâchesconfondues.Àcejour,la situationesttelleque: –lesquelquesétudesdédiéesàl’extractiond’événementsenfrançaisnepeuvent pasêtrecomparéesentreelles; –les performances des systèmes développés ne peuvent être comparées à celles dessystèmesétat-de-l’art(développéssurl’anglais). Le travail décrit dans cet article tente de répondre à ce double problème en pro- posantdessystèmespourl’identificationd’événementspourlefrançais.Ilssontéva- luésdansdifférentscadresdemanièreàlescompareràl’état-de-l’art,notammentles systèmes développés pour l’anglais. Plus précisément, les tâches que nous abordons sont celles de l’identification des événements et des noms marqueurs d’événements. Nos systèmes se veulent souples pour pouvoir être adaptés facilement à différentes langues ou types de données. Ils sont basés sur des techniques d’apprentissage clas- siques – arbres de décision, champs aléatoires conditionnels (Conditional Random Fields,notéCRFparlasuite),k-plus-proches-voisins(notékNN)–maistirentparti deressourceslexicalessoitexistantes,soitconstruitesdemanièresemi-automatique. Cessystèmes sonttestéssurdifférents corpusd’évaluation,y comprisceuxduchal- lengeTempEval-2.Ilssontd’unepartappliquésauxdonnéesenanglais,cequinous permetdepositionnerlesperformancesobtenuesparrapportauxmeilleurssystèmes del’état-de-l’art,etd’autrepartsurlefrançais. L’articleeststructurédelamanièresuivante.Danslasection2,nousrevenonstout d’abordsurcequiconstituelecadredenotretravail,àsavoir,lestâchesd’extractionde TempEvaletleschémad’annotationTimeML.Nousprésentonsensuiteensection3 une revue des systèmes de l’état-de-l’art sur ces tâches. Nous décrivons ensuite nos systèmes d’extraction (section 4) avant de présenter les résultats obtenus dans nos différentesexpériencesenanglais(section5)puisenfrançais(section6). 1.❤tt♣✿✴✴✇✇✇✳t✐♠❡♠❧✳♦r❣✴t❡♠♣❡✈❛❧✷✴ 2. Extractiond’événements:lecadreTempEval Les conférences TempEval, à travers les challenges qui y ont été organisés, ont offert un cadre incontournable aux travaux sur l’extraction d’événements. Ces chal- lengesreposentrésolumentsurlelangagedespécificationtemporelleISO-TimeML. Danslasuitedecettesection,nousprésentonsquelquesélémentsdecelangageavant deprésenterplusprécisémentleschallengesTempEval. 2.1. TimeML La définition utilisée dans les challenges TempEval de ce qu’est un événement temporel suit les spécifications du langage ISO-TimeML (Pustejovsky et al., 2010). TimeML a été développé pour l’annotation et la standardisation des événements et desexpressionstemporellesdansleslanguesnaturelles.Seloncettenorme,unévéne- mentestdécritdemanièregénériquecomme“acovertermforsituationsthathappen oroccur” (Pustejovsky etal.,2003). Ce schéma d’annotationpermet notammentde repérerdanslestextes(pourledétailetdesexemples,voir(Sauríetal.,2005)): –les expressions événementielles (repérées par une balise <EVENT>), avec leur classeetattributs(temps,aspect,polarité,modalité).Ilyaseptclassesd’événements: aspectuel ASPECTUAL, action I_ACTION, prédicat d’état I_STATE, occurrence OC- CURRENCE,perceptionPERCEPTION,rapportREPORTINGetétatSTATE; –lesexpressionstemporellesetleurvaleurnormalisée(<TIMEX3>); –les relations temporelles entre événements et expressions temporelles (<TLINK>); –lesrelationsaspectuelles(<ALINK>)etmodales(<SLINK>)entreévénements; –lesmarqueurslinguistiquesquipermettentcesrelations(<SIGNAL>). Ce schéma d’annotation a tout d’abord été utilisé pour annoter de l’anglais, puis appliqué à d’autres langues (avec quelques changements et adaptations du guide d’annotation à chaque langue traitée). Les corpus annotés en TimeML sont appe- lés corpus TimeBank : TimeBank 1.2 (Pustejovsky et al., 2006) pour l’anglais, FR- TimeBank (Bittar, 2010) pour le français... En pratique, il faut noter que les événe- mentsdanscescorpussontmajoritairementdesverbesetdesdates.Lesévénements detypesnominaux,bienqu’importantspourdenombreusesapplications,sontmargi- naux, ce qui est susceptible de poser des problèmes spécifiques à leur identification (cf.sections5et6). Dans cet article, nous nous concentrons sur la tâche d’identification des événe- mentstelsquedéfinisparlabaliseTimeML<EVENT>(Verhagenetal.,2010)(équi- valent à la tâche B de TempEval-2). Un exemple d’un tel événement, tiré du corpus annoté TimeBank-1.2, est donné ci-dessous2 : la ligne (1) est la phrase avec deux événementsannotésetleslignes(2)et(3)décriventlesattributsdesévénements. (1) The financial <EVENT eid="e3" class="OCCURRENCE">assistance</EVENT> from the World Bank and the International Monetary Fund are not <EVENT eid="e4" class="OCCURRENCE">helping</EVENT>. (2) <MAKEINSTANCE eventID="e3" eid="ei377" tense="NONE" aspect="NONE" pola- rity="POS"pos="NOUN"/> (3) <MAKEINSTANCE eventID="e4" eid="ei378" tense="PRESENT" as- pect="PROGRESSIVE"polarity="NEG"pos="VERB"/> 2.2. ChallengesTempEval Ilyaeuàcejourtroiséditionsdescampagnesd’évaluationsTempEval(conjointes auxconférencesSemEval3). TempEval-14 (Verhagenetal.,2007)s’intéressaitàladétectionderelationsentreen- tités préalablement annotées. Cette première édition ne proposait que des textes en anglais. TempEval-25 (Verhagen et al., 2010) s’est concentré sur la détection d’événements, d’expressionstemporellesetderelationstemporelles.Cettecampagneestmultilingue (comprenant notamment l’anglais, le français, l’espagnol) et les tâches ont été plus précisémentdéfiniesparrapportàTempEval-1. TempEval-36 (UzZaman et al., 2013) s’inscrit dans la continuité des éditions précé- dentes.Ils’agitlàaussid’évaluerl’extractiond’événementsetderelationstemporelles maisseulsl’anglaisetl’espagnolsontproposés.Parailleurs,undesfocusdecenou- veauchallengeétaitd’évaluerl’impactdel’ajoutdedonnéesd’entraînementannotées automatiquementauxdonnéesannotéesmanuellement. Commenousl’avonsmentionnéauparavant,dansnotreétude,nousnousconcen- trons sur l’extraction d’événements (marqués par des verbes ou des noms) comme définis initialement dans le challenge TempEval-2. Par ailleurs, notre but étant de produire et d’évaluer des systèmes pour le français, nous utilisons, entre autres, les donnéesdéveloppéesdanslecadredeTempEval-2. 3. Travauxconnexes Différents travaux se sont intéressés à l’annotation et l’extraction automatique d’événements. La plupart l’ont fait dans un cadre spécifique à une application, avec 2.Tiréede❚✐♠❡❇❛♥❦✲✶✳✷✴❞❛t❛✴t✐♠❡♠❧✴❆❇❈✶✾✾✽✵✶✵✽✳✶✽✸✵✳✵✼✶✶✳❤t♠❧ 3.❤tt♣✿✴✴s❡♠❡✈❛❧✷✳❢❜❦✳❡✉✴s❡♠❡✈❛❧✷✳♣❤♣ 4.❤tt♣✿✴✴✇✇✇✳t✐♠❡♠❧✳♦r❣✴t❡♠♣❡✈❛❧✴ 5.❤tt♣✿✴✴s❡♠❡✈❛❧✷✳❢❜❦✳❡✉✴s❡♠❡✈❛❧✷✳♣❤♣❄❧♦❝❛t✐♦♥❂t❛s❦s★❚✺ 6.❤tt♣✿✴✴✇✇✇✳❝s✳②♦r❦✳❛❝✳✉❦✴s❡♠❡✈❛❧✲✷✵✶✸✴t❛s❦✶✴ unedéfinitionpropredecequ’étaitunévénement,notammentdansdescontextesde veille (Besançon et al., 2011, par exemple sur événements sismiques). Ces défini- tions applicatives menant souvent à des systèmes dédiés, difficiles à évaluer hors de ces cadres, ces travaux ne sont pas discutés ici. Dans cette section, nous présentons les travaux les plus proches des nôtres sur ce domaine, qu’ils aient été faits dans le cadredeTempEval-2ounon,maisutilisantladéfinitionlinguistiquementmotivéeet généralistedesévénementsproposéedansTimeML. 3.1. Extractiond’événementsdéfinisenTimeML NousmentionnonsicilestravauxsurlesévénementsausensTimeMLenanglais puis en français. Le système EVITA (Saurí et al., 2005) a pour objectif d’extraire les événements en combinant indices linguistiques et approches statistiques, et uti- liseWordNetcommeressourceexterne.Cesystèmeaétéévaluésurlecorpusanglais TimeBank1.2. Avec le système STEP, Bethard et Martin (2006) cherchent à classi- fier tous les items TimeML avec une approche par apprentissage s’appuyant sur des attributslinguistiques,sansressourcesexternes.Cesmêmesauteursontégalementdé- veloppé deux systèmes baseline (MEMORIZE et une simulation d’EVITA). Bien que tous les items TimeML étaient recherchés, les auteurs se sont intéressés particuliè- rement aux événements nominaux. Ils sont arrivés à la conclusion que la détection automatique de tels événements nominaux (noms notés <event>) n’est pas triviale, du fait de la grande variété d’expressions possibles et donc du manque de données d’apprentissage. Parentetal.(2008)onttravailléàl’extractionsurlefrançaisdesélémentsdéfinis parTimeML.Ilssesontnotammentintéressésauxlocutionsadverbialesd’indication temporelle. Leur système repose sur un étiquetage syntaxique, sur des patrons syn- taxiques définis manuellement et sur une version du lexique VerbAction (Tanguy et Hathout, 2002). Ils ont utilisé pour leur travail un corpus de bibliographies et de ro- mans manuellement annotés, réalisé avant la publication du FR-TimeBank. À notre connaissance,ils’agitdesseulstravauxsurl’identificationd’événementsdetypeTi- meMLsurlefrançais. 3.2. Extractiond’événementsdanslecadredeTempEval-2 PlusieurssystèmesontétéproposésdanslecadredelacompétitionTempEval-2, travaillant pour la plupart sur l’anglais. Le système TIPSEM (Llorens et al., 2010) reposesurunapprentissageartificielparCRFetdesattributsdedifférentesnatures: lemmes,parties-du-discours,informationssyntaxiquesobtenuesautomatiquementou pardesrèglesécritesàlamain,informationssémantiquestiréesdeWordNet.Cesys- tème a obtenu les meilleurs résultats à TempEval-2 et a été utilisé comme référence pourTempEval-3. Le système EDINBURGH (Grover et al., 2010) s’appuie quant à lui sur une combi- naison de sous-systèmes effectuant une segmentation du texte, une reconnaissance d’entitésnomméesparrèglesetparapprentissageartificiel,uneanalysesyntaxiquede surface.Ilexploitedesinformationslexicalescollectéessurlesdonnéesd’apprentis- sageetsurWordNet. TRIOS (UzZaman et Allen, 2010) est un système basé sur de l’apprentissage artifi- cielparréseauxlogiquesdeMarkovexploitantlesannotationsdel’étiqueteur TRIPS (Allenetal.,2008)(étiqueteurannotantdesattributsprochesdeceuxTimeML). Enfin, le système JU_CSE (Kumar Kolya et al., 2010), le moins performant dans la compétition, consiste simplement en une collection de règles d’extraction d’événe- ments,construitesmanuellement,etexploitantunétiquetageenparties-du-discours. Touscessystèmesetleursperformancesapportentdesenseignementsimportants. Ainsi,laplupartreposentclassiquementsurdesapprochesparapprentissage,etsans surprise,commepourbeaucoupdetâchesd’extractiond’informationparannotation, lesCRFsemblentparticulièrementadaptés.Ilsmettentégalementenexerguelanéces- sitédedisposerd’informationssémantiquesavecunecouverturesuffisammentimpor- tantepourgérerlavariétédesexpressionsd’événements,notammentpourlesnoms. Lessystèmesquenousprésentonsdanscetarticlepartagentdoncdenombreuxpoints communsavecceux-ci(cf.sectionsuivante)puisqu’ilsreposentsurunapprentissage supervisé, utilisant notamment les CRF, et également des lexiques obtenus en partie automatiquement. 4. Systèmesd’extraction Les systèmes d’extraction que nous proposons se veulent souples pour pouvoir êtrefacilementadaptésàdesnouvelleslanguesoutextes.Commepourdenombreux systèmesdel’état-de-l’art,ilss’inscriventdansuncadrestandardd’apprentissagear- tificiel supervisé : des données annotées avec les éléments TimeML recherchés sont fourniespourentraînernossystèmes,quisontensuiteévaluéssurunjeudedonnées detestdisjoint.Latâched’apprentissageestdoncunetâched’annotationdestextes: le but des classifieurs est d’assigner une étiquette à chaque mot indiquant s’il est un événement ou non. Certains événements étant exprimés par des syntagmes compo- sésdeplusieursmots,leschémad’annotationBIOestutilisé(Bindiqueledébutdu syntagme,Ilacontinuité,etOsontpourlesmotshorsdusyntagmeévénement).Les données d’entraînement sont des extraits de corpus annotés avec ces étiquettes pour chaquemotetsontdécritspardifférentsattributsquenousdétaillonsci-dessous,qui sontensuiteexploitésparlestechniquesd’apprentissagequenousprésentonsensous- section 4.2 et 4.3. Après la phase d’entraînement, pour annoter de nouveaux textes, àchaquemotdechaquephrase,lesclassifieursinférésdécidentdel’étiquettelaplus probableenfonctiondesattributsdumotcourantetducontexteenvironnant. 4.1. Attributs Les attributs que nous utilisons pour décrire les mots en vue de leur étiquetage seveulentsimplesàobtenirautomatiquement.Ils’agittoutd’aborddesmots-formes, lemmesetparties-du-dicours.CesattributsclassiquesenTALsontappelésparlasuite attributsinternes.Dansnosexpériences,ilssontobtenusavecTreeTagger(❤tt♣✿✴✴ ✇✇✇✳✐♠s✳✉♥✐✲st✉tt❣❛rt✳❞❡✴♣r♦❥❡❦t❡✴❝♦r♣❧❡①✴❚r❡❡❚❛❣❣❡r). D’autresattributs,ditsexternes,apportentdesinformationslexicalesquisemblent importantespournostâchesd’extraction.Ilssonttirésd’unepartdelexiquesexistants, spécialiséssurlesévénementsougénéralistes: –pour le français, chaque mot est annoté selon qu’il appartient ou non aux lexiques VerbAction (Tanguy et Hathout, 2002) et The Alternative Noun Lexi- con (Bittar, 2010). Le premier est une liste des verbes et de leurs nominalisations décrivant des actions (eg. enfumage, réarmement); le second complète cette liste en recensantlesnomsd’événementsquinesontpasdesdéverbaux(eg.miracle,tempête). –pourl’anglais,chaquemotestannotéselonqu’ilappartientounonàl’unedes huit classes de synsets liées à des événements ou actions (change, communication, competition,consumption,contact,creation,motion,stative). Nousutilisonségalementdesinformationslexicalesconstruitesautomatiquement, àsavoirlesEventivenessRelativeWeightLexicons(notésERWparlasuite),ensui- vantlesprincipesquenousavonsdéveloppésdansdestravauxprécédents(Arnulphy etal.,2012a).Nousneredétaillonspaslesprincipesdeconstructiondeceslexiques valuésici,quipeuventêtretrouvésdanslesréférencescitées.Ceslexiquesproduisent deslistesdemotsassociésàdesvaleursindiquantleurprobabilitéd’exprimerunévé- nement.Danslesexpériencesrapportéesdanslasuitedecetarticle,ceslexiquessont construits à partir de corpus journalistiques (corpus de dépêches AFP et Wall Street Journal). Ilfautnoterqueceslexiquesdonnentdesinformationssurdesmotspolysémiques. Ainsi, la plupart des mots contenus dans ces lexiques peuvent dénoter une action, que l’on veut alors extraire, ou le résultat d’une action, qui n’est pas à extraire (par exemple, enfoncement, décision). Ils ne sont donc pas suffisants par eux seuls, mais fournissentdesindicesintéressantsàexploiterdansdesméthodespluscomplexes. 4.2. SystèmesparCRFetpararbresdedécision Comme nous l’avons expliqué, la tâche d’extraction des événements est vue comme une tâche d’annotation pour laquelle nous inférons un classifieur à partir de données d’entraînement annotées. Parmi les nombreuses techniques d’apprentis- sage possibles pour ce faire, nous nous sommes intéressés dans un premier temps à deuxd’entreelles,classiquementutiliséspourcetypedetâche:leschampsaléatoires conditionnels(CRF),utiliséesparexempleparLlorensetal.(2010),etlesarbresde décisions(DT),quiontmontrédebonnesperformancesdansnosprécédentstravaux (Arnulphy,2012). Les DT que nous utilisons pour nos expériences sont ceux inférés par C4.5 (Quinlan, 1993) tels qu’implémentés dans WEKA (Hall et al., 2009). L’inté- rêtdesDTestleurcapacitéàmanipulerdesattributsdedifférentenature:nominaux (parties-du-discours),booléens(appartenanceauxlexiques),numériques(valeurdans les lexiques ERW)... Pour prendre en compte l’aspect séquentiel des textes, chaque motestdécritparsesattributs(cf.sec.4.1)etceuxdesdeuxmotsprécédentsetsui- vants(relativementàlaquantitédedonnéesd’apprentissage,l’utilisationdecontextes pluslongsintroduitdesattributstropvariablespourêtreinformatifs). Les CRF (Lafferty et al., 2001) sont désormais des outils incontournables des tâchesd’annotation.Àl’inversedesDT,cesmodèlesgraphiquesprennentnaturelle- mentencomptelesdépendancesséquentiellesdenosdonnéestextuelles.Enrevanche, dans la plupart des implémentations, il n’est pas possible d’utiliser des attributs nu- mériques. L’échelle des valeurs ERW est donc découpée en 10 portions de largeurs égales,ettransformésenattributsnominauxà10valeurs.Dansnosexpériences,nous utilisonsl’implémentationWAPITI(Lavergneetal.,2010)quiamontrésarobustesse surdenombreusestâchesdeTAL. 4.3. LesystèmecombinéCRF-kNN Lesdeuxsystèmesprécédentssontdesapprochesrelativementclassiquesdel’ex- tractiond’information.Nousproposonsunsystèmesupplémentaire,s’appuyantéga- lementsurlesCRF,maisquichercheàencomblercertaineslimites.Eneffet,lesCRF permettentbiendeprendreencomptel’aspectséquentieldesdonnées,maisavecun historique assez contraint. Une séquence introduisant un événement X, comme dans l’exemple1ci-dessousserajugéedifférentedecelledel’exemple2dufaitdudécalage produitparl’insertionde“l’événementde”.L’événementYneseradoncpasdétectée même si la première phrase, pourtant ressemblante, est dans les données d’entraîne- ment. 1)“c’estàcetteoccasionques’estproduitX...” 2)“c’estàcetteoccasionques’estproduitl’événementdeY...” Parailleurs,ilestdifficiled’intégrerdesconnaissancesnumériques(degréERW)ou d’indiquerdessynonymespossiblesdanscesmodèles. Pourpalliercesproblèmes,nousadjoignonsauxCRFunkNNpourdéciderdela classedescandidatsévénements.LeCRFestemployécommeexpliquédanslasous- sectionprécédente,maistouteslessorties(étiquetages)possiblesetleurprobabilités sontgardées.LekNNcalculeensuiteunesimilaritéentrelesinstancesàclasser(tous lesévénementsrepérésquellesquesoientleursprobabilités)etlesdonnéesd’entraî- nement. Dansnotrecas,cettesimilaritéestcalculéeavecdesmodèlesdelangues.Cesmo- dèles permettent en effet d’attribuer une probabilité (notée PLM) à une séquence de mots.Plusprécisément,pourchaquecandidatpotentielidentifiéparleCRF,saclasse C∗ (événement ou non) est décidée en prenant en compte la probabilité trouvée par leCRF(PCRF(C)),maisaussicellesissuesdesmodèlesdelanguesurlecandidatet surlescontextesdroit(contD)etgauche(contG)ducandidat.Unmodèle(ensemble de probabilités estimées sur les données) est donc appris pour chaque classe et pour chaqueposition(contextesdroitougaucheoucandidat)àpartirdesdonnéesd’entraî- nement.C’est-à-direquepourchaqueclasse,onestimelesprobabilitésd’occurrences desséquencesdemotssurl’ensembledescontextesdroitdesévénementsdelaclasse considérée; il est fait de même sur les contextes gauche et sur le événements eux- mêmes.OnnotecesmodèlesrespectivementMC,MDC etMGC.Finalement,ona: C∗ =argmaxPCRF(C)∗PLM(contG|MGC)∗PLM(candidat|MC)∗PLM(contD|MDC) C Dansnosexpériences,lesmodèlesdelangueutiliséssontdesmodèlesbigrammepour MDC etMGC,etunigrammepourMC (lescandidatsévénementsétantsouventcom- posésd’unseulmot-forme);lalongueurdescontextesgaucheetdroitestde5mots. Ainsi,sil’exemple2estdanslesdonnéesd’entraînement,lasimilaritédescontextes gaucheaveclaséquence1serasuffisammentimportantepourdétecterl’événement. Par ailleurs, l’intérêt des modèles de langue est aussi de pouvoir exploiter natu- rellementdesinformationslexicalesauseindulissage.Eneffet,pouréviterquel’ab- senced’unn-grammedanslesdonnéesd’entraînementproduiseuneprobabiliténulle pour toute la séquence testée, il est usuel d’assigner une probabilité, même petite, à ces n-grammes non vus. Diverses stratégies ont été proposées pour ce faire (Ney et al., 1994). Pour notre part, nous utilisons une stratégie de repli (backoff) sur les unigrammes pour les bigrammes absents et un lissage laplacien, simple à mettre en œuvre,pourlesmodèlesunigrammes.L’originalitédenotretravailestd’utiliseraussi ce lissage pour tirer parti des informations apportées par nos lexiques. Ainsi, pour WordNet en anglais et les lexiques français, un mot absent des données d’entraîne- ment est remplacé, le cas échéant, par un mot présent du même synset ou du même lexique. Si plusieurs mots sont éligibles pour le remplacer, celui maximisant la pro- babilitéestchoisi.Danstouslescas,unepénalité(unfacteurmultiplicatifλ<1)est appliquéeàlaprobabilité;elleestestiméeparvalidationcroiséesurlesdonnéesd’en- traînement.Pourunmotwabsentdesdonnéesd’entraînementd’unmodèleM,ona donc: P(w|M)=λ∗max{P(wi|M)|wi,wdanslemêmelexique/synset} Les valeurs ERW sont quant à elles interprétées comme des valeurs d’appartenance (les mots absents du lexique ont un score de 0). La pénalité de remplacement d’un motparunautredecelexiqueestproportionnelleàl’écartentrelesvaleursdesdeux motsconcernés. L’avantagedecettecombinaisonséquentielleestd’exploiterlacapacitédesCRF à isoler des syntagmes intéressants grâce à une décision multi-critères (partie-du- discours,lemmes...),etd’utiliserlesmodèlesdelanguespourunjugementplusglobal surlescontextes,avecunepriseencomptenaturelledesinformationslexicalesàtra- verslesstratégiesdelissage.

Description:
Avec le système STEP, Bethard et Martin (2006) cherchent à classi- .. (2012b) est plus riche que le TempEval-2 français en ce qui concerne . Building a TimeBank for French : A Reference Corpus Annotated According to Ekbal A., Bandyopadhyay S., « JU_CSE_TEMP : A First Step towards Eva-.
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.