Intégration d’une mesure d’indépendance pour la fusion d’informations MouloudKharoune∗,ArnaudMartin∗ ∗UMR6074IRISA,UniversitédeRennes1/IUTdeLannion,RueEdouardBranly BP3021,22302Lannioncedex 5 [email protected],[email protected] 1 0 2 Résumé. Lafusiond’informationsfaitintervenirplusieurssourcesd’informa- tions afin d’améliorer la décision en terme de certitude et de précision. Quelle n a que soit l’approche retenue pour réaliser la fusion d’informations, l’hypothèse J d’indépendance est généralement une hypothèse forte et incontournable. Nous 2 proposonsdanscetarticleuneapprochepermettantd’intégrerunemesured’in- 2 dépendanceavantderéaliserlacombinaisondesinformationsdanslecadrede lathéoriedesfonctionsdecroyance. ] I A 1 Introduction . s c [ Tel que repris par Martin (2005), la fusion d’informations consiste à combiner des infor- mationsissuesdeplusieurssourcesafind’aideràlaprisededécision.Lesapprochesdefusion 1 v d’informations cherchent donc à tenir compte des redondances des informations issues des 4 différentes sources. Les approches de fusion n’ont bien sûr d’intérêt que si les sources sont 1 imparfaites et fournissent des informations peu sûres et précises qui se complètent. Ainsi il 6 fautdoncchercheràmodéliserauxmieuxlesimperfectionsdessourcesetdesdonnées.Pour 5 cefaire,différentesthéoriesdel’incertainontétésollicitées.Parmielles,citonslathéoriedes 0 probabilités,dessous-ensemblesflousetdespossibilitésouencorelathéoriedesfonctionsde . 1 croyance. Quel que soit le cadre théorique retenu, lors de l’étape de combinaison de l’infor- 0 mation, l’hypothèse d’indépendance des sources est généralement faite. Cette hypothèse est 5 1 plus ou moins forte. Par exemple, l’indépendance statistique est généralement retenue pour : appliquer plus aisément la combinaison bayésienne du cadre probabiliste. En effet, les esti- v mationspeuvents’avérertrèsvitecompliquéessanscettehypothèse.Danslecasdelathéorie i X desfonctionsdecroyance,ilestquestiond’indépendancecognitivedéfinieparShafer(1976). r Elle correspond à une absence de communication entre les sources sans que celles-ci soient a pourautantindépendantesstatistiquement.Malheureusementcettehypothèsed’indépendance estrarementvérifiéeoujustifiée. Dans ce travail nous nous intéressons plus particulièrement à la théorie des fonctions de croyancecarelleoffreunoutilrichedemodélisationetdegestiondel’information.Enparti- culier,Chebbahetal.(2012,2013)ontrécemmentproposédesapprochespourmesurerl’in- dépendancedessourcesendistinguantdeplusladépendancepositiveetnégative. Nous poursuivons ainsi cet article en présentant les principes de base de la théorie des fonctionsdecroyanceetenparticulierlanotiond’indépendanceetd’affaiblissement.Nousex- Intégrationd’unemesured’indépendancepourlafusiond’informations posonsensuitel’approcheproposéepermettantdetenircompted’unemesured’indépendance avantlacombinaisondesfonctionsdecroyance.Nousillustronsceprincipeàpartird’exemples générés. 2 Théorie des fonctions de croyance La théorie des fonctions de croyance issue des travaux de Dempster (1967), repris par Shafer (1976) est depuis quelques années employée dans des applications de fusion d’infor- mations.Nousprésentonsci-dessouslesprincipesdecettethéorie. 2.1 Principesdebase ConsidéronslecadredediscernementΩ = {ω ,ω ,...,ω }correspondantàl’ensemble 1 2 n de toutes les hypothèses possibles de décision d’un problème donné. Les éléments ω repré- i sententainsitoutesleshypothèsesexclusivesetexhaustives. L’ensemble 2Ω = {A/A ⊆ Ω} = {∅,ω ,ω ,...,ω ,ω ∪ω ,...,Ω}, est composé de 1 2 n 1 2 touteslesdisjonctionsdeΩ.L’espacepuissance2Ωcomporte2|Ω| =2néléments. Unefonctiondemasseestunefonctionde2Ω versl’intervalle[0,1]quiaffecteàchaque sous-ensemble de 2Ω une valeur de l’intervalle [0,1] représentant sa masse de croyance élé- mentaire.Elles’écrit: mΩ :2Ω (cid:55)→ [0,1] (1) telleque: (cid:88) mΩ(A)=1 (2) A⊆Ω Unsous-ensemblede2Ωdemassedecroyancenon-nulleestunélémentfocal.Lamasseaffec- téeàunélémentfocalAreprésenteledegrédecroyanceélémentairedelasourceàcequela solutionduproblèmesoitA.Unefonctiondemassepermetainsidereprésenterdesconnais- sancesincertainesetimprécisesd’unesourced’informations.Engénéral,nousmanipulonsdes fonctionsdemassenondogmatiques(i.e.dontl’ignoranceΩestélémentfocal),d’unepartcar ellespermettentdesystématiquementmodéliserlapartd’ignoranceintrinsèqueàtoutesource, maiségalementcartoutefonctiondemassenondogmatiqueestdécomposableenfonctionsde masseàsupportsimple(i.e.quinecomportequedeuxélémentsfocauxdontΩ).Lesfonctions demasseàsupportsimplesontnotéesAw tellesquem(A) = 1−w ∀A (cid:54)= Ωetm(Ω) = w. Ainsiunefonctiondemassenondogmatiquepeuts’écrire: mΩ =(cid:13)∩A⊂ΩAw(A) (3) où(cid:13)∩ estdonnéesparl’équation(5)ci-dessous. Lacrédibilitébeletlaplausibilitéplsontdesfonctionsdualesdéfiniesàpartirdelafonc- tionsdemasseetreprésententrespectivementunefonctiondecroyanceminimaleetmaximale. Ainsilafonctiondeplausibilitéestdonnéepar: (cid:88) pl(X)= m(Y)=bel(Ω)−bel(Xc)=1−m(∅)−bel(Xc), (4) Y⊂Ω,Y∩X(cid:54)=∅ KharouneetMartin oùXcestlecomplémentairedeX. Une fois les fonctions de masse mΩ déterminées pour chaque source d’informations S , j j plusieurs opérateurs de combinaison sont envisageables en fonction des hypothèses initiales. Lesopérateursdetypeconjonctifpeuventêtreemployéslorsquelessourcessontfiablesetin- dépendantescognitivement.Lacombinaisonconjonctives’écritpourdeuxfonctionsdemasse mΩetmΩetpourtoutX ∈2Ωpar: 1 2 (cid:88) mΩConj(X)=m1(cid:13)∩ m2 = mΩ1(Y1)mΩ2(Y2). (5) Y1∩Y2=X Notons que l’élément neutre pour cette règle est la masse : mΩ(X) = 1 si X = Ω et 0 Ω sinon.Lorsquecettehypothèsedefiabilitéesttropforteetquel’onnepeutsupposerqueseule unedes sourcesest fiable, lacombinaison disjonctivepeutalors êtreemployéetoujours sous l’hypothèsed’indépendancecognitive: (cid:88) mΩ (X)= mΩ(Y )mΩ(Y ). (6) Dis 1 1 2 2 Y1∪Y2=X Notons que l’élément neutre pour cette règle est la masse : mΩ(X) = 1 si X = ∅ et 0 ∅ sinon.Laplupartdesrèglesdecombinaisonissuesdesrèglesconjonctivesetdisjonctives,en particulierpourrépartirleconflit,supposentquelessourcessontindépendantescognitivement. Martin(2010)enrappellequelquesunes. Denœux(2008)proposeunefamillederèglesquinenécessitentpasl’hypothèsed’indépen- dancecognitive.Ainsiselonlecomportementconjonctifoudisjonctifdeuxrèglesprincipales sontdéfinies,larègleprudenteethardie.Larègleprudentes’écritpourlesfonctionsdemasse nondogmatiques: mΩ1 (cid:13)∧ mΩ2 =(cid:13)∩A⊂ΩAw1(A)∧w2(A) (7) où∧estlemaximum.Larèglehardies’écritdemêmeenconsidérantleminimumaulieudu maximum. Si ces règles sont efficaces lorsque les sources sont dépendantes, cette notion de dépendanceoud’indépendancen’estparclairementdéfinieparDenœux(2008). Lorsqu’uneconnaissancesupplémentairegarantieunsous-ensembleA⊂Ω,nouspouvons définirunefonctiondemasseconditionnellepar: mΩ[A](X)=(mΩ(cid:13)∩ mΩA)(X) (8) oùmΩ(A)=1estlafonctiondemassegarantissantlaréalisationdeA. A 2.2 Notiond’indépendance L’indépendancestatistiqueestdéfiniepourdeuxvariablesAetBparP(A|B)=P(A)ou defaçonéquivalenteparP(A∩B)=P(A)P(B).CetteindépendanceestétendueparShafer (1976) dans le cadre de la théorie des fonctions de croyance et est donnée par : pl(A∩B) = pl(A)pl(B).BenYaghlaneetal.(2002a,b)définissentuneindépendancedoxa- tiqueentredesvariablesdéfiniessurdescadresdediscernementdifférentséventuellement. Cesdéfinitionsdel’indépendancenecorrespondentpasàlanotiond’indépendancecogni- tiveentrelessourcesd’informations.Cettedernièreserévèletrèsdifficileàmesurer.Chebbah Intégrationd’unemesured’indépendancepourlafusiond’informations etal.(2012,2013)proposentunedéfinitiond’unemesured’indépendanceentredeuxsources d’informationsétenduesàunemesurededépendancepositiveetnégative.Lamesured’indé- pendance entre deux sources est définie comme une sorte de corrélation entre deux sources issues d’un clustering (classification non-supervisée) sur les fonctions de masse de chacune dessourcesenassociantensuitelesclusters.Si|Ω| = n,leclusteringdesfonctionsdemasse issuesdelasourceS fourninclusters,demêmepourS .Lesclustersdesdeuxsources(Cl , 1 2 k1 Cl )sontassociésdefaçonnonsymétriqueenmaximisant: k2 |Cl ∩Cl | αi = k1 k2 , i=1,2 (9) k1,k2 |Cl | ki Il est ensuite possible de définir une fonction de masse sur Ω = {I,I¯} représentant les I deuxpossibilités:indépendantetdépendant(I¯)delasourceS parrapportàlasourceS : 1 2 mΩI (I)=β(1−α1 ) mkΩ1Ik2(I¯)=βα1 k1k2 (10) mkΩ1Ik2(I∪I¯)=k11k−2 β k1k2 où β est un facteur d’affaiblissement permettant de tenir compte du nombre d’observations danschaquecluster.AinsilacroyanceélementairequelasourceS estindépendantedeS est 1 2 donnéeparlamasse: (cid:32) n (cid:33) 1 (cid:88) mΩI(X)= mΩI (X) (11) n k1k2 k1=1 oùk estleclusterdelasourceS associéauclusterk delasourceS .Lamoyenneestici 2 2 1 1 employéedufaitdeladépendancedesfonctionsdemasse. Chebbah et al. (2012, 2013) proposent un prolongement pour différencier la dépendance positive(lasourceS suitlesavisdelasourceS )etladépendancenégative(lasourceS dit 1 2 1 lecontrairedesavisdelasourceS ).Ainsi,unefonctiondemasseconditionnelleestconstruite 2 surlecadredediscernementΩ ={P,P¯}: P mΩP [I¯](P)=1−Dist(Cl ,Cl ) mkΩ1Pk2[I¯](P¯)=Dist(Cl ,Ckl1 ) k2 (12) mkΩ1Pk2[I¯](P ∪P¯)=0 k1 k2 k1k2 oùDist(Cl ,Cl )estladistanceentrelesdeuxclustersdépendantsCl etCl liéscomme k1 k2 k1 k2 étantlamoyennedesdistancesentrelesfonctionsdemassedesobjetsencommun: 1 |Clk(cid:88)1∩Clk2| Dist(Cl ,Cl )= d(mΩ ,mΩ ) (13) k1 k2 |Cl ∩Cl | 1,j 2,j k1 k2 j=1 où d est la distance proposée par Jousselme et al. (2001) entre les fonctions de masse de la sourceS etS respectivement. 1 2 SinousconsidéronsqueI¯= P ∪P¯,nouspouvonsréécrirelesdeuxfonctionsdemasse précédentesdanslecadredediscernementI = {I,P,P¯}.Nousdéfinissonsainsilafonction KharouneetMartin demasseentredeuxclustersdeS etS : 1 2 mI (I)=mΩI (I)=βα1 mmkIkI11kk22((PP¯))==mmkΩkΩ11kIIk22((II¯¯))mmΩkΩ1PPk2k[[II1¯¯k]]((2PP¯))==ββ((11−−ααk111k2))(D1i−st(DCilst(,CCllk1,)Clk2)) (14) mmkIkI11kk22((PI∪∪PP¯∪)=kP¯1k)m2=Ωk1Imk2Ω(kI¯I1)km2(IΩk1P∪k2I¯[I)¯]=(P1∪−P¯β)=k01k2 k1 k2 k1k2 k1k2 LafonctiondemassesurladépendancedelasourceS parrapportàS estdonnéepar: 1 2 (cid:32) n (cid:33) 1 (cid:88) mI(X)= mI (X) (15) n k1k2 k1=1 où k est le cluster de la source S associé au cluster k de la source S . Cette fonction de 2 2 1 1 masse représente ainsi l’ensemble des croyances élémentaires sur l’indépendance et dépen- dancepositiveetnégativedelasourceS faceàlasourceS . 1 2 2.3 Notiond’affaiblissement Shafer(1976)aproposélaprocédured’affaiblissementsuivante: αmΩ(X) = αmΩ(X) ∀X ∈2Ω\Ω (16) αmΩ(Ω) = 1−α(1−mΩ(Ω)) (17) oùαestunfacteurd’affaiblissementde[0,1].Cetteprocédureestgénéralementemployéepour affaiblirlesfonctionsdemasseparlafiabilitéαdessourcesd’informations.Cetteprocédurea poureffetd’augmenterlamassesurl’ignoranceΩ.Smets(1993)ajustifiécetteprocédureen considérantque: mΩ[F](X) = mΩ(X) (18) mΩ[F¯](X) = mΩ(X) (19) Ω où mΩ(X) = 1 si X = Ω et 0 sinon, F et F¯ représentent la fiabilité et la non fiabilité et Ω mΩ[F]estunefonctiondemasseconditionnelementàlafiabilitéF.SoitF ={F,F¯}lecadre de discernement correspondant, et la fonction de masse représentant la connaissance sur la fiabilitédelasource: (cid:26) mF(F)=α (20) mF(F)=1−α. Afin de combiner les deux sources d’informations fournissant les deux fonctions de masse mΩ[F]etmF,ilfautpouvoirlesreprésenterdanslemêmeespaceΩ×F.Ainsi,nousdevons effectueruneextentionàvidesurlafonctiondemassemF,opérationquel’onnotemF↑Ω×F : (cid:26) mF(X) siY =Ω×X, X ⊆F mF↑Ω×F(Y)= (21) 0 sinon DanslecasdelafonctiondemassemΩ[F],ilfautdéconditionner: mΩ[F]⇑Ω×F(cid:0)(A×F)∪(Ω×F)(cid:1)=mΩ[F](A), A⊆Ω (22) Intégrationd’unemesured’indépendancepourlafusiond’informations Ilestainsipossibled’effectuerlacombinaison: mΩ×F(Y)=mF↑Ω×F(cid:13)∩ mΩ[F]⇑Ω×F(Y), ∀Y ⊂Ω×F (23) Conj Ensuiteilfautmarginaliserlafonctiondemasseobtenuepourrevenirdansl’espaceΩ: (cid:88) mΩ×F↓Ω(X)= mΩ×F(Y) (24) Conj {Y⊆Ω×F|Proj(Y↓Ω)=X} oùProj(Y ↓Ω)estlaprojectiondeY surΩ.Nousretrouvonsainsi: αmΩ(X)=mΩ×F↓Ω(X) (25) Mercier(2006)aproposéuneextensiondecetaffaiblissementencontextualisantlecoeffi- cientd’affaiblissementαenfonctiondesous-ensemblesdeΩ. 3 Intégration de l’indépendance dans une fonction de masse Nousavonsvuquelanotiondel’indépendanceestgénéralementuneinformationsupplé- mentairenécessaireàlafusiond’informations,maisnonpriseencomptedansleformalisme choisi. La section 2.2 propose une modélisation et estimation d’une mesure d’indépendance danslecadredelathéoriedesfonctionsdecroyance.Nousallonsicinousappuyersurleprin- cipe de l’affaiblissement présenté dans la section 2.3 afin de tenir compte de l’indépendance danslesfonctionsdemasseenvuedelacombinaison. Eneffet,lorsdelacombinaisonconjonctiveparexemplel’hypothèsed’indépendancecog- nitive des sources d’informations est nécessaire. Si les sources ne sont pas indépendantes on peutpenserqu’ellesnedevraientpasêtrecombinéesparcebiais.Cependant,commelemontre lasection2.2lessourcespeuventavoirdesdegrésdedépendanceetd’indépendance.L’infor- mation fournie sur l’indépendance n’est pas catégorique. Ainsi, combiner deux sources in- dépendantes fortement devraient tendre vers le résultat de la combinaison de deux sources indépendantes.Siunesourceestdépendanted’uneautresource,nouspouvonsconsidérerque cettepremièresourcenedoitpasinfluerlacombinaisonavecunesecondesource.Ainsicette sourcedoitreprésenterl’élémentneutredelacombinaison. Dans ce cas, il suffit d’appliquer la procédure d’affiblissement de la section 2.3 sur la fonctiondemassemΩ delasourceS enconsidérantl’indépendancedonnéeparlafonction 1 demassedel’équation(11)aulieudecelledel’équation(20)danslecasdelafiabilité. À présent, nous distinguons la dépendance positive de la dépendance négative. Si une sourceestdépendantepositivementd’uneautresource,ilnefautpasentenircompteetdonc tendreversunrésultatdecombinaisonquiprendraitcettepremièresourcecommeunélément neutre. Enfin si une source est dépendante négativement d’une autre source, il peut être in- téressant de marquer cette dépendance conflictuelle en augmentant la masse sur l’ensemble vide. Pour réaliser ce schéma, nous proposons d’affaiblir les fonctions de masse d’une source S enfonctiondesamesured’indépendanceàuneautresourceS ,donnéeparlafonctionde 1 2 massemI del’équation(15).Nousréécrivonsicicettefonctionsdemassedefaçonàsimplifier KharouneetMartin lesnotations: mI(I)=αβ mI(P)=α(1−β)γ (26) mI(P¯)=α(1−β)(1−γ) mI(I∪P ∪P¯)=1−α Ainsi,leparamètreαreprésentelafiabilitédelasourceS ,β l’indédendancedeS faceàS 1 1 2 etγ ladépendancepositivedeS faceàS .Cestroisparamètres,α,βetγ sontcomprisentre 1 2 0et1. Nousconsidéronsiciunefonctiondemassed’unesourcemΩenfonctiondesonindépen- danceoudépendanceàuneautresource.Ainsinousdéfinissons: mΩ[I](X)=mΩ(X) mΩ[P¯](X)=mΩ(X) (27) ∅ mΩ[P](X)=mΩ(X) Ω oùmΩ(X)=1siX =Ωet0sinonetmΩ(X)=1siX =∅et0sinon.Suivantlaprocédure Ω ∅ d’affaiblissement,nouseffectuonsuneextensionàvidesurlafonctiondemassemI : (cid:26) mI(X) siY =Ω×X, X ⊆I mI↑Ω×I(Y)= (28) 0 sinon LedéconditionnementdesfonctionsdemassemΩ[I],mΩ[P]etmΩ[P¯]estdonnépar: mΩ[I]⇑Ω×I(cid:0)(A×I)∪(Ω×I)(cid:1)=mΩ[I](A), A⊆Ω (29) oùI¯=P ∪P¯. mΩ(cid:2)P¯(cid:3)⇑Ω×I(cid:0)(A×P¯)∪(Ω×{I∪P})(cid:1)=mΩ(cid:2)P¯(cid:3)(A), A⊆Ω (30) mΩ[P]⇑Ω×I(cid:0)(A×P)∪(Ω×{I∪P¯})(cid:1)=mΩ[P](A), A⊆Ω (31) Ce dernier déconditionnement mène en fait à la masse de l’ignorance et est l’élément neutre delacombinaisonconjonctive. Nousréalisonsensuitelacombinaisonconjonctive: mΩ×I(Y)=mI↑Ω×I(cid:13)∩ mΩ[I]⇑Ω×I(cid:13)∩ mΩ(cid:2)P¯(cid:3)⇑Ω×I(Y), ∀Y ⊂Ω×I (32) Conj Lamarginalisationdelafonctiondemassepermetensuitederevenirdansl’espaceΩ: (cid:88) mΩ×I↓Ω(X)= mΩ×I(Y) (33) Conj {Y⊆Ω×I|Proj(Y↓Ω)=X} CetteprocédureréaliséepourlasourceS enrapportàlasourceS peutêtreréaliséepour 1 2 lasourceS auregarddelasourceS .Ainsilesdeuxfonctionsdemasseobtenuepeuventêtre 2 1 combinéesparlarègledecombinaisonconjonctivequisupposel’indépendance. Intégrationd’unemesured’indépendancepourlafusiond’informations 4 Illustration 4.1 Fonctionnementdel’affaiblissementparlamesured’indépendance Nousallonsdansunpremiertempsillustrerlefonctionnementdel’affaiblissementparla mesure d’indépendance. Nous considérons ici un cadre de discernement Ω = {ω ,ω ,ω }. 1 2 3 SupposonsquenousayonsdeuxsourcesS etS donnantdeuxfonctionsdemasse: 1 2 mΩ(ω )=0.2, mΩ(ω ∪ω )=0.5, mΩ(Ω)=0.3, (34) 1 1 1 1 2 1 mΩ(ω )=0.1, mΩ(ω ∪ω )=0.6, mΩ(Ω)=0.3 (35) 2 2 2 1 2 2 Lacombinaisonconjonctivedonne: mΩ (∅)=0.02, mΩ (ω )=0.18, mΩ (ω )=0.08, 1∩2 1∩2 1 1∩2 2 mΩ (ω ∪ω )=0.63, mΩ (Ω)=0.09 1∩2 1 2 1∩2 Cette combinaison conjonctive est effectuée avec l’hypothèse d’indépendance cognitive des deux sources. Si une connaissance externe permet de mesurer la dépendance positive et négativedelasourceS parrapportàlasourceS tellequefournieparl’équation(36),nous 1 2 devons en tenir compte avant la combinaison conjonctive. Supposons ainsi que α = 0.95, β = 0.05 et γ = 0.95 dans l’équation (36). Cette fonction de masse traduit donc une forte dépendancepositivedeS parrapportàS .Nousavonsainsilafonctiondemasse: 1 2 mI(I)=0.0475 mI(P)=0.8574 (36) mI(P¯)=0.0451 mI(I∪P ∪P¯)=0.05 Le tableau 1 présente les différentes étapes d’extension à vide, de déconditionnement et decombinaisondansl’espaceΩ×I.L’extensionàvideetledéconditionnementtransfèrent lesmassesurlesélémentsfocauxcorrespondantdel’espaceΩ×I.Lacombinaisondestrois fonctionsdemassedanscetespacefaitapparaîtrelamassesurl’ensemblevidequicorrespond àlapartdedépendancenégative. Letableau2présenteensuitelamarginalisationetlerésultatdecombinaisonaveclafonc- tiondemassem nonmodifiée(i.e.quel’hypothèsed’indépendancetotaledeS parrapportà 2 2 S estfaite).Nousconstatonsquelamassetransféréesurl’ignorancedevientplusimportante 1 quelorsdelacombinaisonconjonctivesanshypothèsesurladépendancepositive. Afin de bien illustrer le transfert de masse sur l’ensemble vide et sur l’ignorance, les fi- gures1et2représententlesmassesenfonctiondesvariationsdeα,β etγ pourunefonction de masse dogmatique quelconque. Ainsi sur la figure 1 représentant les variations de masse sur l’ensemble vide, α est fixé à 1, β et γ variant, alors que sur la figure 2 représentant les variationsdemassesurl’ignorance,γ estfixéà1,αetβ variant. Lafigure1montreainsiqueplusβ etγ sontpetitsplusonobtientunemasseimportante surl’ensemblevideetdoncunedépendancenégative.Laquantitéβ représentelapartd’indé- pendanceetlaquantitéγ représentelapartdedépendancepositive. Lafigure2présentequandàelle,lavariationdelamassesurΩ,l’ignorance.Cettemasse estdonnéedirectementparαβ quicontientdonclapartd’indépendanceβ etlafiabilitéαde lasource. KharouneetMartin focal mI↑Ω×I mΩ[I]⇑Ω×I mΩ[P¯]⇑Ω×I mΩ×I Conj ∅ 0.0451 ω ×I 0.0095 1 (ω ∪ω )×I 0.0237 1 2 Ω×I 0.0475 0.0142 Ω×P 0.8574 0.8574 (ω ×I)∪(Ω×P) 0.01 1 ((ω ∪ω )×I)∪(Ω×P) 0.025 1 2 Ω×P¯ 0.0451 Ω×(P ∪P¯) 1 (ω ×I)∪(Ω×(P ∪P¯)) 0.2 1 ((ω ∪ω )×I)∪(Ω×(P ∪P¯)) 0.5 1 2 Ω×I 0.05 0.3 TAB. 1– Détailsdel’affaiblissementdelamesured’indépendance:fonctionsdemassedans Ω×I. focal mΩ1×I↓Ω mΩ2 mΩ1×I↓Ω(cid:13)∩ mΩ2 ∅ 0.0451 0.0461 ω 0.0095 0.0085 1 ω 0.1 0.0945 2 ω ∪ω 0.0237 0.6 0.5743 1 2 Ω 0.9216 0.3 0.2765 TAB. 2– Détailsdel’affaiblissementdelamesured’indépendance:marginalisationetcom- binaison Nous illustrons ainsi le résultat escompté de l’affaiblissement par la mesure d’indépen- dance,c’est-à-direquenousretrouvonssurlamassedel’ensemblevidelaquantitédedépen- dancenégativeetsurl’ignorancelaquantitédefiabilitéetded’indépendance. 4.2 Influencesurlerésultatdecombinaison Afind’illustrerl’influencedelapriseencomptedelamesured’indépendancesurlesfonc- tions de masse, nous allons considérer ici les deux sources précédentes S et S qui four- 1 2 nissent les fonctions de masse données par les équations (34) et (35). Nous allons considé- rer trois cas pour chaque source avec un cas où la source S est plutôt indépendante de S 1 2 (α=0.95,β =0.95,γ =0.05),uncasoùelleestplutôtdépendantepositivement(α=0.95, β =0.05,γ =0.95)etuncasoùelleestplutôtdépendantenégativement(α=0.95,β =0.05, Intégrationd’unemesured’indépendancepourlafusiond’informations FIG. 1– Variation de la masse sur l’ensemble vide pour un affaiblissement par la mesure d’indépendanced’unemassedogmatique. FIG. 2– Variationdelamassesurl’ignoranceΩpourunaffaiblissementparlamesured’in- dépendanced’unemassedogmatique. γ =0.05).PourlasourceS nousconsidéronstroiscasmoinscatégoriqueenfixantlafiabilité 2 α = 0.9:lecasplutôtindépendant(β = 0.9,γ = 0.1),lecasplutôtdépendantpositivement (β =0.1,γ =0.9)etlecasplutôtdépendantnégativement(β =0.1,γ =0.1). Ainsi, le tableau 3 présente les résultats de la combinaison des deux sources en fonction deshypothèsesd’indépendanceetdedépendance,positiveounégativedesdeuxsourcesS et 1 S .Nousconstatonsquelorsquelesdeuxsourcessontplutôtindépendantesl’unedel’autre, 2 lesrésultatsobtenussontprochesdeceuxobtenusparlacombinaisonconjonctivedirectesous l’hypothèse d’indépendance. Lorsqu’une des deux sources est dépendante négativement de l’autre,lamassetransféréesurl’ensemblevideestimportante.Lorsquel’unedesdeuxsources est dépendante positivement la masse transférée sur l’ignorance mais de façon moins impor- tante que pour la dépendance négative. En effet, l’ensemble vide est un élément absorbant