Les attentats du 11 septembre 2001 contre le World Trade Center et le Pentagone ont ouvert une nouvelle étape dans la lutte mondiale contre les réseaux terroristes, souvent appelée  «guerre contre le terrorisme». Malgré les objections à ce terme, il y a un sens important dans lequel il est tout à fait approprié: l’émergence de réseaux terroristes multinationaux et de groupes armés bien entraînés et motivés par la religion constitue une menace nouvelle et sans précédent pour l’ordre international moderne (Shultz Jr. 2005). En effet, la nature de la menace en évolution de ces réseaux terroristes a de profondes implications pour l’action gouvernementale à toutes les échelles (Howard 2009). Ces développements remodèlent les politiques étrangères et de défense ainsi que les doctrines militaires et de renseignement destinées à soutenir ces politiques (National Commission on Terrorism 2000, DeRosa 2004). Surtout, ils conduisent également le développement de nouvelles technologies pour permettre une mise en œuvre efficace de ces politiques sur le terrain.
cette partie présente une gamme de recherches en cours sur les modèles et les méthodes de calcul qui peuvent être utilisés dans la lutte contre les réseaux terroristes multinationaux modernes. La menace qu’ils représentent diffère radicalement des menaces antérieures à la sécurité internationale principalement en raison de plusieurs facteurs clés:

  • Les organisations terroristes modernes n’ont pas de foyer territorial fixe, sont organisées en réseaux complexes non hiérarchiques et poursuivent des objectifs hautement adaptables (Dishman 2005, Howard 2009). La nature fluide de ces réseaux rend difficile l’identification efficace des agents ennemis et de leurs cibles possibles, ainsi que le suivi ou la prédiction des actions ennemies.
  • Ces réseaux sont fondamentalement des acteurs non étatiques, avec des agendas religieux et idéologiques plutôt que territoriaux ou économiques. Cela rend très difficile la détermination de leurs objectifs stratégiques et donc la prévision de leur comportement probable ou l’élaboration de contre-mesures efficaces.
  • La grande puissance des armes relativement peu coûteuses et facilement disponibles permet aux cellules terroristes de fonctionner efficacement avec une petite empreinte opérationnelle, et les rend donc encore plus difficiles à suivre.
  • La nature hautement interconnectée de l’infrastructure de communication moderne permet aujourd’hui aux réseaux terroristes largement distribués d’échanger des messages avec un faible risque de détection, en raison du volume extrêmement important d’informations non pertinentes. Des systèmes de dissimulation d’informations relativement simples suffisent donc souvent à protéger les communications cachées des terroristes.

Pour toutes ces raisons, la technologie de l’information et la modélisation informatique sont maintenant d’une importance capitale pour la doctrine et la pratique de la sécurité nationale, principalement dans le renseignement (O’Connell 2005), mais aussi pour l’évaluation et la planification tactique et stratégique. Des renseignements précis et opportuns sont essentiels à la lutte contre le terrorisme. La complexité et la fluidité du nouvel environnement de menace, composé de multiples acteurs non étatiques organisés en réseaux et alliances hautement non hiérarchiques, rendent l’agrégation et l’analyse du renseignement plus difficiles et plus importantes que jamais.
Ainsi, nous avons besoin de solutions efficaces à deux problèmes fondamentaux:

  • trouver des informations pertinentes dans de vastes collections de données brutes (surcharge d’informations)
  • découvrir des schémas significatifs constitués de nombreux éléments de données, chacun étant insignifiant, mais significatif lorsqu’il est pris avec le reste du modèle (exploration de données).

Actuellement, les analystes doivent passer au crible d’énormes quantités de données structurées et textuelles pour tenter de trouver des liens significatifs entre les relations, les événements et les activités afin de produire une intelligence exploitable. De nouveaux outils théoriques et pratiques sont nécessaires pour faciliter ce processus.
Il est rare qu’une information isolée soit utile par elle-même. Habituellement, une intelligence significative doit être construite à partir de constellations de bits d’information connectés, chacun insignifiant en soi, mais ensemble important.
Par exemple, rétrospectivement, nous savons que tous les 19 pirates de l’air du 11 septembre étaient liés, avant l’attaque, à divers individus connus sur la liste de surveillance terroriste du gouvernement des États-Unis (DeRosa 2004). Dans plusieurs cas, plusieurs liens indépendants ont relié différents individus. Ainsi, en principe, les informations nécessaires pour trouver et arrêter les attaquants étaient disponibles au préalable.
Cependant, même dans les meilleures circonstances, le faire avec les outils existants aurait été pratiquement impossible.

Il y a en effet deux problèmes principaux:

  • premièrement, rechercher efficacement des grappes d’informations significatives dans l’énorme corpus de données disponibles (à la fois open source et classifiées),
  • distinguer les grappes qui sont significatives de celles qui ne le sont pas.

Il est certainement vrai qu’il y a beaucoup d’individus qui étaient également liés aux pirates de l’air du 11/9 qui n’étaient pas impliqués dans les attaques; de telles informations, s’elles ne sont pas exclues, submergeraient toute autre trouvée et jugée utile. Des difficultés similaires existent pour trouver des informations utiles à partir d’énormes quantités de données textuelles collectées; Au problème de filtrage pertinent à partir d’informations non pertinentes s’ajoute la difficulté d’interpréter le sens du texte libre, souvent en plusieurs langues.

En plus de faciliter l’analyse de données à grande échelle, les modèles computationnels peuvent nous aider à raisonner plus efficacement dans notre engagement envers la menace terroriste moderne. Les réseaux terroristes idéologiques / religieux modernes ont des objectifs qui diffèrent radicalement des ambitions politiques et économiques locales des États-nations et des terroristes politiques des années 1970 et 1980 (Howard 2009).

Les «nouveaux terroristes» ont  un objectif plus large et plus abstrait qui consiste à perturber l’ordre international, et donc une pléthore de stratégies et de cibles possibles, ce qui rend la prévision de scénario beaucoup plus difficile. Ce problème est exacerbé par le rôle central de l’idéologie religieuse dans ces réseaux, ce qui fait qu’il est assez difficile pour les personnes extérieures à ces groupes religieux de comprendre et de prédire leurs actions (Cronin 2002). Les modèles computationnels de la planification et de la psychologie accusatoire peuvent aider à explorer les implications de différents modèles d’intentions ennemies. De plus, les modèles formels de processus de raisonnement ont l’avantage spécifique de rendre explicites les hypothèses et les implications du processus analytique, et peuvent ainsi grandement améliorer la qualité du produit de renseignement final.
Le but de cette partie est de présenter les recherches actuelles et approfondies sur les méthodes computationnelles qui peuvent aider à résoudre ces problèmes difficiles, afin que les décideurs et les scientifiques puissent mieux mobiliser les efforts pour développer de nouvelles technologies pour soutenir le contre-terrorisme. A cette fin, le travail rassemblé ici est avant tout une recherche fondamentale qui, espère-t-on, conduira bientôt à des applications nouvelles et utiles.
Ce travail est le fruit de la Conférence Descartes sur les modèles mathématiques antiterroristes, qui s’est tenue les 28 et 29 septembre 2006 au Rayburn House Office Building du Congrès des États-Unis à Washington, DC. Les différentes parties sont le fruit de plusieurs  articles sélectionnés présentés à la conférence ainsi que d’autres chercheurs, et ont été évalués par des pairs. Nous avons cherché à inclure autant de recherches pertinentes que possible.

La partie I, «Accès à l’information», contient quatre chapitres.

  • Dans Le chapitre 1, le conférencier Ophir Frieder décrit un système prototype pour le nouveau problème du «traitement complexe de l’information documentaire». Le problème consiste à analyser et indexer efficacement les informations dans les documents du monde réel, notamment les textes, etc. L’auteur montre comment une approche intégrée d’un tel problème de traitement de l’information peut conduire à une solution plus grande que la somme de ses parties.
  • Dans le chapitre 2, Srinivasan et S. Srihari, traite la manière avec laquelle les images de documents peuvent être récupérées en faisant correspondre des signatures manuscrites dans les documents. La méthode, basée sur l’application de champs aléatoires conditionnels à des caractéristiques basées sur l’image, est capable de traiter efficacement la présence de bruit d’image et de signatures de chevauchement de texte non pertinentes.
  • Dans le chapitre 3,  Zhao, Santos, Nguyen et Mohamed, discutent des méthodes de synthèse de texte, qui peuvent aider les analystes à trouver et à assimiler rapidement des informations critiques. Les auteurs montrent comment la synthèse multi-documents peut être améliorée par des mesures qui mesurent la diversité de l’ensemble de documents à résumer.
  • Dans le chapitre 4, Knepper, Fox et Frieder, décrivent une boîte à outils logicielle qui intègre plusieurs méthodes de récupération pour permettre la récupération adaptative, la navigation et la visualisation des résultats de recherche. Un tel outil peut permettre aux analystes de trouver plus facilement les informations nécessaires et de visualiser les relations entre les données récupérées de manière plus utile.

La partie II, « Analyse de texte« , contient trois chapitres :

  • Dans le chapitre 5, R. K. Srihari, décrivent des méthodes qui peuvent effectivement découvrir des informations cachées dans des collections de documents en détectant des liens entre des concepts exprimés dans des textes disparates. Une telle «révélation inapparente d’informations» peut aider les analystes à trouver des informations secrètes sur des adversaires cachés dans de grandes collections de documents open source.
  • Dans le chapitre 6, Taghva, décrivent des méthodes qui identifient automatiquement les informations «sensibles non classifiées» dans les documents numérisés, de sorte que ces informations puissent être rédigées avant que les documents soient mis à la disposition du public.
  • Dans le chapitre 7, Guidére, Howard et Argamon, montrent comment la recherche et l’analyse textuelles peuvent être améliorées par une bonne compréhension de certains aspects sémantiques, pragmatiques et culturels de l’utilisation des langues par les terroristes.

La partie III, «Modèles graphiques», contient quatre chapitres.

  • Dans le chapitre 8, Robert Haralick, décrit la théorie des dicliques, une structure de réseau qui peut être interprétée comme une sorte de «module fonctionnel» dans un réseau, tel qu’un réseau d’associations connues entre terroristes.
    Extraire des dicliques d’un réseau donné peut révéler sa structure cachée et suggérer quelles connexions inobservées entre des entités connues peuvent exister.
  • Dans le chapitre 9, Koester et Schmidt, montrent comment une méthode connexe, à savoir l’analyse conceptuelle formelle, peut être utilisée pour trouver des lacunes significatives dans les ensembles de données relationnels, tels que ceux rassemblés dans le travail de renseignement. Les auteurs démontrent leur approche sur l’analyse de la base de connaissances sur le terrorisme du MIPT et sur l’exploitation web.
  • Dans le  chapitre 10, Lefebvre développe une algèbre de choix stratégique au sein et entre les groupes d’agents en interaction, basée sur le travail précédent de l’auteur sur les modèles mathématiques du choix individuel. Le modèle étend les constructions théoriques du jeu avec des aperçus psychologiques dans un cadre formel de théorie des graphes. Le chapitre 11, de Grice, Scavo et McDaniel, rend compte de la validation empirique des modèles psychologiques algébriques de Lefebvre, montrant leur validité dans certaines situations du monde réel.

La partie IV, « Analyse des conflits« , contient quatre chapitres.

  • Dans le chapitre 12, Shearer et Marvin, présentent des méthodes pour classer les modèles d’instabilité des états-nations qui permettent de prédire le développement de conflits significatifs ou même l’échec de l’état. Les modèles appliqués tiennent compte des caractéristiques sociales, économiques et politiques des États-nations examinés.
  • Dans le chapitre 13, Hendrickson montre comment raisonner sur les questions contrefactuelles implique plusieurs types d’hypothèses sur les scénarios antécédents possibles et pertinents – rendant ces hypothèses explicites est important pour évaluer correctement les résultats analytiques.
  • Dans le chapitre 14, Braynov, explique comment l’extraction d’un «graphique de coordination» à partir d’une analyse de lien intégrée d’un réseau ennemi et de ses actions peut être utilisée pour reconnaître et contrer les plans ennemis. Le formalisme peut également être utilisé pour distinguer les rôles des différents agents ennemis.
  • Dans le chapitre 15, Silverman, Bharathy et Nye, décrivent un jeu de simulation utilisé pour analyser le développement de conflits ethno-politiques. Le jeu peut être joué par des agents humains ou logiciels, et a été évalué par des tests de correspondance par rapport à des situations de conflit réelles.

La lutte contre le terrorisme multinational n’est pas susceptible d’être gagnée de manière décisive dans un avenir proche. C’est une lutte à long terme dans laquelle l’ennemi est exceptionnellement adaptatif et conçoit continuellement de nouvelles tactiques et stratégies, et nous devons donc constamment améliorer nos méthodes d’acquisition et d’analyse de l’intelligence.
Des méthodes telles que celles décrites ici promettent d’offrir des approches fondamentalement nouvelles pour structurer, analyser et comprendre l’information. Il est essentiel que ces modèles aident à expliciter les hypothèses nécessaires pour tirer des conclusions, permettant aux analystes de mieux explorer les effets de telles hypothèses sur leurs analyses. Comme le rôle des modèles informatiques dans la lutte antiterroriste ne fera qu’augmenter dans les années à venir, il est crucial que les décideurs à tous les niveaux travaillent à comprendre ces méthodes, leur potentiel et leurs risques.

Références:

Arquilla, J. and Ronfeldt, D. F. 2001. Networks and Netwars: The Future of Terror, Crime, and Militancy, Rand Corporation.
Cronin, A. K. 2002. Behind the curve: Globalization and international terrorism. Reprinted in R. D. Howard, R. L. Sawyer, & N. E. Bajema (eds.), Terrorism and Counterterrorism: Understanding the New Security Environment (3rd ed.), New York: McGraw-Hill, 2009.
DeRosa, M. 2004. Data Mining and Data Analysis for Counterterrorism, Washington,
DC: CSIS Press.
Dishman, C. 2005. The leaderless nexus: When crime and terror converge. Reprinted
in R. D. Howard, R. L. Sawyer, & N. E. Bajema (eds.), Terrorism and Counterterrorism:
Understanding the New Security Environment (3rd ed.), New York: McGraw-Hill, 2009.
Howard, R. D. 2009. The new terrorism. Reprinted in R. D. Howard, R. L. Sawyer, & N. E. Bajema (eds.), Terrorism and Counterterrorism: Understanding the New Security Environment (3rd ed.), New York: McGraw-Hill, 2009.
National Commission on Terrorism, 2000. Countering the Changing Threat of International Terrorism: Report of the National Commission on Terrorism, Pursuant to Public Law 277, 105th Congress. Available from http://www.fas.org/irp/threat/commission.html
O’Connell, K. M. 2005. The role of science and technology in transforming American
intelligence. In P. Berkowitz (ed.), The Future of American Intelligence (pp. 139–
174), Hoover Institution.
Shultz Jr., R. H. 2005. The era of armed groups. In P. Berkowitz (ed.), The Future of American Intelligence (pp. 1–39), Hoover Institution.