Jean-Christophe Pesquet : "Optimiser pour gérer des masses de données"
Jean-Christophe Pesquet est nommé membre senior de l’Institut Universitaire de France au 1er octobre 2016. Expert de l’optimisation, ses travaux visent à structurer la discipline en consolidant son socle théorique, pour mieux répondre aux enjeux du Big Data dans divers domaines d’applications liés au traitement d’informations.
Vous travaillez sur l’optimisation, qu’est-ce que cela signifie en termes de recherches ?
Jean-Christophe Pesquet : Essayer de faire les choses de manière optimale, c’est quelque chose de très intuitif… Mais du point de vue de la recherche, cela a principalement deux débouchés. Tout d’abord, la prise de décisions optimales : à partir de certains critères, on se demande quel est le meilleur choix à effectuer, ce qui pose des problèmes d’apprentissage. Et il y a également les problèmes d’estimation optimale où, à partir de données et de mesures, on doit déduire des informations originelles manquantes, ce que l’on appelle des problèmes inverses.
Dans mon programme de recherche « Optimisation computationnelle pour le traitement des données », un premier défi se joue d’un point de vue fondamental. En optimisation, il est possible de chercher à développer une heuristique pour résoudre un problème particulier, mais cette approche empirique peut être hasardeuse. Aussi souhaitons-nous vérifier que les solutions algorithmiques proposées se justifient d’un point de vue théorique. Nous étudions pour cela la convergence des algorithmes. En effet, ces derniers ont le plus souvent une structure itérative devant conduire à une restitution progressive et rapide des données recherchées. Des problèmes fondamentaux peuvent être abordés au cours de cette démarche. Dans le domaine des problèmes inverses par exemple, retrouver des signaux manquants reste délicat si le modèle d’observation associé est connu de manière imprécise ou même est inconnu (on parle de problème myope ou aveugle). Ainsi, certaines méthodes sont développées depuis des années afin d’optimiser les variables correspondant aux signaux dégradés tout en déterminant les caractéristiques du système qui a généré les données. Il reste cependant beaucoup à faire pour mieux comprendre le fonctionnement de ces méthodes et les rendre plus efficaces.
D’autre part, il est souvent nécessaire de réaliser un compromis entre différents objectifs apparemment contradictoires qu’on cherche à optimiser conjointement, ce qui a un impact immédiat sur la qualité des résultats produits. Pour cela, un facteur pondère un objectif par rapport à un autre, mais, dans les méthodes actuelles, ce facteur est souvent choisi de manière manuelle, ce qui requiert l’aide d’un expert. On souhaiterait effectuer le choix de ce facteur de manière automatique et fiable.
La masse de données à traiter aujourd’hui doit aussi représenter un défi.
J.-C. P. : Tout à fait, on parle même de « malédiction de la dimension » ! L’augmentation des flux de données à traiter est juste gigantesque, les moyens d’acquisition étant passés de données en 2D, à la 3D, ou même 3D + temps. Dans le même temps, des moyens d’acquisition hyperspectraux permettent d’enregistrer des informations sur une grande gamme de longueurs d’ondes. Il s’agit d’un véritable défi computationnel, car il nous faut toujours garantir un traitement avec une certaine optimalité, alors même que l’on peut avoir des millions de variables à optimiser, et ce dans un temps aussi réduit que possible. Au-delà de leur volume, les données sont également de plus en plus hétérogènes, ce qui demande par exemple de résoudre des problèmes d’optimisation sur des graphes (représentation informatique) complexes comme dans le cas des réseaux sociaux.
Pour cela, il est nécessaire de faire appel à des architectures de calculs parallèles. Mais il ne suffit pas de définir un algorithme d’optimisation puis de lancer son exécution en parallèle, la parallélisation doit être intégrée dès le début de la conception de l’algorithme. Il y a un réel besoin de concevoir des méthodes d’optimisation parallèles en prenant en compte les contraintes techniques qui existent, comme par exemple les problèmes de synchronisation, où toutes les unités de calcul ne travaillent pas au même rythme mais doivent aboutir à un résultat commun. C’est un grand défi pour l’avenir que de concevoir des algorithmes permettant de gérer les problèmes de latence qui peuvent survenir et qui réduisent l’efficacité des moyens de calculs parallèles.
Face à ces masses de données, les problématiques évoluent aussi. Jusque-là, nous avions des solutions performantes soit pour résoudre les problèmes discrets, avec des variables prenant un nombre fini d’états, soit pour optimiser des problèmes continus, comme fournir une estimation d’une valeur réelle entre un minimum et un maximum. De plus en plus, les situations actuelles demandent de prendre en compte les deux types de problèmes simultanément. Il est donc indispensable de produire des méthodes qui permettent de gérer les deux types de variables, et de puiser dans les différents savoir-faire accumulés afin de proposer de nouvelles approches mixtes.
Enfin, dans les approches informatiques développées jusqu’à maintenant en estimation, deux classes de méthodes étaient principalement mises en oeuvre : l’optimisation, mais aussi la simulation. L’approche par simulation consiste à tirer des échantillons selon des techniques de Monte-Carlo afin de respecter les lois de probabilité sous-jacentes aux données traitées, puis de moyenner l’information obtenue pour en tirer une estimation des quantités initiales recherchées. Là encore, je souhaite marier les deux types d’approches, pour réconcilier la simulation stochastique avec l’optimisation. Les dynamiques générées par les méthodes d’optimisation permettent effectivement une exploration moins aléatoire, plus intelligente, de l’espace des variables inconnues.
Quelles sont les applications de ce type de travaux ?
J.-C. P. : Les applications de mon projet sont essentiellement tournées vers des domaines dans lesquels j’ai déjà eu des contacts et acquis une certaine expérience. Je travaille notamment avec Neurospin (CEA) pour des applications à l’imagerie par résonance magnétique avec des schémas d’acquisition parallèle. Neurospin s’intéresse à des technologies employant des champs magnétiques de plus en plus intenses afin d’accroître la résolution des images médicales, mais cela pose de nouvelles problématiques. Dans le cadre d’une collaboration avec l’Institut national de l’audiovisuel (Ina), nous cherchons à restaurer des images de fonds d’archives tout en augmentant leurs résolutions spatiale et temporelle. En effet, pour les nouvelles télévisions à très haute résolution, la qualité de vieux extraits vidéos devient inacceptable. Il faut déduire des informations présentes dans la scène de départ des valeurs de luminance qui nous sont a priori inconnues, pour pouvoir passer d’un pixel à 4, par exemple. Toujours dans le domaine de la vidéo, je collabore avec Sublab, une entreprise qui est un leader européen dans le domaine de l’acquisition à très haute vitesse, de l’ordre de plusieurs milliers d’images par seconde. Cela sert pour les effets spéciaux au cinéma, pour réaliser des publicités, pour filmer certaines expériences scientifiques ou des évènements sportifs. Ils sont confrontés au problème important de la présence d’un bruit de flicker : la lumière artificielle étant alimentée par courant alternatif, cela crée des variations indésirables de l’intensité lumineuse dans les images ainsi que des altérations colorimétriques. Nous travaillons à supprimer cet effet.
Mais un des aspects passionnants de l’optimisation, c’est que ses champs d’application sont très variés, puisqu’au-delà des signaux et des images, nous traitons aussi toutes sortes de données. Je collabore, par exemple, avec l’Institut Français du Pétrole et des Énergies Nouvelles (IFPEN) sur des problèmes d’inférence de réseaux de gènes. La production des biocarburants fait intervenir certains champignons, dont il est utile de mieux comprendre le fonctionnement au niveau génétique afin de maximiser les rendements de production. Je m’intéresse également à la classification dans les réseaux sociaux, ou à la gestion de l’énergie.
Parcours
Jean-Christophe Pesquet vient de rejoindre CentraleSupélec en septembre 2016, au sein du Center for Visual Computing. Il a soutenu sa thèse en 1990 à l’Université Paris 11, où il a commencé à enseigner la même année. Il a effectué un séjour de 6 mois à Northeastern University de Boston en 1993. En 1999, Jean-Christophe Pesquet a obtenu son Habilitation à Diriger des Recherches à l’Université Paris 11, et est devenu professeur à l’Université Paris-Est Marne-la-Vallée, au sein du Laboratoire d’Informatique Gaspard-Monge (LIGM - CNRS/Université Paris-Est Marne-la-Vallée/ESIEE Paris/École des Ponts ParisTech). En 2013, il est devenu directeur adjoint de ce laboratoire. Jean-Christophe Pesquet est Fellow IEEE. Il attache beaucoup d’importance à l’opportunité que les chercheurs confirmés ont de faire rayonner leur savoir-faire dans des pays moins favorisés que le nôtre , notamment en Europe Centrale, en associant de jeunes chercheurs de ces pays à leurs travaux.