Jean-Gabriel Ganascia, chercheur au laboratoire d'informatique de l’Université Pierre-et-Marie-Curie et président du comité d’éthique du CNRS : « L’intelligence artificielle peut changer le monde ! »

Entre mythe et réalité, l’intelligence artificielle suscite de nombreux fantasmes dans l’inconscient collectif. A minima, la thématique soulève des interrogations philosophiques et éthiques, mais aussi politiques et économiques. Si les premières réflexions datent du milieu du 19e siècle, elles se sont considérablement enrichies au fil du temps, au gré des progrès technologiques, scientifiques et médicaux. Ces dernières années, la "discipline" a pris une tournure très concrète, notamment dans le domaine de la santé. « Il existe aujourd’hui des machines qui surpassent clairement les capacités humaines », constate Jean-Gabriel Ganascia, professeur à la faculté des sciences de Sorbonne Université, chercheur au LIP6 (laboratoire d’informatique de Paris 6) et président du comité d’éthique du CNRS. Il cite l’exemple d’un système capable de fournir un meilleur diagnostic que 21 dermatologues réunis sur des cas de mélanomes, référencés à partir d’images prises par des smartphones. 

Jean-Gabriel Ganascia Le médecin sera-t-il, demain, dépossédé de son savoir-faire par la machine ? De l’apprentissage supervisé à l’autonomie totale, il y a un immense pas à franchir. « L’intelligence artificielle pourra faciliter la recherche et la sélection de données essentielles (articles scientifiques, études cliniques), mais elle devra d’abord être en mesure d’expliciter les éléments d’informations qui ont conduit au résultat proposé, avant d’envisager d’autres développements. Les résultats obtenus seront également fonction de l’état de la connaissance et des données renseignées par l’humain. Ça ne restera qu’un outil d’aide à la décision. La responsabilité sera toujours celle du médecin », explique-t-il. 
 

Un choix de société
Dans un contexte marqué par l’explosion des masses de données, certaines précautions s’imposent. En France, la réglementation qui encadre l’accès et l’exploitation des bases de données publiques est indispensable, mais elle pourrait s’avérer contre-productive. Entre la nécessaire protection des libertés individuelles et la perspective de brider des initiatives potentiellement porteuses pour la collectivité, la ligne de crête s’annonce étroite. « L’intelligence artificielle nous permettra de nous affranchir des dogmes, et pourquoi pas d’ouvrir de nouveaux paradigmes. L’analyse prédictive est par exemple un champ d’application extrêmement riche. Ce pourrait notamment être un moyen efficace de développer la prévention sanitaire, en anticipant mieux les risques comportementaux, mais c’est aussi un levier qui pourrait être utilisé à des fins moins morales, comme le profilage des individus dans un but purement mercantile », confirme Jean-Gabriel Ganascia. 

Certaines personnalités, à l’instar de Stephen Hawking ou Elon Musk, ont parfois perçu l’intelligence artificielle comme une menace existentielle pour l’humanité. Selon eux, le risque serait double. A court terme, il serait étroitement lié aux intentions de ceux qui possèdent la technologie. A long terme, les machines devenues autonomes et dotées d’une volonté propre pourraient soudain, à l’issue d’un événement singulier, se retourner contre les hommes. Pour Jean-Gabriel Ganascia, cette hypothèse ne tient pas debout. Les arguments allégués ne se fondent sur aucune certitude tangible. « Le big data ne fera pas tout, contrairement à une croyance largement répandue et parfois même alimentée par le pouvoir politique », prévient-il. Selon lui, la question de l’intelligence artificielle ne doit pas être confisquée par les "sachants" ou les décideurs. C’est avant tout un choix de société qui mérite un débat de fond, impliquant tous les citoyens. 

 

EN SAVOIR PLUS