Le Contemporain - L’intelligence artificielle (IA) représente-t-elle un danger direct pour l’espèce humaine ? Plusieurs personnalités de ce milieu, dont Elon Musk, avaient notamment récemment appelé à faire une pause dans ces avancées pour le bien de l’Humanité. Dès la sortie de Chat GPT, Meta s’est joint dans la course vers l’IA aux dépens de son Metaverse, Google également. L’IA est-elle l’avenir des nouvelles technologies ?
François Petitjean - L’IA ne peut être appréhendée dans un jugement prospectif « noir ou blanc ». Les dangers viennent essentiellement des applications liées à la communication et de leur possible manque de contrôle. L’exemple très bien illustré par la série de Netflix « Black mirror » dans un épisode « Joan is awfull » démontre à quel point l’image peut être manipulée, inventée de toutes pièces d’une manière crédible et donc manipulatrice. Chat GPT est un instrument organisé de collecte des connaissances destiné à argumenter un sujet, qui ensuite peut être un objet de communication, ce qui permet d’enrichir un discours ou un texte. Son objet peut être légitime ou non. C’est donc l’intention humaine qui est derrière la demande qui compte. Or, comme dans toute activité humaine, la bonne intention avance de pair avec celles qui le sont moins. Le commerce honnête a son pendant de trafics illégaux, le travail rémunéré a celui de l’esclavage, et les bonnes productions audiovisuelles ont celles de la pédo-criminalité et de la prostitution etc…
Le danger, pour répondre à la question, est donc potentiellement à évaluer par les instances internationales, commission européenne en tête. Le contrôle des communications « automatiques » sera un point clé de la bonne intelligence d’utilisation de l’IA de communication. Pour être clair, les applications intelligentes liées à la santé, la chirurgie, l’exploitation industrielle, la recherche, et même paradoxalement l’armement, sont celles qui représentent le moins de danger aujourd’hui. La communication est l’enjeu principal des administrations internationales sur le sujet. Il faut « gérer le mensonge », pour résumer.
Le projet « Image Bind » de Meta (M. Zuckerberg) est un développement de ce qui existe déjà mais en combinant 6 types de données pour se rapprocher des 5 sens humains +1. Google, de son côté avec sa « search generative expérience », reste sur son positionnement également pour s’approcher de la pensée de l’internaute en recherche. On voit donc que cette marche en avant par l’IA de ces deux géants est une promesse améliorant l’existant dans un sens « client ». Au fond les outils de type « écrans » cherchent à se rapprocher de ceux de type « mind » (cerveau-esprit) pour coller au plus près de l’imaginaire pour Meta et de l’attente pour Google. A bien y réfléchir, ce sont leurs positionnements de base qui poursuivent leur développement. D’ailleurs, Google a dès 2018 dans l’équipe Google Deep Mind, cherché à développer un système de contre-jeu vidéo destiné à battre les experts du moment. On est donc bien dans un schéma d’optimisation des capacités humaines, dans des univers virtuels. Mais une fois le masque de jeu retiré, la personne est la même, de retour dans son quotidien.
L’avenir est donc probablement dédié au monde de l’image, et au-delà, de l’imagination. Il est possible que les limites de cela ne soient pas identifiables, tant la production vidéo-game est riche et de plus en plus inter-agissante. Il faudra simplement vérifier les effets sur les gens, face aux addictions que peuvent générer les mondes parallèles chez des personnes en fuite du réel. Le tabac, l’alcool et la drogue ne sont peut être plus les premiers risques sanitaires du futur.
Le Contemporain - Une étude publiée par l’OCDE nous a révélé qu’à eux seuls, Etats-Unis et Chine, représentent 80% des investissements mondiaux de capital-risque dans l’intelligence artificielle (IA) en 2021. Que cela révèle-t-il de la compétition entre Pékin et Washington ? Où sont l’Europe et la France dans tout ça ?
Il est probable que la Chine soit à même d’égaler les Etats-Unis à terme sur ce sujet mais leurs approches sont fondamentalement différentes. Les Etats-Unis investissent par la Silicon Valley sur des technologies « hors objectifs » qui débouchent sur du concret par itération. Par exemple, Open AI a travaillé sans savoir où ils allaient arriver pendant des années, avant de concevoir ChatGPT, système issu d’un travail à but non lucratif « Machine Transformer ». Cela donne un espace de créativité quasi infini sur l’IA dite faible (sans conscience), et peut-être un jour sur une IA dite forte (en mesure de concevoir). La Chine procède de manière plus commerciale et ne lance des entreprises qu’après avoir certifié un objectif. En gros, ils étudient d’abord le potentiel d’intérêt, comme on le fait en marketing avant de lancer un nouveau produit. Cela limite le nombre de projets, mais permet de les boucler plus rapidement. Qui gagnera ? Est-ce vraiment une question intéressante au fond, puisque les découvertes seront partagées pour la plupart, exception faite de l’armement et de la recherche spatiale, sans doute.
L’Europe, de son côté, peut investir (prévision d’1Mds par an) pour aider, mais n’est pas une source d’action directe sur l’IA. Sa vocation jusqu’à présent est de soutenir l’IA projet par projet, comme ANTARES pour l’agriculture, ou WE VERIFY pour les enquêtes journalistiques, et beaucoup d’autres. L’ensemble de ces actions est décrit ici : Excellence et confiance en matière d’intelligence artificielle (europa.eu) . La France reste en pointe en Europe avec plus de 80 laboratoires d’IA, et plus de 500 startups spécialisées ce qui la place en tête des pays européens, dans le cadre du projet France 2030 lancé par E. Macron. Compte tenu des partages internationaux de technologies et de leurs applications, l’Europe dont la France, est extrêmement concentrée sur les systèmes de surveillance et de contrôle de l’information. L’enjeu de sécurité, évoqué dans la réponse à la première question sera sans doute le point majeur du travail des pays situés économiquement dans le sillage des Etats-Unis et de la Chine.
Le Contemporain - Les avancées rapides dans l’IA font-elles craindre une déshumanisation des métiers artistiques et intellectuels (mais pas que) ? 300 millions d’emplois seraient en jeu selon une étude de la banque Goldmann Sachs. Fantasme ou réalité ?
L’histoire récente de l’apparition de l’informatique individuelle et d’internet nous apprend que les mêmes inquiétudes existaient à l’époque. Malgré l’aspect facilitateur de la technologie dans le travail, les emplois se sont modifiés mais la masse de travail a augmenté sans fragiliser les employés des entreprises. L’adaptation est donc le mot clé. Aujourd’hui, ChatGPT donne le sentiment que certains jobs pourraient être remplacés, et que les étudiants n’auraient plus besoin de réviser, cauchemar pour les uns, rêve pour les autres ! Tout cela tient du fantasme, en effet, même si des formations dans le domaine de l’emploi, et de nouvelles structures d’apprentissage dans l’éducation seront nécessaires pour conserver toutes les valeurs ajoutées humaines, à ce jour irremplaçables. La réelle inconnue reste le délai de développement d’une IA dite forte, c’est-à-dire dotée de conscience et de pouvoir d’imagination, et donc de ses applications dans le monde réel. Les artistes, écrivains, chercheurs, et tout ce qui touche à la pure créativité ne sont pas aujourd’hui en risque, sous réserve d’un contrôle sérieux de l’IA faible, mais il y aura à se poser la question si le stade suivant apparait comme accessible, et partageable.
Le Contemporain - Quels sont les principaux défis éthiques et sociaux qu’engendrent les avancées de l’IA ? Quelles mesures peuvent être prises pour y faire face ? L’Italie a notamment bloqué provisoirement l’accès à Chat-GPT sur son territoire.
Une publicité très ancienne de la SNCF disait : « Le progrès ne vaut que s’il est partagé par tous ». On pourrait reprendre ce slogan pour l’IA et ses applications actuelles ou futures. Le premier stade de contrôle lorsqu’on ignore les effets d’un progrès est, à l’instar de l’Italie, d’interdire ou de bloquer en attendant de savoir comment gérer le sujet. La vraie question est de travailler sur le partage de la technologie dans l’intérêt des citoyens. Cela passe par le contrôle, la compréhension des élus et gouvernants, et la construction de règles du jeu. Celles-ci ne sont pas encore en place, et ChatGPT est un produit vendu, avec des prix qui augmentent en fonction du niveau d’interaction souhaité par le client. L’inégalité est déjà présente par ce simple fait commercial. Ce qui est important de vérifier, c’est quelles inégalités de résultats on observerait entre ceux qui ne l’ont pas, ceux qui ont le produit basique et ceux qui ont le premium. Au fond, l’IA dans son accès n’est rien d’autre qu’un produit avec des niveaux différents de prix mais on ne mesure pas encore quels pouvoirs ou avantages cela donnera aux plus aisés par rapport aux plus démunis. Il est possible que cela augmente les inégalités si les Etats ne légifèrent pas. C’est un vrai sujet pour l’Assemblée Nationale.
Le Contemporain - Dans un article de L’Express, était mise en avant l’utilisation par les politiques de l’IA pour leurs discours. Comment les IA interféreront-elles dans la communication politique de demain ?
La question majeure pour le monde politique, et donc les citoyens, est de savoir si l’utilisation de l’IA dans des discours ou des amendements manque de pertinence. Le « comment cela a-t-il été écrit » n’a que peu d’importance si le sujet est bien traité. Aujourd’hui, l’IA reste dans un domaine dit faible, donc basé sur des données historiques et non sur un pouvoir d’imagination, de conception ou de conscience. Le pouvoir politique peut s’en servir, comme des journalistes, ou d’autres métiers nécessitant une expression validée, mais le niveau d’intérêt restera très moyen, et hors de toute créativité. On peut par contre anticiper les interrogations et réponses politiques à donner lorsque l’IA développera des niveaux supérieurs de réponse, intégrant un début de conscience et donc de capacité à inventer. Le réel risque est là, car il peut engendrer des idées qui ne seront pas d’origine humaine, laissant entrevoir l’obsolescence de la représentation nationale. Ce scénario de science-fiction n’est peut-être pas si lointain. D’ici là les élus, les Etats, l’Union Européenne, et globalement la planète doivent s’accorder sur les limites, les règles, les lois, les champs d’action etc…
Dans le domaine de l’IA, un travail colossal reste à faire pour que le progrès soit partagé par tous.
Enregistrer un commentaire