Dans Blade Runner, le héros échange avec Joi, une intelligence artificielle anthropomorphe.© Allstar/WARNER BROS.
Dans Blade Runner, le héros échange avec Joi, une intelligence artificielle anthropomorphe.© Allstar/WARNER BROS..

Dans Blade Runner, le film de Ridley Scott de 1982, les frontières entre l’humain et les androïdes dotés d’une intelligence artificielle, les « réplicants », se brouillaient dans le clair-obscur d’un polar futuriste. Mais la tranchée demeurait visible, on cherchait à la franchir ou on cherchait à la défendre. Dans la suite qu’a faite Denis Villeneuve il y a neuf ans, rien de tout cela, l’identité humaine a explosé. Les frontières s’estompent en nuances de virtualité, en mystères de l’apparition de la vie. C’est que nous avons commencé à vivre avec l’intelligence artificielle, nous avons commencé à mesurer que les différences étaient en réalité multiples. Pour nous, le problème ce n’est plus de définir l’intelligence artificielle, c’est d’être capable de répondre à la question fondatrice, celle qui commence dans une ode de Pindare et dont toutes les cultures ne sont que des variations illimitées : « Qu’est-ce que l’homme ? »

Qu’est-ce que j’appelle intelligence artificielle ? Je choisis de la définir par rapport à l’homme. Toute forme de production de contenus symboliques orientés vers le sens qui échappent au cadre organique de l’individu humain. Pourquoi élargir ainsi ? Pour tenir compte de formes plus anciennes d’IA et – peut-être – en tirer une ou deux leçons, d’abord sur les risques de leurs évolutions et ensuite sur les relations qu’elles doivent parvenir à entretenir avec l’humain. Cela vaut peut-être la peine de faire un rapide détour.

L’État, si l’on s’en tient à cette définition, c’est la forme la plus ancienne de la machine intelligente.

L'État, ce sont des intelligences humaines articulées par la statistique, équivalent si on veut de la tokenisation, les procédures démocratiques qui ressemblent par certains aspects de récursivité à l’apprentissage-machine, et la circulation de l'information sur un territoire pour repérer des motifs récurrents ( « patterns » ).

Mais le passé nous a déjà enseigné quelle dérive cette machine pouvait entrainer. L’État-machine sans humain devient pur mécanisme, elle aboutit au blocage, à la sclérose, à la prolifération bureaucratique, parfois à la violence. Non pas par excès d’humanité, mais par défaut. Je crois que neuf ans de la présidence d’Emmanuel Macron avec à ses côtés la cellule d'exécution (« delivery unit ») de l’Élysée ont montré ce que l’État adoré pour lui-même peut devenir. Il y avait, il faut le dire, une vraie pensée de l’État, mais une pensée mécanique, managériale, en définitive inhumaine. Contrôler les nominations, donner des ordres, attendre les chiffres à la sortie. Dans la ligne du sarkozysme, le macronisme a poursuivi une logique de rétrécissement de l’État qui l’a rendu chaque jour moins efficace, chaque jour moins agile. Cette machine-là finit par irriter contre elle, par cristalliser tous les mécontentements populaires : des Gilets jaunes aux manifestations contre la réforme des retraites et aux émeutes de banlieues. Beaucoup de citoyens ont le sentiment que l’Europe fonctionne sur le même modèle et que lorsque quelque chose ne marche pas, la réponse est toujours la même : on n’est pas allé assez loin, on n’en a pas fait assez. « La folie, c’est de faire toujours la même chose et de s’attendre à un résultat différent », selon une citation souvent attribuée à Albert Einstein.

« La démocratie est un « grand modèle de langage », un LLM, une langue collective en co-production constante »

Ce destin, c’est aussi le destin des applications d’IA si le service rendu aux êtres humains disparait derrière la tentation de faire de l’attention humaine une ressource à répliquer à l’infini, sans souci de l’effet sur le monde. C’est le paradoxe du maximiseur de trombones décrit par Nick Bostrom : un agent automatique à qui on donnerait l’ordre de produire le plus de trombones possibles, sans donner aucune limite, finirait par vider la planète de ses ressources pour produire toujours plus de trombones. L’enjeu de cette expérience mentale, c’est de souligner le problème de l’alignement de la technologie avec le besoin humain. Sans lien avec l’humanité, elles finiront par devenir sans objet.

Deuxième exemple, la démocratie ou la société humaine en général, c’est la forme la plus ancienne du réseau intelligent.

Le sens du débat politique, ce n'est pas de produire un savoir, mais un consensus, un consentement, de la confiance. Tout l'enjeu est de se parler. La démocratie est un « grand modèle de langage », un LLM, une langue collective en co-production constante avec les membres du corps social, avec ses hallucinations occasionnelles et son inconscient collectif.

Mais lorsque le réseau se ferme sur lui-même et s’atrophie, là aussi, le mécanique finit par l’emporter. C’est exactement la réalité du projet identitaire : en devenant une communauté, le réseau se rétrécit, ne se nourrit que de lui-même et finit par produire un contenu caricatural et en définitive, insensé. La politique devient autoréférentielle. Les mots n’ont plus de lien avec les choses. C’est ce à quoi ressemble la forme de pensée et d’échange des identitaires, fermés sur un groupe d’appartenance, sur la distinction constante Eux et Nous, dans un contexte de polarisation des positions politiques et de déploiement du mensonge de toute part.

Au fond, c’est la définition du « slop » (résidus génératifs), qui menace aussi l’IA, cette dégradation qualitative si elle ne se nourrit que de ses propres contenus, qui inquiète de plus en plus d’experts de l’IA. La dérive vers l’absurde lorsqu’on donne à une IA une requête ( « prompt »)répétée sur une même image, peu à peu transformée en variantes délirantes.

Dans les deux cas, dans les trois cas en incluant l’intelligence artificielle développée par des entreprises privées dans le cadre des services numériques – le risque principal, c’est la dérive.

Dans Her, de Spike Jonze, le héros tombe amoureux d'une intelligence artificielle. ©Warner Bros
Dans Her, de Spike Jonze, le héros tombe amoureux d'une intelligence artificielle. ©Warner Bros

C’est bien en ces termes qu’il faut poser politiquement la question de l’IA générative aujourd’hui comme de l’IA générale si elle doit voir le jour, le risque d’une dérive incontrôlable et la nécessité de garanties sur la maîtrise humaine de l’intelligence artificielle.

« L'ennemi de l'humanisme, c'est le machinisme, pas la machine. »

L’IA n’est pas un ennemi. L'ennemi de l'humanisme, c'est le machinisme, pas la machine. C'est tout ce qui transforme l'humain en moyen et non plus en une fin en soi. Le machinisme économique, qu'il soit capitaliste ou marxiste, arrache l'idée d' œuvre à la personne au profit d'un processus discontinu de travail. Le machinisme politique, le totalitarisme, transforme l'homme en rouage dispensable de l'État. Le machinisme juridique apparaît quand la conscience du Juge cède aux procédures. L'intelligence artificielle ne doit jamais prononcer une sentence seule ; le droit à la décision humaine doit être un droit fondamental et universel. Enfin, le machinisme existentiel, qui vide la vie de son sens et de ce qui fait qu’elle mérite d’être vécue pour en faire la pure satisfaction des besoins et qui sape la culture en transformant le récit et l'image en machine industrielle.

L’IA est un défi parce qu’elle nous conduit à anticiper trois ruptures d'équilibre.

La première rupture à éviter, c'est celle de l'équilibre social et environnemental. Social d’abord, avec un risque majeur de déclassement des classes moyennes. La nouvelle vague d’automatisation, qui semble d’ores et déjà engagée, concerne à la fois les travaux productifs et les tâches cognitives, elle s’applique donc à un spectre d’emplois très large, au cœur de notre stabilité sociale et politique. Sans doute de nouveaux métiers seront ils créés mais rien ne garantit aujourd’hui que les pertes et les gains se recouvreront, ni que la distribution des revenus ne soit pas beaucoup plus inégalitaire qu’aujourd’hui. Il faudra des instruments de rééquilibrage et de redistribution adaptés à la nouvelle époque, notamment pour financer un modèle social pérenne. C’est un chantier à l’horizon d’une décennie. Environnemental ensuite : en 2028, l’équivalent de toute la production électrique du Japon sera nécessaire pour alimenter les centres de données (« datacenters »). Nous devons imposer un critère d'éco-conception algorithmique : la performance ne doit plus justifier le gaspillage énergétique. C’est par ailleurs l’un des points d’exemplarité et de compétitivité ouverts aux Européens. Les deux enjeux se rejoignent car la hausse massive des consommations énergétiques et le coût des renforcements réseaux pour satisfaire les besoins de l’IA pèsent ensuite sur les factures des ménages et des entreprises au-delà du soutenable.

Le Paris Digital Park, plus grand data center du pays, à La Courneuve ©Département de la Seine-Saint-Denis
Le Paris Digital Park, plus grand data center du pays, à La Courneuve ©Département de la Seine-Saint-Denis

La deuxième rupture, c'est celle de l'équilibre politique, lié à une asymétrie d'information de plus en plus béante entre la tech et le législateur. Nous ne pouvons pas réguler ce que nous ne sommes pas en mesure de comprendre et d'évaluer. La loi actuelle est souvent aveugle face aux boîtes noires algorithmiques, et il est urgent de consolider un corps de « hauts fonctionnaires techniques » capables de nourrir la puissance publique et le législateur en permanence, pour renforcer la régulation par une exécution vigoureuse, gage d’une souveraineté active. Déployer une autorité de sûreté de l’intelligence artificielle, à l’échelle nationale, mais dans le but de la rendre interopérable avec des agences homologues d’autres Etats européens, en les articulant avec une agence communautaire, sera également indispensable comme garante de nos libertés collectives.

Les « modèles-frontières » (frontier models) se donnent pour objectif d’être la première technologie dans l’histoire des sociétés humaines à pouvoir s’améliorer elle-même, à la fois en apprenant des données de ses usagers pour optimiser continument son produit mais aussi en dirigeant ses propres capacités vers la performance des modèles d’intelligence artificielle. Ceci fera de la première entreprise à développer cette capacité un monopole naturel absolu, puisqu’elle sera, plus qu’aucune autre, capable d’offrir des services essentiels à tous les pans de l’économie, qu’aucun concurrent ne pourra jamais répliquer puisqu’elle sera prise dans une boucle infinie d’amélioration de ses capacités. Si cette perspective paraît aujourd’hui encore distante, sa simple éventualité devrait être un motif de préoccupation majeure pour les États et les autorités de la concurrence : tolérer qu’un tel monopole absolu existe, c’est admettre la fin de toute souveraineté économique, et partant, la fin du contrôle des États – et donc des citoyens – sur le politique. Tel est le monde néoféodal et oligarchique que préparent activement et assument publiquement certains théoriciens techno-impérialistes. Voilà le danger principal qu’il appartient à notre temps de prévenir.

A l’échelle politique internationale, la stabilité planétaire est bel et bien mise en danger lorsqu’on voit l’avènement des systèmes d’armements létaux autonomes (SALA). Ils constituent une rupture dans l’ordre de la guerre et concourent à l’actuelle course aux armements à travers la dronification. Il est urgent de mesurer la perte de contrôle sur la paix et la guerre que cela représente. Sans compter que les effets sociaux déstabilisateurs se propagent à l’échelle de la mondialisation, l’IA tendant, pour ce qu’on peut en deviner, à accroître le fossé entre le Sud global et les Nords.

« La règle d’or dans le déploiement de l’intelligence artificielle est simple : jamais d’intelligence artificielle sans responsabilité humaine et sans contrôle humain. »

La troisième rupture, enfin, est une rupture ontologique. Pour la première fois, si un modèle-frontière parvenait à rivaliser, voire à dépasser les capacités humaines et à s’améliorer lui-même continuellement, une technologie serait capable de se servir elle-même plus que de servir l’Homme, et de se passer de tout contrôle humain, voire d’y avoir intérêt. Ce serait mettre en risque à la fois l’avenir des sociétés humaines, qui doivent, pour garder le contrôle de leur destin, prévenir un tel scénario où elles deviendraient « l’outil de leurs outils », voire où leurs outils échapperaient à leur contrôle et pourraient poursuivre leurs propres fins, sans que personne ne soit capable de les contrôler ou d’en assurer l’alignement. Là encore, ce risque est encore à l’horizon, mais l’ampleur de ses enjeux justifie de le maîtriser. Comme nous l’enseigne Hans Jonas dans Le Principe Responsabilité, l’éthique dans la technologie implique une heuristique de la peur, et de nous doter des outils de contrôle pour léguer à la prochaine génération un monde préservant ce qui fait que la vie mérite d’être vécue.

Dès lors, la règle d’or dans le déploiement de l’intelligence artificielle est simple : jamais d’intelligence artificielle sans responsabilité humaine et sans contrôle humain.

Il n’y a rien en réalité à changer aux principes de notre droit : celui qui cause un dommage avec l’un de ses outils doit être tenu personnellement responsable de ces dommages, qu’ils aient été ou non intentionnels. Si cet outil était défectueux, la responsabilité du bailleur ou du vendeur de cet outil est engagé. S’il est mis en œuvre à des fins malveillantes, la responsabilité en retombe sur celui qui l’a mis en œuvre. Beaucoup peut être accompli dans le cadre des lois existantes, mais les anciennes comme les nouvelles lois exigeront davantage d’expertise et des chambres compétentes au sein de notre ordre judiciaire pour faire vivre ce droit.

Beaucoup d’entreprises ont fait le choix de se doter de garanties importantes et souvent de bon sens : associer les salariés à la stratégie de déploiement de l’IA ; assurer des points de contrôle humains pour le déploiement pour éviter les risques juridiques excessifs ; permettre la présence de l’humain à différents stades du processus ; garantir une pluralité d’options pour ne pas devenir captifs d’un seul modèle ou d’une seule solution.

Le 10 décembre 1948, au Palais de Chaillot, l'Assemblée générale des Nations unies adoptait la Déclaration universelle des droits de l'Homme.
Le 10 décembre 1948, au Palais de Chaillot, l'Assemblée générale des Nations unies adoptait la Déclaration universelle des droits de l'Homme.

L’enjeu, dès lors, pour toute la société, consiste désormais à réussir l’adoption de l’IA. C’est la bataille centrale désormais dans le cadre de l’IA agentique, plus importante et plus ouverte, que celle des nouveaux développements de modèles. Or dans ce domaine, la forme de nos sociétés sera plus décisive, car l’enjeu est bien de faire face aux risques d’une tragédie des communs, avec une articulation inadéquate entre les intérêts privés et la préservation des communs. Concrètement, c’est par exemple le risque d’un marché de l’emploi qui sacrifie les jeunes et leur formation dans l’entreprise au profit de l’emploi de l’intelligence artificielle.

Cette maîtrise humaine prend deux visages, celui de la souveraineté collective et celui de l’autonomie personnelle. Les deux sont mis en danger par l’IA, nous le savons.

C’est le rôle des hommes d’État non de se soumettre à la nouveauté pour la nouveauté, mais de dégager et conserver dans ce qui est neuf ce qui relève du progrès. À bien des égards, le progressisme n’est pas le progrès. Le progressisme technologique consiste trop souvent à disposer d’une machine puissante, à la pousser à ses limites, à reprocher à ceux qui regardent depuis le bord de la route en agitant les bras de ne pas aller aussi vite et finalement à se jeter sans l’avoir vu dans le ravin.

Aujourd’hui nous devons tous convenir que l’intelligence artificielle est un immense point d’interrogation, un espace d’incertitude radicale qui contamine de son incertitude l’ensemble des vies économiques, politiques, sociales et culturelles. La promesse de l’enfer, du paradis et du purgatoire simultanément en quelque sorte. Incertitude sur les modèles d’IA qui finiront par s’imposer, entre ceux qui misent sur des IA génératives toujours plus massives et ceux qui croient à la nécessité d’IA logiques pour les domestiquer. Incertitude sur les effets économiques et sociaux, oscillant entre le remplacement complet de 30 % des emplois et la promesse d'une croissance de 20 % par an, tout en craignant, pour d’autres, une stagnation séculaire de la productivité. Incertitudes financières aussi sur l’avenir des entreprises, voire des pays, qui finiront par rafler la mise dans une course au monopole à l’heure où 660 milliards de dollars seront investis aux seuls États-Unis dans l’IA en 2026, laissant planer les inquiétudes sur la date et la violence de l’éclatement de la bulle de l’IA. L’incertitude dépasse de loin les effets, elle concerne la nature même de l’intelligence artificielle et elle agite les fondateurs et les développeurs, entre ceux qui croient aux modèles de langage et ceux qui croient aux modèles de monde – et je veux saluer l’initiative de Yann Le Cun de créer AMI Labs en France pour poursuivre des recherches fascinantes ; débat fondamental entre ceux qui croient en une IA faible, vouée à des simulations de sens sans conscience, et ceux qui croient en une IA forte, qui, à force d’exécuter des procédures ressemblant à de la pensée, deviendrait un esprit à part entière, à l’horizon de la singularité ; débat moral enfin entre les accélérationnistes qui voient dans l’IA le salut de l’humanité face à ses risques existentiels, justifiant les éventuels effets secondaires, et les « fatalitaires » qui voient dans l’IA le risque existentiel lui-même.

Agir dans l’incertitude, c’est le propre du citoyen, de l’homme d’État, c’était la thèse principale d’Hannah Arendt dans la Condition de l’Homme moderne, ce qu’elle appelait la vita activa. Car l’action engage la responsabilité de l’homme face à des conséquences qu’il ne peut prévoir. Ces conséquences, il ne peut en répondre que par ses intentions, la constance de ses principes et l’adéquation des moyens qu’il avait mis en œuvre. L’homme d’État est toujours un homme d’action, c’est celui qui reste fermement ancré dans ses principes et toujours adaptable dans ses décisions. Sans ces deux conditions simultanées, il est soit emporté, soit écrasé par la vague.

« Le premier objectif, c’est bien de garantir la souveraineté collective, française et européenne, celle qui permet à des peuples de maîtriser leurs destins à travers l’Histoire. »

Le propre du dirigeant, c’est également de décider face à des contradictions. C’est ce qui exige de lui expérience, culture, enracinement, empathie. Trois contradictions : celle du temps, car il faut à la fois agir très vite, dans le très court terme, face aux menaces et aux opportunités, mais aussi dans le temps long, en mesurant les effets boule de neige d’une technologie transversale au développement exponentiel. Il y a une illusion à croire que nous pouvons agir en résolvant les problèmes à mesure qu'ils apparaissent. C’est la spirale sans fin du technosolutionnisme. C'est faux pour des progressions exponentielles comme celles de l'intelligence artificielle, où le point de non-retour est souvent atteint juste après que le problème devient perceptible. L’homme d’État doit éviter la contradiction des savoirs, car il faut tenir en équilibre le savoir indispensable des experts et le savoir des acteurs sociaux, qui anticipent les effets et les inégalités qui peuvent en dériver. L’homme d’État doit enfin éviter la contradiction des objectifs, car deux impératifs vitaux peuvent sembler en opposition l’un avec l’autre. Certains voudraient que l’on sacrifie la souveraineté des individus à la souveraineté collective. J’entends les discours qui souhaiteraient moins de régulation européenne pour plus d’imitation américaine. À ceux qui croient cela, je veux dire que c’est un marché de dupes, car renoncer à la régulation européenne et dans les États membres, c’est ouvrir grand les portes de l’Europe aux monopoles américains et être sûr que nous ne protégerons pas les Européens des effets néfastes d’une IA incontrôlée par l’homme. Je suis de l’école de la régulation, je ne crains pas de le dire. Je ne crois ni aux interdictions générales, ni à la permissivité.

D'ici à 2028, il faudra l'équivalent de la production électrique du Japon pour faire fonctionner les centres de données. ©David Minh-Tra.
D'ici à 2028, il faudra l'équivalent de la production électrique du Japon pour faire fonctionner les centres de données. ©David Minh-Tra.

Le premier objectif, c’est bien de garantir la souveraineté collective, française et européenne, celle qui permet à des peuples de maîtriser leurs destins à travers l’Histoire.

La première exigence, c’est de résister aux pressions extérieures, notamment américaines, pour nous imposer des règles et des produits. Si les États-Unis se donnent tant de mal pour mettre à bas les régulations européennes de l’IA Act, du DSA ou du DMA ou encore du RGPD, c’est bien que tout n’y était pas absurde, bien au contraire. Il faut l’affirmer clairement : la souveraineté française et européenne est menacée par un assaut concerté, notamment de la nouvelle administration Trump, contre l’écosystème européen. Cela veut dire se mettre en situation de contrôler les investissements extra-européens dans les secteurs stratégiques, déployer des solutions pour un « cloud » de confiance européen, robuste et résilient. Car ne nous y trompons pas, attaquer la régulation européenne dans ce domaine, ce sera notre prochain Groenland. Et Trump pèsera de tout son poids pour diviser l’Europe sur ce sujet majeur. Nous devons assumer une préférence européenne et apprendre à tirer parti aussi de nos forces. Les dépendances existent aussi pour les autres puissances technologiques, vis-à-vis de l’Europe, parce que nous sommes un marché indispensable. Sachons en tirer parti !

La deuxième exigence, c’est de prolonger l’effort de régulation. Beaucoup d’avancées ont déjà eu lieu, mais c’est leur mise en œuvre, leur interprétation et leur exécution qui exigent aujourd’hui vigilance et ténacité. En outre un deuxième AI Act sera nécessaire pour compléter et approfondir le dispositif en ouvrant de nombreuses questions décisives : comment protéger les jeunes en assurant un droit à l’effacement effectif de leurs données numériques ? Comment imposer un droit de regard des pouvoirs publics sur les activités d’IA, par exemple par la mise en œuvre d’une autorisation de diffusion préalable d'un modèle, conditionnée à la sécurité, à l'inclusivité, et au contrôle de son alignement ? Comment répondre aux défis de l’IA pour le droit de la concurrence ? La régulation est un arsenal, à la fois bouclier et glaive, nous offrant un levier d’ Archimède dans la compétition internationale.

La troisième exigence, c’est de faire valoir notre différence. Appuyons les acteurs européens de l’intelligence artificielle générative que nous avons, tels que Mistral AI ou Black Forest Labs, et qui naissent d’un environnement de recherche, de formation en ingénierie et d’industrie dense, profond et ancien. Il nous faudra identifier quelques-unes de ce que l’on pourrait appeler des « briques » au sein des chaînes de développement de l’IA sur lesquelles nous disposerions d’un avantage comparatif, d’une spécificité créative, qui pourraient nous donner de multiples leviers nous permettant de gagner en puissance et nous rendre ainsi nous aussi incontournables dans les processus de développement de l’IA équivalents aux autres puissances, Je sais que certains acteurs y travaillent ardemment. Nous devons les y inciter et les accompagner de manière décisive. En d’autres termes, n’est-il pas plus raisonnable d’envisager pour l’instant l’investissement dans une souveraineté par dépendances mutuelles, au pluriel, et de s’y faire une place significative ? En d’autres termes, il s’agit de définir une stratégie collective européenne sur l’IA qui, en dépit de toutes les belles paroles, n’existe pas aujourd’hui et a été remplacée par un réflexe moutonnier d’imitation des États-Unis. Au-delà de l’IA Act, nous avons besoin d’une stratégie d’harmonisation des politiques publiques nationales en la matière, coordonnant, mutualisant et rendant interopérables les instruments de régulation et d’investissement nationaux. Nous avons besoin de véhicules d’investissements communs et de priorités partagées désactivant les risques de compétition de tous contre tous. C’est le rôle d’une diplomatie active et déterminée, sachant écouter l’autre et prendre en compte ses intérêts. La diplomatie n’est pas morte mais sans puissance, elle ne peut avoir d’influence. La confusion géopolitique actuelle nous le montre chaque jour.

« Le deuxième objectif, c'est de garantir la souveraineté individuelle. Une stratégie peut reposer sur trois piliers : la dignité, la création, la transparence. »

Le deuxième objectif, non moins important, c’est de garantir la « souveraineté individuelle », c’est-à-dire l’autonomie de chaque être humain. Une stratégie ambitieuse peut reposer sur trois piliers.

Premier pilier : la dignité. Je souhaite que la France puisse faire preuve d’exemplarité et inscrire, dans le préambule de sa constitution, comme certains pays d’ Amérique latine ont envisagé de le faire, sans aboutir, une déclaration des droits cognitifs inaliénables qui donnent un nouveau sens aux libertés de conscience, de pensée et d’expression qui sont au cœur de la déclaration de 1789. C’est notre vocation, car nous avons su être aux avant-postes, avec Jacques Chirac, de l’exigence environnementale avec l’inscription de la Charte de l’environnement dans la constitution. La France pourrait être à l'initiative, avec quelques démocraties volontaires, d'une déclaration universelle des droits cognitifs. Quel beau symbole, 80 ans après la Déclaration universelle des droits de l'Homme, si nous réussissons à en ratifier la signature le 10 décembre 2028, au Palais de Chaillot à Paris, pour montrer à nouveau au monde entier que nous sommes cette grande puissance de la dignité humaine et du progrès. Cela ne résoudrait bien sûr pas tous les problèmes de manière immédiate. Mais dans un monde d’incertitude, ce qui importe, c’est de montrer le chemin, la direction. Ce serait notre boussole.

Deuxième pilier : la création. L'intelligence artificielle ouvre un champ artistique inédit. La créativité doit rester le propre de l'humain, même si l’IA participera de plus en plus à cet acte de création. Il nous faut garantir que les droits d'auteur ne puissent appartenir qu'à une personne physique, mais également que les auteurs soient rémunérés pour le contenu issu d’apprentissage machine sur leurs créations.

Pour s'entraîner, l'intelligence artificielle est entraînée sur notre patrimoine culturel, médiatique, artistique, administratif, sur les milliers d' œuvres générées par le génie humain. Il est essentiel que les artistes puissent accepter, ou non, que leurs œuvres soient mobilisées, et toucher des droits sur elles le cas échéant.

J'ai demandé à Gemini, l'intelligence artificielle de Google, d'illustrer cet article. Pour réaliser cette image, je ne lui ai donné que son titre. ©Bien commun de toute l'oeuvre humaine utilisée pour générer cette image.
J'ai demandé à Gemini, l'intelligence artificielle de Google, d'illustrer cet article. Pour réaliser cette image, je ne lui ai donné que son titre. ©Bien commun de toute l'oeuvre humaine utilisée pour générer cette image.

Troisième pilier, la transparence. Nous avons inventé le Nutriscore pour informer les consommateurs sur la qualité des produits qu'ils achètent, déployons son pendant numérique pour informer les citoyens de l’origine du contenu qu'ils consultent en ligne, comme c’est prévu par l’ AI Act européen, y compris le nom du modèle impliqué. En 2026, 90% du contenu disponible sur internet sera du contenu généré par l'intelligence artificielle. Je souhaite que ce contenu puisse être labellisé, selon une grille claire distinguant trois catégories : le contenu généré par l'intelligence artificielle seule, le contenu généré par l'intelligence artificielle sous supervision humaine, et enfin le contenu généré par la seule main de l'homme.

Un changement civilisationnel profond est à l’œuvre.

Face à ces défis du progrès, susceptibles de « rallumer les étoiles » autant que de propager les « lumières sombres », capables d’augmenter les ressources de l’humanité au-delà de l’imaginable comme de détruire la démocratie et de dissoudre les sociétés, sachons miser aussi sur la confiance dans notre héritage, notre expérience et notre vocation. La France et l’Europe ont les capacités de traverser toutes les crises et tous les défis si elles ne rompent pas avec ce qu'elles sont : un berceau de l'humanisme, d'une certaine conception de la démocratie et de l’éthique de responsabilité autant que de conviction. La question n'est pas de gagner un record de vitesse, mais de tenir sur le long terme pour apparaître, lors du grand essoufflement qui gagnera nécessairement le monde après une course trop difficile et destructrice, comme la puissance capable de ramener l'humanité à la raison.

– Dominique de Villepin