ANALYSE – Intelligence artificielle, souveraineté normative et géopolitique : La fragmentation de la gouvernance mondiale entre puissances technologiques

Par François Souty
À l’automne 2025 et au début de l’année 2026, dans un contexte de compétition technologique mondiale accrue entre puissances établies et émergentes, les États-Unis ont affirmé sans ambiguïté leur opposition à l’établissement d’un régime de gouvernance mondiale centralisé de l’intelligence artificielle (IA), une position qui a marqué un tournant significatif dans la position américaine prudente jusqu’ici dans les débats internationaux sur la régulation de cette technologie stratégique. Cette posture a été réaffirmée avec insistance le 20 février 2026 par Michael Kratsios, conseiller de la Maison-Blanche pour les sciences et technologies et directeur de l’Office of Science and Technology Policy, qui, à l’issue du India AI Impact Summit 2026 tenu à New Delhi, a déclaré que les États-Unis « rejettent totalement la gouvernance mondiale de l’IA » et que «l’adoption de l’IA ne peut conduire à un avenir meilleur si elle est soumise à la bureaucratie et à un contrôle centralisé».[1] L’administration américaine y voit un risque que des cadres normatifs supranationaux étouffent l’innovation et entravent la compétitivité, préférant promouvoir une « souveraineté de l’IA » fondée sur l’autonomie nationale, la coopération entre États partageant des valeurs similaires et l’intégration des technologies « best-in-class » américaines dans les architectures numériques des partenaires.[2] Cette déclaration s’inscrit dans une séquence plus large de positions opposées à des processus multilatéraux visant à établir des règles ou standards internationaux contraignants — du refus de souscrire à certains accords éthiques mondiaux lors de sommets internationaux antérieurs à l’opposition à une « feuille de route centralisée » de la gouvernance de l’IA au sein de l’Assemblée générale de l’Organisation des Nations Unies.[3]
Cette inflexion américaine doit être analysée à la lumière d’une réorganisation globale des normes technologiques et sécuritaires au début du XXIᵉ siècle, où la puissance économique, stratégique et cognitive associée à la maîtrise des systèmes d’IA converge avec des enjeux de concurrence, de souveraineté, de sécurité nationale et de leadership international. Dans cette perspective, la gouvernance de l’IA devient elle-même un enjeu géopolitique structurant — confrontant des modèles normatifs divergents tels que celui de l’Union européenne, qui dès 2024 a adopté un cadre juridique ambitieux visant à encadrer les risques de l’IA de manière horizontale et proportionnée aux niveaux de risque des applications (AI Act),[4] et des approches plus fragmentées observées aux États-Unis, en Chine, au Japon, en Corée du Sud ou à Taïwan. Les enjeux sous-jacents ne se limitent pas à la seule réduction des risques sociétaux ou aux mécanismes de conformité légale, mais s’étendent aux procédures d’application (enforcement), aux mécanismes d’audit et de certification indépendants, aux gradients de responsabilité juridique entre innovateurs et opérateurs, ainsi qu’à la capacité des États à définir des règles du jeu normatives qui leur confèrent un avantage compétitif sur la scène internationale. L’introduction de ce débat positionne ainsi l’IA au cœur des marchés et des relations internationales contemporaines, invitant à une réflexion qui articule de manière rigoureuse les dimensions politiques, juridiques et stratégiques de la régulation technologique dans un monde multipolaire en recomposition.
I. L’Union européenne et la construction d’un modèle normatif de l’intelligence artificielle
L’adoption en 2024 du règlement européen sur l’intelligence artificielle, communément désigné sous le nom d’AI Act, constitue l’aboutissement d’un processus engagé dès 2018 avec la communication de la Commission européenne « Artificial Intelligence for Europe » et consolidé par le Livre blanc sur l’intelligence artificielle de février 2020. Dans ce dernier document, la Commission affirmait déjà que l’Union devait promouvoir une « intelligence artificielle digne de confiance », fondée sur les valeurs de l’Union et respectueuse des droits fondamentaux.[5] Cette expression de « trustworthy AI », reprise des travaux du High-Level Expert Group on AI institué en 2018,[6] révélait une orientation normative claire : l’IA ne devait pas seulement être compétitive, mais conforme à un socle éthique et juridique structurant.
a. Le contexte politique et stratégique de l’adoption du règlement européen sur l’IA
La proposition de règlement présentée par la Commission le 21 avril 2021 s’inscrivait dans une double dynamique. D’une part, elle répondait à des préoccupations internes relatives à la protection des droits fondamentaux, à la non-discrimination algorithmique et à la sécurité des produits intégrant des systèmes d’IA. D’autre part, elle s’inscrivait dans une stratégie externe plus ambitieuse, explicitée dans la communication sur la « Boussole numérique » de mars 2021, visant à positionner l’Union comme puissance normative dans la régulation des technologies émergentes.[7]À l’instar du précédent constitué par le règlement général sur la protection des données, l’Union entendait affirmer sa capacité à fixer des standards susceptibles d’exercer un effet d’entraînement au-delà de ses frontières.
Les débats au Parlement européen et au Conseil ont progressivement renforcé l’ambition du texte, notamment en élargissant la liste des pratiques interdites et en précisant le régime applicable aux systèmes dits « à haut risque ». Le compromis politique intervenu en décembre 2023, puis l’adoption formelle du règlement en 2024, ont consacré un cadre juridique horizontal applicable à l’ensemble du marché intérieur, fondé sur l’article 114 du Traité sur le fonctionnement de l’Union européenne, relatif à l’harmonisation des règles du marché intérieur.[8] Ce choix de base juridique souligne que l’AI Act est conçu non comme un instrument sectoriel, mais comme un instrument de régulation structurelle du marché numérique européen.
b. L’architecture juridique : une régulation fondée sur les niveaux de risque
L’AI Act repose sur une architecture normative graduée, fondée sur une classification des systèmes d’intelligence artificielle selon leur niveau de risque. Le considérant 5 du règlement affirme que « les systèmes d’IA peuvent générer des risques et porter atteinte aux intérêts publics et aux droits fondamentaux protégés par le droit de l’Union » et qu’il convient dès lors d’adopter une approche proportionnée aux risques.[9]
Le texte distingue ainsi quatre catégories principales. Les pratiques d’IA jugées inacceptables sont purement et simplement interdites. L’article 5 prohibe notamment les systèmes exploitant des vulnérabilités liées à l’âge ou au handicap, les dispositifs de notation sociale généralisée par les autorités publiques, ainsi que certaines formes de reconnaissance biométrique en temps réel dans l’espace public, sous réserve d’exceptions strictement encadrées.[10] Cette interdiction traduit une volonté politique claire de tracer des lignes rouges normatives, en particulier face aux usages sécuritaires ou policiers susceptibles de porter atteinte aux libertés publiques.
Les systèmes d’IA à haut risque, définis aux articles 6 et suivants, sont autorisés mais soumis à un ensemble d’exigences substantielles : mise en place d’un système de gestion des risques, gouvernance des données, documentation technique, enregistrement dans une base de données européenne, surveillance humaine appropriée et exigences de robustesse, d’exactitude et de cybersécurité.[11] L’objectif est d’intégrer la conformité juridique au cycle de vie même du système, selon une logique de « compliance by design ».
Les systèmes présentant un risque limité sont soumis à des obligations de transparence, notamment lorsque des utilisateurs interagissent avec des systèmes conversationnels ou sont exposés à des contenus générés artificiellement. Enfin, les systèmes à risque minimal demeurent en principe libres de toute contrainte spécifique, ce qui manifeste le souci du législateur européen de ne pas entraver l’innovation de manière disproportionnée.
Cette architecture révèle un compromis entre ambition normative et réalisme économique. L’Union ne cherche pas à interdire l’IA en tant que telle, mais à encadrer ses usages les plus sensibles, en articulant protection des droits fondamentaux et intégration du marché intérieur.
c. Les mécanismes de conformité et d’enforcement
L’un des aspects les plus significatifs de l’AI Act réside dans ses mécanismes d’exécution. Le règlement adopte une structure inspirée du droit européen des produits, combinant auto-évaluation de conformité, intervention d’organismes notifiés et surveillance par les autorités nationales compétentes.
Les fournisseurs de systèmes à haut risque doivent procéder à une évaluation de conformité avant la mise sur le marché, incluant la vérification des exigences techniques et la constitution d’une documentation détaillée. Dans certains cas, notamment lorsque des normes harmonisées font défaut, l’intervention d’un organisme tiers est requise. Les États membres doivent désigner des autorités nationales de surveillance du marché, chargées de contrôler le respect des obligations et d’imposer, le cas échéant, des mesures correctives.[12]
Le règlement prévoit également la création d’un Comité européen de l’intelligence artificielle, destiné à favoriser la coordination entre autorités nationales et la Commission, sur le modèle classique existant dans les autres domaines de compétence partagée entre la Commission et les Etats membres. Cette dimension institutionnelle traduit la volonté de prévenir les divergences d’interprétation susceptibles de fragmenter le marché intérieur.
Le régime des sanctions est particulièrement dissuasif. L’article 99 prévoit des amendes administratives pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial total, selon le montant le plus élevé, pour certaines violations graves.[13] Cette échelle de sanctions, comparable à celle instaurée par le RGPD, témoigne de l’ambition d’assurer une effectivité réelle des obligations imposées.
L’AI Act introduit en outre des obligations spécifiques pour les modèles d’IA à usage général, notamment en matière de transparence, de documentation technique et d’évaluation des risques systémiques pour les modèles les plus puissants. Cette extension du champ de la régulation aux acteurs développant des modèles fondamentaux marque une évolution significative du droit européen vers une prise en compte des architectures technologiques sous-jacentes.
d. L’Union européenne comme puissance normative
Au-delà de ses mécanismes juridiques, l’AI Act doit être compris comme un instrument de projection normative. La littérature en relations internationales a depuis longtemps identifié l’Union comme une « puissance normative» capable d’influencer les standards internationaux par la force d’attraction de son marché intérieur. Ian Manners a théorisé cette capacité comme constitutive de l’identité externe de l’Union.[14]
Dans le domaine de l’IA, l’enjeu est double. D’une part, l’Union cherche à éviter une dépendance technologique excessive à l’égard d’acteurs étrangers, notamment américains et chinois. D’autre part, elle ambitionne de structurer un environnement juridique international dans lequel ses entreprises puissent évoluer selon des standards prévisibles et protecteurs des droits fondamentaux.
L’adoption de l’AI Act a ainsi été saluée par plusieurs responsables européens comme un moment fondateur. La présidente de la Commission, Ursula von der Leyen, a présenté le texte comme établissant « les premières règles complètes au monde pour une IA digne de confiance ».[15]Cette rhétorique souligne la dimension symbolique et stratégique du règlement : il ne s’agit pas seulement d’encadrer un marché, mais de proposer un modèle.
Toutefois, cette ambition normative s’inscrit dans un contexte international marqué par la divergence des approches. Là où l’Union privilégie une régulation ex ante, structurée et centralisée, d’autres puissances mettent en avant la flexibilité, l’autorégulation ou la souveraineté nationale. Cette divergence prépare le terrain d’une fragmentation normative, au cœur de la problématique générale de cet article.
Il est frappant de constater qu’aucune entreprise européenne ne figure parmi les quinze premières sociétés mondiales en matière d’intelligence artificielle, qu’il s’agisse de valorisation boursière ou de chiffre d’affaires lié à l’IA.[16] Le premier acteur européen, selon les classements de marché et les analyses financières récentes, est SAP, qui se positionne autour du 20ᵉ rang mondial, avec une activité IA intégrée principalement dans ses solutions de gestion d’entreprise et de cloud.[17] Ce retard relatif de l’Europe peut être expliqué par plusieurs facteurs : d’une part, une fragmentation historique du marché unique et une faible concentration d’acteurs capables d’investir massivement dans la recherche et le développement d’IA à grande échelle ; d’autre part, une culture entrepreneuriale moins orientée vers les start-ups à forte valorisation et une dépendance marquée vis-à-vis de capitaux publics ou de partenariats industriels limités. Les contraintes réglementaires et la priorité accordée à la protection des droits fondamentaux ont également pu ralentir le développement commercial agressif de technologies disruptives. Cette situation contribue à expliquer pourquoi l’Union européenne a choisi de déployer une stratégie normative proactive : l’AI Act et les initiatives associées visent non seulement à encadrer les risques, mais aussi à projeter une influence normative globale, à créer un avantage compétitif fondé sur la confiance et la légitimité juridique, et à renforcer le rôle des entreprises européennes dans un contexte où elles restent structurellement désavantagées face aux géants américains et chinois. Trois autres blocs réglementaires européens sont d’ailleurs à l’œuvre : le droit et la politique de la concurrence mais aussi le bloc réglementaire nouveau constitué par le Digital Markets Act [18] et l’ensemble réglementaire relatif à la cybersécurité.[19] L’approche européenne apparaît ainsi comme un moyen de compenser un déficit de masse critique technologique par un leadership normatif et réglementaire, susceptible de façonner les standards internationaux à long terme.
II. Les États-Unis entre régulation sectorielle, stratégie de puissance et refus d’une gouvernance mondiale centralisée
À la différence de l’Union européenne, les États-Unis n’ont pas opté pour un instrument législatif horizontal et contraignant applicable à l’ensemble des systèmes d’intelligence artificielle. Leur approche repose sur une combinaison de régulation sectorielle, de cadres de gestion des risques non contraignants et d’instruments exécutifs, articulés à une stratégie assumée de leadership technologique. L’analyse du modèle américain suppose ainsi d’examiner successivement l’architecture normative interne, les instruments récents mobilisés par l’exécutif fédéral, puis la dimension explicitement géopolitique du refus d’une gouvernance mondiale centralisée de l’IA.
a. Une tradition de régulation sectorielle et de soft law
La régulation américaine de l’intelligence artificielle s’inscrit dans une tradition juridique marquée par la prééminence du droit sectoriel et de l’analyse économique du droit. Contrairement à l’approche européenne fondée sur l’harmonisation ex ante, le système fédéral américain repose sur l’intervention d’agences spécialisées — telles que la Federal Trade Commission, la Food and Drug Administration ou le Department of Transportation — compétentes pour réguler des usages spécifiques de l’IA dans leurs domaines respectifs.
La Federal Trade Commission a ainsi affirmé dès 2020 que les systèmes algorithmiques relèvent de sa compétence lorsqu’ils donnent lieu à des pratiques déloyales ou trompeuses au sens du Federal Trade Commission Act.[20] Dans plusieurs déclarations publiques, l’agence a souligné que l’usage de l’IA n’exonère pas les entreprises de leurs obligations en matière de protection des consommateurs ou de non-discrimination. Cette approche demeure toutefois indirecte : elle ne crée pas d’obligations techniques ex ante comparables à celles prévues par l’AI Act européen, mais sanctionne a posteriori les comportements jugés illicites.
Dans le domaine financier, la Securities and Exchange Commission s’est intéressée aux usages de l’IA dans la gestion d’actifs et les conflits d’intérêts potentiels, tandis que la Consumer Financial Protection Bureau a mis en garde contre les risques de discrimination algorithmique dans l’octroi de crédit. Ces interventions illustrent une régulation fonctionnelle, fondée sur l’application de normes préexistantes à des technologies nouvelles.
Parallèlement, les États-Unis ont privilégié l’élaboration de cadres volontaires de gestion des risques. Le National Institute of Standards and Technology a publié en janvier 2023 le AI Risk Management Framework, document non contraignant destiné à aider les organisations à identifier, évaluer et atténuer les risques liés aux systèmes d’IA.[21] Ce cadre repose sur quatre fonctions principales — gouverner, cartographier, mesurer et gérer — et met l’accent sur la flexibilité et l’adaptabilité, plutôt que sur l’imposition d’exigences juridiques uniformes.
Cette prédominance de la soft law reflète une culture juridique attachée à l’innovation et à la responsabilité a posteriori plutôt qu’à la certification préalable. Elle traduit également une méfiance structurelle à l’égard des régulations fédérales transversales susceptibles de freiner la compétitivité des entreprises technologiques américaines.
b . L’Executive Order de 2023 et l’usage du pouvoir exécutif
L’administration démocrate du Président Joe Biden avait néanmoins marqué une inflexion en adoptant le 30 octobre 2023 un décret présidentiel intitulé Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.[22] Cet Executive Order a imposé aux agences fédérales de développer des standards de sécurité, prévu des obligations de partage d’informations pour les modèles les plus puissants développés par des entreprises privées, et mobilisé les compétences du Defense Production Act pour exiger la communication de certains résultats de tests de sécurité.
Le décret demande notamment au Department of Commerce d’élaborer des standards pour le « red-teaming »[23] des modèles avancés et d’établir des lignes directrices en matière de « filigranage » (« watermarking ») des contenus générés artificiellement.[24] Il impose également aux agences fédérales d’évaluer les impacts de l’IA sur les droits civiques, la protection des données et le marché du travail.
Toutefois, cet instrument demeure un acte de l’exécutif, susceptible d’être modifié ou abrogé par une administration ultérieure. Il ne constitue pas une loi fédérale adoptée par le Congrès et ne crée pas un régime de responsabilité générale comparable à celui instauré par le règlement européen. Son efficacité dépend largement de la capacité des agences à transformer les orientations présidentielles en normes opérationnelles.
Cette configuration met en évidence une caractéristique centrale du modèle américain : la régulation de l’IA procède moins d’une codification systématique que d’une mobilisation pragmatique des outils juridiques existants, combinée à des injonctions exécutives ciblées.
c. Le refus d’une gouvernance mondiale centralisée : souveraineté et stratégie
C’est dans ce contexte interne que s’inscrit la déclaration du 20 février 2026 citée en début d’article par laquelle Michael Kratsios (directeur de l’Office of Science and Technology Policy, on le rappelle) a affirmé que les États-Unis « rejettent totalement la gouvernance mondiale de l’IA » lors du India AI Impact Summit 2026 de New Delhi.[25] Selon les comptes rendus publiés par l’Agence France-Presse et repris par plusieurs médias internationaux, il a soutenu que l’innovation ne devait pas être soumise à une « bureaucratie centralisée » susceptible d’entraver la compétitivité américaine.[26]
Cette position ne saurait être interprétée comme un refus de toute coopération internationale. Les États-Unis demeurent engagés dans des enceintes telles que le G7, notamment à travers le processus dit d’Hiroshima sur l’IA, et participent aux travaux de l’OCDE relatifs aux principes de l’IA adoptés en 2019. Toutefois, l’administration américaine distingue nettement coopération et gouvernance centralisée contraignante.
Le rejet d’un régime mondial unifié répond à plusieurs objectifs stratégiques. Il vise d’abord à préserver la marge de manœuvre normative nationale dans un secteur considéré comme déterminant pour la sécurité nationale et la compétitivité économique. Il s’inscrit ensuite dans une logique de rivalité systémique avec la Chine, dans laquelle la maîtrise des technologies d’IA est perçue comme un facteur clé de supériorité militaire et industrielle. Enfin, il reflète la volonté de protéger l’écosystème des grandes entreprises technologiques américaines, dont la capacité d’innovation rapide pourrait être affectée par des contraintes réglementaires internationales rigides.
En ce sens, la position américaine ne relève pas d’un simple désaccord technique sur les modalités de régulation, mais d’une conception particulière de l’ordre international technologique : un ordre fondé sur la compétition entre puissances, la diffusion de standards par le marché et la préservation de la souveraineté décisionnelle. Là où l’Union européenne cherche à projeter un modèle normatif structuré, les États-Unis privilégient une architecture plus flexible, où la puissance économique et l’avance technologique jouent un rôle déterminant dans la définition des standards de facto.
Cette divergence nourrit la fragmentation de la gouvernance mondiale de l’intelligence artificielle. Elle soulève une question centrale pour les relations internationales contemporaines et pour définir les stratégies tant industrielles que normatives ou encore pour les grands choix diplomatiques dans la définition des alliances de l’avenir : l’IA deviendra-t-elle l’objet d’un régime international structuré, comparable à ceux établis dans d’autres domaines technologiques sensibles, ou demeurera-t-elle un champ de rivalité normative dominé par les stratégies nationales des grandes puissances ? Les Etats-Unis semblent actuellement opter pour la seconde approche.
III. Les modèles asiatiques de gouvernance de l’intelligence artificielle : souveraineté technologique, encadrement étatique et pragmatisme stratégique
L’analyse de la fragmentation normative de la gouvernance mondiale de l’intelligence artificielle ne saurait se limiter au face-à-face transatlantique. Il faut donc se tourner vers l’Asie et observer que les puissances asiatiques ont développé des cadres de régulation distincts, révélateurs de conceptions différenciées du rapport entre État, marché et technologie. La Chine a opté pour un encadrement juridique dense, étroitement articulé à ses objectifs politiques et sécuritaires ; le Japon et la Corée du Sud privilégient des approches plus souples et adaptatives, combinant lignes directrices et stratégies industrielles ; Taïwan, enfin, cherche à concilier ouverture économique, sécurité nationale et alignement sur les standards démocratiques. L’examen comparé de ces modèles éclaire les logiques géopolitiques à l’œuvre dans la structuration régionale de la gouvernance de l’IA.
La Chine : régulation proactive et contrôle politique des architectures numériques
La République populaire de Chine a été l’un des premiers États à adopter des textes spécifiques encadrant les algorithmes et les services d’intelligence artificielle. Dès 2021, l’Administration du cyberespace de Chine a adopté les Provisions on the Management of Algorithmic Recommendation Services in Internet Information Services, imposant des obligations de transparence et de conformité aux plateformes numériques utilisant des systèmes de recommandation algorithmique.[27] Ces dispositions exigent notamment que les fournisseurs respectent « les valeurs fondamentales socialistes » et s’abstiennent de produire des contenus susceptibles de menacer la sécurité nationale ou l’ordre public.
En 2022, la Chine a renforcé ce dispositif avec les Provisions on the Administration of Deep Synthesis Internet Information Services, encadrant les technologies de synthèse profonde, y compris les contenus générés artificiellement.[28] Ces règles imposent l’identification explicite des contenus générés par l’IA et prévoient des obligations de vérification d’identité des utilisateurs.
L’étape la plus significative a été franchie en juillet 2023 avec l’adoption des Interim Measures for the Management of Generative Artificial Intelligence Services.[29] Ce texte impose aux fournisseurs de services d’IA générative des obligations de sécurité, de vérification des données d’entraînement et de prévention de la production de contenus illégaux. L’article 4 prévoit que les services doivent « adhérer aux valeurs fondamentales socialistes » et ne pas générer de contenus portant atteinte à la sécurité nationale, à l’unité territoriale ou à la stabilité sociale, suivant des formulations équivalentes à celles qui ont fondé le droit de la concurrence chinois dans la Loi Antimonopole de 2007.[30]
Cette architecture normative s’inscrit dans une stratégie plus large définie par le New Generation Artificial Intelligence Development Plan adopté en 2017 par le Conseil des Affaires d’État, qui fixe l’objectif de faire de la Chine le leader mondial de l’IA d’ici 2030.[31] La régulation chinoise ne vise donc pas à freiner l’innovation, mais à l’orienter et à l’intégrer dans une logique de contrôle politique et de sécurité nationale. L’État y joue un rôle central, tant comme régulateur que comme investisseur stratégique.
Le Japon : soft law, innovation et gouvernance agile
À la différence de la Chine, le Japon privilégie une approche fondée sur des principes directeurs et une régulation souple. Dès 2019, le gouvernement japonais a soutenu au sein du G20 l’adoption des G20 AI Principles, largement inspirés des principes élaborés par l’OCDE. Ces principes insistent sur la promotion d’une IA centrée sur l’humain, la transparence et la responsabilité.
Au niveau interne, le Japon a adopté en 2022 puis actualisé en 2023 des lignes directrices sur l’utilisation responsable de l’IA, sans instaurer de régime législatif horizontal comparable à l’AI Act européen. Le gouvernement met l’accent sur la coopération public-privé et sur la promotion d’un écosystème favorable à l’innovation.
La politique publique japonaise en matière d’intelligence artificielle repose sur une approche hybride combinant législation stratégique promotionnelle, normes volontaires et lignes directrices éthiques, et coordination gouvernementale centralisée.[32] L’Act on the Promotion of Research, Development and Utilization of Artificial Intelligence-related Technology (souvent appelé AI Promotion Act) a été adopté par la Diète japonaise le 28 mai 2025:[33] cette loi est entrée en vigueur progressivement à partir de juillet 2025, avec une mise en œuvre complète il y a seulement quelques mois en septembre 2025 ; cette loi constitue le premier cadre légal explicite au Japon visant à promouvoir l’innovation et l’utilisation de l’IA tout en mitigeant les risques associés à travers la coopération entre acteurs publics et privés, l’encouragement de la recherche, le renforcement des compétences, et l’élaboration de principes directeurs pour une IA éthique et transparente.[34] Elle institue notamment un AI Strategy Headquarters sous l’autorité directe du Premier ministre, chargé de coordonner les politiques d’IA et d’élaborer des plans directeurs, mais n’impose pas de sanctions pénales directes : l’accent est mis sur le « soft law » (régulation incitative et guidée) plutôt que sur des interdictions strictes ou des amendes, reflétant une préférence japonaise pour une régulation légère favorisant l’innovation et l’interopérabilité sectorielle plutôt qu’une régulation générale obligatoire. Cette stratégie s’inscrit dans le contexte plus large de la vision socio-économique Society 5.0 et d’une coordination continue avec les normes internationales sur l’IA.
Le choix japonais reflète donc une volonté de maintenir une flexibilité normative afin de soutenir la compétitivité de ses entreprises technologiques, tout en affirmant son attachement aux principes démocratiques et à la coopération internationale. La régulation y apparaît davantage comme un instrument d’accompagnement que comme un dispositif contraignant ex ante.
La Corée du Sud : entre ambition industrielle et encadrement juridique progressif
La Corée du Sud a adopté en 2020 une National Strategy for Artificial Intelligence visant à positionner le pays parmi les leaders mondiaux du secteur d’ici 2030. Cette stratégie combine investissements massifs, soutien aux start-ups et développement d’infrastructures de données.
Sur le plan normatif, Séoul a progressivement élaboré des lignes directrices éthiques et envisage l’adoption d’un cadre législatif plus structuré. Des propositions de loi relatives à la promotion et à la régulation de l’IA ont été débattues à l’Assemblée nationale, cherchant à concilier innovation et protection des droits fondamentaux. La Corée du Sud observe attentivement les évolutions européennes et américaines, dans une logique d’équilibre entre compétitivité internationale et crédibilité normative. Tout récemment, la Corée du Sud a mis en place un cadre public de réglementation de l’intelligence artificielle autour du Basic Act on the Development of Artificial Intelligence and the Establishment of a Foundation for Trustworthiness (souvent appelé AI Basic Act), adopté par l’Assemblée nationale et entré en vigueur le 22 janvier 2026 après une période de préparation d’un an.[35] Cette loi-cadre, qui couvre 43 articles et six chapitres, constitue l’un des premiers régimes législatifs complets au monde régissant l’utilisation et le développement de l’IA, avec l’objectif déclaré de renforcer la transparence, la sécurité et la confiance du public tout en soutenant l’innovation.[36] Elle impose notamment des exigences de transparence et d’étiquetage de contenu généré par IA, des obligations de gestion des risques pour les systèmes à fort impact dans des domaines critiques (santé, transport, services financiers, etc.) et la mise en place d’une structure de gouvernance nationale coordonnée sous l’autorité du ministère de la Science et des TIC ; les sanctions en cas de non-conformité peuvent aller jusqu’à 30 millions de wons coréens, mais un délai de grâce d’un an est prévu avant l’application des amendes pour permettre aux acteurs économiques de se conformer. Cette approche vise à équilibrer promotion de la compétitivité internationale et protection des citoyens, et constitue un modèle de régulation nationale qui se place aux côtés du AI Act de l’Union européenne dans le paysage mondial de la gouvernance de l’IA.
Cette approche pragmatique illustre la position intermédiaire d’un État technologiquement avancé mais étroitement inséré dans les chaînes de valeur mondiales, dépendant à la fois des marchés occidentaux et de ses relations économiques avec la Chine.
Taïwan : sécurité technologique et alignement démocratique
Taïwan occupe une position singulière dans l’écosystème mondial de l’IA en raison de son rôle central dans la production de semi-conducteurs avancés, notamment via des entreprises telles que TSMC. La maîtrise des puces de pointe constitue un levier stratégique majeur dans la compétition mondiale pour l’IA.
Le gouvernement taïwanais a adopté des lignes directrices sur l’éthique de l’IA et soutient le développement d’applications industrielles et médicales, tout en veillant à la protection des données personnelles dans le cadre de sa législation sur la protection des informations personnelles. La régulation y demeure relativement souple, mais fortement marquée par les impératifs de sécurité nationale et par la nécessité de maintenir des partenariats étroits avec les États-Unis et l’Union européenne.
A Taïwan, comme au Japon et en Corée du Sud, la situation a évolué de manière marquée dans les derniers mois, en 2025. La régulation et la politique publique de l’intelligence artificielle se sont structurées autour de l’adoption du Artificial Intelligence Basic Act, une loi fondamentale votée le 23 décembre 2025 par l’Assemblée législative (Legislative Yuan) après une phase de préparation conduisant à l’approbation du projet par l’Exécutif en août 2025. Cette loi, qui vise à concilier promotion de l’innovation et gouvernance des risques, établit un cadre national pour le développement, l’application et la supervision de l’IA. Cette loi codifie sept principes directeurs alignés sur des normes internationales — durabilité et bien-être, autonomie humaine, protection de la vie privée et gouvernance des données, cybersécurité et sécurité, transparence et explicabilité, équité et non-discrimination, et responsabilité — et désigne le National Science and Technology Council (NSTC) comme autorité compétente pour coordonner la mise en œuvre, tandis que le Ministère des Affaires numériques (MODA) doit élaborer des cadres de classification des risques d’IA et des lignes directrices pratiques.[37] Le texte oblige aussi à promouvoir la recherche, l’équipement en infrastructures, la protection des droits du travail face à l’automatisation et l’équité numérique, tout en établissant un comité stratégique national sur l’IA, présidé par le Premier ministre, pour guider les orientations politiques.[38] Cette approche met l’accent sur une gouvernance fondée sur des principes, la coordination intersectorielle et l’équilibre entre compétitivité technologique et garanties sociétales, plutôt que sur des sanctions administratives immédiates pour le secteur privé.[39]
Dans le contexte des tensions croissantes avec Pékin, la gouvernance de l’IA à Taïwan est indissociable des enjeux de souveraineté technologique et de résilience stratégique. L’île cherche à consolider sa position comme acteur indispensable des chaînes d’approvisionnement mondiales, tout en s’inscrivant dans le camp des démocraties technologiques.
À travers ces modèles asiatiques se dessinent des conceptions profondément différenciées de la relation entre technologie, État et ordre international. La Chine articule régulation et contrôle politique dans une perspective de puissance globale ; le Japon et la Corée du Sud privilégient une régulation souple intégrée à des stratégies industrielles ; Taïwan lie gouvernance de l’IA et sécurité stratégique. Cette diversité confirme que la fragmentation normative de l’intelligence artificielle n’oppose pas seulement l’Europe et les États-Unis, mais s’inscrit dans une recomposition plus large de l’ordre technologique mondial.
IV. Enjeux, conséquences et perspectives géopolitiques de la fragmentation normative de l’IA
La diversité des approches réglementaires analysées dans les sections précédentes révèle une fragmentation croissante de la gouvernance mondiale de l’intelligence artificielle. Cette situation ne se limite pas à un décalage entre modèles juridiques : elle constitue un facteur stratégique, économique et politique majeur dans les relations internationales contemporaines. L’Union européenne, les États-Unis, la Chine et les puissances asiatiques expriment des logiques de souveraineté, de compétitivité et de projection normative qui se conjuguent pour produire un paysage international fragmenté, où la définition de standards communs est incertaine et où l’IA devient un enjeu de puissance.
a. Les implications géopolitiques majeures
Sur le plan géopolitique, la fragmentation normative entraîne une course à la standardisation de facto par les acteurs dominants. Les États-Unis, en privilégiant la flexibilité et l’autorégulation sectorielle, favorisent l’émergence de standards par les grandes entreprises technologiques, qui deviennent des références globales. L’Union européenne, par le biais de l’AI Act, tente d’imposer un modèle de régulation ex ante, fondé sur la protection des droits fondamentaux, susceptible de s’imposer aux acteurs internationaux souhaitant accéder au marché européen.[40] Le tableau en annexe II ci-après sur le top 20 des entreprises d’AI dans le monde est éloquent : la première – et unique – entreprise de l’AI d’une nationalité européenne, l’allemande SAP, n’arrive qu’à la seizième place ! Les dix premières sont issues des Etats-Unis. La Chine case cinq entreprises entre la dixième et la vingtième place. Taïwan et le Japon casent une entreprise respectivement à la onzième et dix-huitième place.
Cette dualité de normes crée des tensions potentielles dans le commerce et la coopération technologique. Les entreprises internationales doivent naviguer entre des obligations européennes contraignantes et un environnement américain plus souple, tout en tenant compte des régulations chinoises strictes et orientées politiquement. Les tensions sont particulièrement visibles dans les secteurs stratégiques, comme les plateformes de traitement de données massives, les systèmes de reconnaissance biométrique et les modèles d’IA générative à large échelle.
La fragmentation normative a également des implications pour la sécurité nationale. L’IA, en tant que technologie duale, combine usages civils et militaires. Les États-Unis et la Chine considèrent l’IA comme un facteur clé de supériorité technologique et militaire, ce qui explique le refus américain d’une gouvernance mondiale centralisée et l’encadrement chinois strict et politique.[41] L’Union européenne, bien que moins focalisée sur l’aspect militaire, voit dans le contrôle des standards un levier de puissance normative et d’influence internationale.
b. Conséquences économiques et industrielles
On vient d’observer la dominance des entreprises américaines présentes dans les dix premières places. La divergence des régulations influence la dynamique industrielle globale. Les grandes entreprises américaines, telles que OpenAI et Google DeepMind, tirent parti d’un cadre flexible favorisant l’innovation rapide et l’expérimentation. L’AI Act européen impose, en revanche, des contraintes lourdes sur la conformité et la documentation, ce qui peut ralentir l’entrée sur le marché mais renforcer la confiance des consommateurs et des institutions publiques, avec une seule entreprise dans les vingt premières places.[42]
La régulation chinoise, orientée vers la sécurité et la conformité aux directives politiques, encourage les entreprises nationales à aligner leurs innovations sur les priorités stratégiques de l’État, limitant l’influence étrangère dans le marché intérieur et consolidant des champions locaux. Le Japon, la Corée du Sud et Taïwan adoptent des modèles intermédiaires, cherchant à équilibrer innovation, sécurité et compétitivité.
L’ensemble de ces stratégies produit un écosystème global fragmenté, où la maîtrise des standards de l’IA devient un facteur clé de compétitivité économique et de positionnement géostratégique.
c. Enjeux pour la gouvernance internationale
Cette fragmentation pose des défis majeurs pour la coordination internationale. Les instances multilatérales, telles que l’OCDE, le G7 ou l’ONU, ont initié des principes et des recommandations, mais leur portée reste limitée face à la divergence des approches nationales. Le risque est celui de l’émergence de « blocs normatifs » : un bloc transatlantique influencé par l’Union européenne et les États-Unis, un bloc sino-centré avec des normes orientées politiquement, et des acteurs asiatiques intermédiaires qui ajustent leurs régulations selon les opportunités économiques et stratégiques.
Cette situation alimente également des tensions diplomatiques et commerciales, les États cherchant à imposer leurs standards comme condition d’accès aux marchés ou d’investissements technologiques. Elle peut générer des phénomènes de compliance fragmentation, où les entreprises internationales doivent simultanément satisfaire des régulations divergentes, augmentant les coûts et la complexité de la conformité.[43]
d. Perspectives et stratégies d’avenir
Face à cette fragmentation, plusieurs scénarios sont envisageables. Le premier consiste en une convergence progressive vers des standards internationaux harmonisés, portée par des négociations multilatérales et la diffusion des bonnes pratiques, à l’instar de la régulation environnementale ou du commerce numérique. Le second scénario, plus probable à court et moyen terme, est celui d’une coexistence de régulations nationales et régionales, avec des effets d’entraînement partiels et des tensions commerciales et technologiques persistantes.
Pour l’Union européenne, le défi est de maintenir sa capacité normative tout en facilitant l’interopérabilité avec les autres grands acteurs. Pour les États-Unis, il s’agit de préserver la compétitivité et l’innovation tout en répondant aux préoccupations éthiques et sécuritaires. La Chine poursuit une stratégie d’encadrement étroit et de contrôle politique, tandis que les puissances asiatiques intermédiaires ajustent leurs cadres pour maximiser leurs avantages technologiques et économiques.
En conclusion, la fragmentation de la gouvernance mondiale de l’IA illustre la relation complexe entre droit, puissance et stratégie internationale. Elle souligne que l’intelligence artificielle n’est pas seulement un objet technique ou économique, mais un levier de pouvoir et un instrument de projection normative, dont la régulation devient un terrain de compétition géopolitique. La tension entre souveraineté nationale et coopération internationale sera déterminante pour l’évolution future de l’écosystème global de l’IA.
Conclusion
L’analyse des régulations de l’intelligence artificielle à l’échelle mondiale met en lumière une dynamique paradoxale : alors que l’IA représente un enjeu stratégique universel, les modèles de gouvernance sont profondément divergents, reflétant des visions différentes de la relation entre État, marché et société. L’Union européenne incarne un modèle normatif structuré, centré sur la protection des droits fondamentaux et l’harmonisation du marché intérieur. Les États-Unis privilégient la flexibilité, la régulation sectorielle et la préservation de la compétitivité de leurs entreprises, tout en refusant toute gouvernance mondiale centralisée. La Chine déploie un encadrement juridique strict, orienté par des priorités politiques et sécuritaires, tandis que le Japon, la Corée du Sud et Taïwan adoptent des approches intermédiaires, conciliant innovation, sécurité et coopération internationale.
Cette diversité traduit une fragmentation normative croissante, où l’IA devient simultanément un objet économique, un instrument de puissance et un terrain de rivalité géopolitique. Elle pose plusieurs défis majeurs : la coexistence de standards divergents, le risque de tensions commerciales et diplomatiques, la nécessité pour les entreprises de naviguer dans des cadres juridiques complexes, et la question de la sécurité des technologies duales dans un contexte de compétition stratégique.
Pour les relations internationales, la fragmentation de la gouvernance de l’IA souligne la limite des approches multilatérales classiques face à des technologies émergentes à fort impact sociétal et militaire. Elle suggère que la définition des standards globaux dépendra moins de traités internationaux contraignants que de l’influence combinée des grandes puissances et de leurs écosystèmes industriels et financiers. Dans ce contexte, l’Union européenne apparaît comme une puissance normative en quête de diffusion extraterritoriale de ses standards, tandis que les États-Unis et la Chine exploitent la régulation pour affirmer leur souveraineté technologique et leur avance compétitive.
La trajectoire future de la gouvernance mondiale de l’IA dépendra donc d’une combinaison de facteurs : la capacité des États à aligner leurs stratégies nationales, l’émergence de standards techniques de facto, la pression des marchés et des consommateurs, et la nécessité de gérer les risques éthiques, sociaux et sécuritaires. L’intelligence artificielle se confirme ainsi comme un champ de puissance où droit, politique et géopolitique sont inextricablement liés, et où la fragmentation normative constitue à la fois un défi et un levier stratégique pour les grandes puissances.
Cette analyse suggère que la compétition normative sera un élément central des relations internationales au XXIᵉ siècle, et que la maîtrise de l’IA — technique, juridique et stratégique — déterminera en partie le positionnement et l’influence des États sur la scène mondiale.
Annexe 1
Top 20 des entreprises mondiales d’intelligence artificielle
| Rang | Entreprise | Nationalité | Capitalisation / Valorisation (est.) | Revenus IA estimés (2025-26) | Business model IA | Sources de financement / investissements |
| 1 | NVIDIA | États-Unis | ~4,5 T$ | ~210 Mds$ | GPU & matériel d’IA pour training/inference | Autofinancement, R&D, partenariats industriels |
| 2 | Microsoft | États-Unis | ~3,0 T$ | ~80–100 Mds$ | Cloud AI, plateformes & intégration SaaS | Autofinancement, partenariats (OpenAI) |
| 3 | Alphabet(Google) | États-Unis | ~3,7 T$ | ~70–90 Mds$ | IA intégrée aux services et cloud | Autofinancement, R&D intensif |
| 4 | Amazon | États-Unis | ~2,4 T$ | ~50–70 Mds$ | Cloud IA B2B, infrastructure & services | Autofinancement, AWS capex |
| 5 | OpenAI | États-Unis | ~700 B$-830 B$ | ~20–40 Mds$ | IA générative, SaaS API | Microsoft + Nvidia + SoftBank + VC |
| 6 | Anthropic | États-Unis | ~380 B$ | ~5–14 Mds$ | IA générative, chatbot | GIC, Coatue Management, VC |
| 7 | Meta Platforms | États-Unis | ~600–800 B$ | ~30–50 Mds$ | IA pour social et metaverse | Autofinancement, R&D |
| 8 | IBM | États-Unis | ~280 B$ | ~15–25 Mds$ | Solutions IA enterprise | Autofinancement |
| 9 | Oracle | États-Unis | ~560 B$ | ~10–20 Mds$ | Cloud & IA d’entreprise | Autofinancement |
| 10 | Salesforce | États-Unis | ~245 B$ | ~8–15 Mds$ | CRM + IA business workflow | Autofinancement |
| 11 | TSMC | Taïwan | ~1,0–1,1 T$ | ~30–50 Mds$ | Fabrication de puces IA | Autofinancement, partenariats Foundry |
| 12 | Baidu | Chine | ~50–60 B$ | ~15–25 Mds$ | IA pour search & cloud | Autofinancement, investissements locaux |
| 13 | Tencent | Chine | ~560 B$ | ~10–20 Mds$ | IA appliquée social/gaming | Autofinancement |
| 14 | ByteDance | Chine | ~330 B$ | ~20–30 Mds$ | IA recommandation, contenus | Autofinancement, IPO partielle envisagée |
| 15 | Adobe | États-Unis | ~160 B$ | ~5–10 Mds$ | Outils IA créatifs | Autofinancement, R&D |
| 16 | SAP | Allemagne (UE) | ~160 B$ | ~3–5 Mds$ | IA intégrée ERP et cloud | Autofinancement, Europe |
| 17 | Qualcomm | États-Unis | ~150 B$ | ~5–8 Mds$ | Puces IA et edge computing | Autofinancement, licences |
| 18 | Sony | Japon | ~90–100 B$ | ~3–6 Mds$ | IA appliquée média & jeux | Autofinancement, R&D |
| 19 | Alibaba Cloud | Chine | ~230–260 B$ | ~8–12 Mds$ | IA cloud & services e-commerce | Autofinancement, capital local |
| 20 | Tencent Cloud | Chine | ~100–120 B$ | ~6–10 Mds$ | IA cloud & services | Autofinancement, expansion internationale |
Sources :
Capitalisation et revenus IA : estimations basées sur les classements Largest AI companies by market capitalization 2025 (Capital.com), les rapports financiers publics 2025-2026 et les analyses sectorielles disponibles en accès libre.
– Source : Largest AI companies by market cap 2025, Capital.com, consulté février 2026.
– Source: Top AI & Machine Learning Revenue Leaders 2025, analyses SIG AI Rankings, AEO SIG.
Valorisation des sociétés privées (OpenAI, Anthropic, ByteDance) : estimations tirées de communiqués institutionnels, dépêches financières et revues spécialisées. Pour les sociétés non cotées (ex. OpenAI, Anthropic), les valorisations sont des estimations récentes communiquées publiquement.
– Source : Financial Times, OpenAI raises $X billion, 2026 ;
– Source : The Guardian, Anthropic funding round, 2026.
Business model et revenus IA : estimation fondée sur les documents annuels ou intermédiaires (rapports 2025/2026) des entreprises, indiquant la part de revenus liée à des activités IA, cloud ou plateformes intelligence avancée.
Annexe II :
Comparatif des régulations nationales de l’intelligence artificielle (avec sanctions)
| Pays / Région | Type de régulation | Niveau de contrainte | Mécanismes « d’enforcement » | Sanctions en cas d’infraction | Objectifs stratégiques et géopolitiques |
| Union européenne | Réglementation ex ante, horizontale, basée sur le risque (AI Act, 2024) | Élevé | Certification obligatoire pour IA à risque élevé, audits, inspections | Amendes jusqu’à 6 % du chiffre d’affaires mondial annuel, retrait du marché, injonctions | Protection des droits fondamentaux, sécurité juridique, leadership normatif mondial, influence sur standards internationaux |
| États-Unis | Autorégulation sectorielle, guidance fédérale et étatique, principes volontaires (NIST AI Risk Management Framework) | Faible à moyen | Enquêtes ponctuelles par FTC, recours sectoriels, incitations fiscales, partenariats public-privé | Pénalités civiles limitées, sanctions contractuelles, responsabilité civile et commerciale | Compétitivité industrielle, innovation rapide, flexibilité, leadership technologique via entreprises privées, préservation de souveraineté économique |
| Chine | Régulation stricte et centralisée, lois sur la cybersécurité et directives IA (CAC, 2023‑2025) | Très élevé | Licences obligatoires, surveillance gouvernementale, contrôle du contenu généré, audits de sécurité | Amendes importantes, suspension d’activités, révocation de licences, sanctions pénales pour dirigeants | Sécurité nationale, contrôle politique, autonomie technologique, consolidation de champions nationaux, limitation de l’influence étrangère |
| Japon | Cadre réglementaire souple, principes volontaires, lois sectorielles IA (2023‑2025) | Moyen | Auto-certification, recommandations, audits volontaires | Amendes administratives limitées, recommandations officielles, restrictions d’accès à certains marchés | Encourager innovation tout en assurant sécurité et confiance, alignement sur standards internationaux |
| Corée du Sud | Régulation mixte, principes directeurs, obligations sectorielles pour IA critique | Moyen à élevé | Autorité de protection des données, audits sectoriels, conformité obligatoire pour systèmes à risque | Amendes proportionnelles au chiffre d’affaires, injonctions, suspension temporaire de services | Innovation technologique, compétitivité industrielle, protection des citoyens, alignement avec normes internationales |
| Taïwan | Régulation graduelle, recommandations et directives sectorielles | Moyen | Surveillance par agences sectorielles, certifications volontaires | Amendes administratives, retrait volontaire ou suspension de services | Encourager R&D locale, protection des utilisateurs, interopérabilité avec standards internationaux |
[1] Michael Kratsios, Remarks by Director Michael Kratsios at the India AI Impact Summit, India AI Impact Summit, New Delhi, 20 février 2026, Office of Science and Technology Policy (texte intégral consulté en ligne), disponible sur The White House website, https://www.whitehouse.gov/articles/2026/02/remarks-by-director-michael-kratsios-at-the-india-ai-impact-summit/?utm_source=chatgpt.com. Aussi, « White House adviser says US “totally” rejects global AIgovernance », article AFP (dépêches du 20 février 2026) relatant les déclarations de Michael Kratsios à New Delhi lors du India AI Impact Summit 2026, rapportées par plusieurs organes de presse internationale.
[2] Ibid. Voir plus particulièrement les passages où Kratsios critique l’idée d’une gouvernance normative centralisée et appelle à promouvoir « l’adoption et la prospérité humaine » via l’IA. « No Euro tone again: US rejects global AI governance, pushes ‘sovereign’ American stack », New Indian Express, 20 février 2026
[3] UNGA 80, US rejects a centralised AI rulebook, compte rendu des débats à l’Assemblée générale des Nations Unies où les États-Unis ont rejeté une gouvernance centralisée de l’IA, favorisant la souveraineté nationale et la coopération entre États. « US promotes AI sovereignty, exports at India AI Impact Summit 2026 », Business Standard, 20 février 2026, https://www.business-standard.com/technology/tech-news/us-promotes-ai-sovereignty-exports-at-india-ai-impact-summit-2026-126022000532_1.html?utm_source=chatgpt.com.
[4] Règlement européen sur l’intelligence artificielle, dit AI Act, adoptée en 2024 par les institutions de l’Union européenne pour encadrer les « risques » liés à l’IA selon des niveaux de risque gradués (textes et commentaires officiels des institutions européennes disponibles dans la documentation juridique de l’UE). Soulignons que l’habitude a été prise, notamment avec le Digital Markets Act, de nommer « Acts » en anglais la catégorie de textes relevant de l’appellation de « Règlement » au sens des traités européens, pour leur donner une lisibilité équivalente aux textes de lois aux Etats-Unis. Pour autant tous les Règlements ne sont pas dénommés en anglais « Acts » mais « Regulations ».
[5] Commission européenne, White Paper on Artificial Intelligence – A European approach to excellence and trust, COM(2020) 65 final, Bruxelles, 19 février 2020, p. 2–4.
[6] Commission européenne, Commission appoints expert group on AI and launches the European AI Alliance, Press release, 14 June 2018. Le AI HLEG a été constitué pour apporter un conseil stratégique à la Commission sur sa stratégie européenne en matière d’IA, d’élaborer des recommandations de politique publique, et de traiter des enjeux éthiques, juridiques et sociaux de l’intelligence artificielle dans le cadre de la mise en œuvre de la Communication « Artificial Intelligence for Europe » publiée en avril 2018. Le groupe, composé d’experts indépendants issus du monde académique, de la société civile et de l’industrie, devait également contribuer à l’élaboration de lignes directrices éthiques et d’orientations pour une IA digne de confiance en Europe.
[7] Commission européenne, 2030 Digital Compass: the European way for the Digital Decade, COM(2021) 118 final, Bruxelles, 9 mars 2021.
[8] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (Artificial Intelligence Act), COM(2021) 206 final, 21 avril 2021, fondée sur l’article 114 TFUE.
[9] AI Act, considérant 5.
[10] Ibid., art. 5.
[11] Ibid., art. 8 à 15.
[12] Ibid., art. 59 et s.
[13] Ibid., art. 99.
[14] Ian Manners, “Normative Power Europe: A Contradiction in Terms?”, Journal of Common Market Studies, vol. 40, no 2, 2002, p. 235–258.
[15] Ursula von der Leyen, Déclaration sur l’accord politique relatif à l’AI Act, Commission européenne, communiqué de presse, Bruxelles, 9 décembre 2023.
[16] Capital.com, Largest AI companies by market capitalization 2025, consulté février 2026 : aucune société européenne dans le top 15.
[17] SAP, rapport annuel 2025, SAP Integrated Report 2025, pages 48‑52, Walldorf, Allemagne : estimation de l’activité IA et position dans les classements mondiaux.
[18] Voir notamment nos articles Souty, F., « Digital Markets Act européen, politique de la concurrence et souveraineté : conséquences géopolitiques et impact stratégique du droit sur l’économie digitale », Le Diplomate Média, 4 février 2026 et « Politique de la concurrence et Antitrust en Europe et aux Etats-Unis : perspectives transatlantiques et enjeux géopolitiques », Le Diplomate Médias, 30 décembre 2025. Voir aussi l’excellente analyse de Babinet, G., « Le véritable sujet de l’IA, c’est l’antitrust », Les Echos, mercredi 18 février 2026, p. 12 qui explique fort justement que « le débat sur l’IA est moins un débat sur le droit du travail qu’un débat de politique de la concurrence ».
[19] Souty, F., Cyberespace, sécurité, souveraineté, technologie et rivalités géopolitiques mondiales : enjeux juridiques, régulation et priorités pour l’Union européenne et pour la France », Le Diplomate Média, 11 février 2026.
[20] Federal Trade Commission, “Using Artificial Intelligence and Algorithms,” Business Blog, 8 avril 2020 ; voir également FTC, Aiming for Truth, Fairness, and Equity in Your Company’s Use of AI, 19 avril 2021.
[21] National Institute of Standards and Technology, Artificial Intelligence Risk Management Framework (AI RMF 1.0), U.S. Department of Commerce, janvier 2023.
[22] Executive Office of the President, Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, 30 octobre 2023, Federal Register.
[23] Le terme « red teaming » de contenus avancés vient des pratiques de cybersécurité et d’évaluation des risques, mais appliqué à l’IA générative et aux contenus numériques. C’est une approche proactive pour tester, détecter et évaluer les vulnérabilités ou les risques associés à des contenus produits par l’IA.
[24] Le filigrane de contenus (ou content watermarking en anglais) est une technique qui consiste à insérer dans un contenu des informations invisibles ou visibles qui permettent d’identifier sa source, son propriétaire ou sa traçabilité. C’est un peu comme signer ou marquer un document ou une image pour montrer qu’il appartient à quelqu’un, ou pour suivre sa circulation dans un contexte de protection des droits d’auteurs, de traçabilité ou encore d’authentification de contenus générés par l’IA.
[25] Déclarations rapportées lors du India AI Impact Summit 2026, New Delhi, 20 février 2026, op.cit.
[26] Dépêche AFP, 20 février 2026, déjà citée, reprise notamment par Stratégies, 20 février 2026 ; voir également US promotes AI sovereignty, Business Standard, 20 février 2026 également déjà cité.
[27] Cyberspace Administration of China, Provisions on the Management of Algorithmic Recommendation Services in Internet Information Services, adoptées le 31 décembre 2021, entrées en vigueur le 1er mars 2022.
[28] Cyberspace Administration of China, Provisions on the Administration of Deep Synthesis Internet Information Services, 25 novembre 2022, entrées en vigueur le 10 janvier 2023.
[29] Cyberspace Administration of China et al., Interim Measures for the Management of Generative Artificial Intelligence Services, 13 juillet 2023, entrées en vigueur le 15 août 2023.
[30] Souty F. « Loi chinoise antimonopole – Bilan : L’Autorité chinoise de la concurrence tire un premier bilan des deux années d’application de la loi antimonopole », Concurrences N° 4-2010, 12 août 2010, Art. N° 33180, pp. 235-238
[31] State Council of the People’s Republic of China, New Generation Artificial Intelligence Development Plan, 8 juillet 2017.
[32] « AI Regulation in Japan: Policy Framework & Governance », Nemko Digital, 2026, pp. 2-4 (explication des objectifs nationaux de l’Act, de l’établissement de l’AI Strategy Headquarters sous le Cabinet Office et de l’intégration de lois sectorielles existantes pour le droit applicable, montrant l’approche dite de « light touch regulation »)
[33] International Bar Association, Japan’s emerging framework for responsible AI: legislation, guidelines and guidance, 12 nov. 2025, section sur l’AI Promotion Act .
[34] Vincent Fauchoux, « Japan’s 2025 AI Promotion Act: Structuring Innovation Through Soft Regulation », Tech & DATA, 2 juin 2025, pp. 1-3 (présentation des objectifs, des axes principaux et de l’architecture institutionnelle de la loi, soulignant l’absence de sanctions directes mais la promotion de la coopération entre parties prenantes).
[35] «South Korea Enacts World’s First Comprehensive AI Law, Balancing Innovation and Safety», Asia Daily, 25 janv. 2026.
[36] « South Korea’s AI Basic Act Takes Effect Jan 22, 2026 », AI Business Weekly, 22 janv. 2026. Cet article fournit une série d’informations précises sur l’entrée en vigueur, la structure institutionnelle, le délai de grâce et les sanctions, y compris le contexte réglementaire plus large (articles 25-43, dispositions applicables à la gouvernance nationale.
[37] Ministry of Digital Affairs (R.O.C., Taïwan), Legislative Yuan Passes Artificial Intelligence Fundamental Act in Third Reading, Laying Foundation for AI Innovation, Security Governance in Taiwan, communiqué du 24 déc. 2025 décrivant l’AI Basic Act et ses objectifs de promotion d’une IA centrée sur l’humain et la protection des droits fondamentaux.
[38] Baker McKenzie, Taiwan: AI Basic Act, fact sheet, 9 jan. 2026. Note qui précise les obligations institutionnelles (NSTC, MODA) et les sept principes directeurs alignés avec des normes internationales en matière de gouvernance de l’IA. https://www.bakermckenzie.com/en/insight/publications/2026/01/taiwan-ai-basic-act. AI Basic Act passed, tries to balance AI promotion with social welfare, Focus Taiwan (CNA), 23 déc. 2025 : donne des détails sur les principes, la création du comité national et les mesures de soutien pour l’industrie et l’infrastructure.
[39] White & Case LLP, AI Watch: Global regulatory tracker – Taiwan, jan. 2026, discute du cadre actuel, qui repose principalement sur une régulation de principe et des lignes directrices plutôt que sur des sanctions directes, positionnant Taïwan dans une approche « à faible contrainte ».
[40] Commission européenne, Artificial Intelligence Act, 2024, cf. considérants et articles sur la portée extraterritoriale et la protection des droits fondamentaux.
[41] Cyberspace Administration of China, Interim Measures for the Management of Generative Artificial Intelligence Services, 13 juillet 2023, article 4.
[42] Ursula von der Leyen, communiqué de presse sur l’adoption de l’AI Act, Commission européenne, 9 décembre 2023.
[43] OECD, AI Policy Observatory: Mapping AI Regulations, 2025: https://www.oecd.ai/en/policy-regulations
#intelligenceartificielle,#IA,#AI,#gouvernanceIA,#regulationIA,#souverainetenumerique,#souverainetenormative,#geopolitique,#geopolitiqueIA,#puissancenormative,#fragmentationnormative,#standardsIA,#normestech,#droitnumerique,#AIAct,#EuropeNumerique,#USAtech,#ChineIA,#AsieTech,#cybersecurite,#data,#cloud,#semiconducteurs,#TSMC,#innovation,#competitivite,#risquesIA,#auditalgorithmique,#certificationIA,#enforcement,#conformite,#trustworthyAI,#NIST,#G7,#ONU,#OCDE,#diplomatietechnologique,#decouplage,#blocsnormatifs,#guerretechnologique

François Souty est Président exécutif du Cabinet LRACG Conseil en stratégies européennes et droit de la concurrence, enseignant à Excelia Business School (La Rochelle-Tours-Cachan), à l’Université Catholique de l’Ouest (Niort) et chargé d’enseignements à la Faculté de Droit de l’Université de Nantes. Auparavant Expert National Détaché auprès de la Commission Européenne (rapporteur antitrust sur les marchés financier de 2018 à 2021 et chargé d’affaires internationales de concurrence à la DG Concurrence de 2021 à 2024), il a été conseiller économique européen pour la politique de la concurrence auprès du gouvernement de Géorgie à Tbilisi en 2017-2018. Longtemps Directeur départemental de la DGCCRF au ministère de l’Économie et des Finances (1982 à 2024), il a été également professeur-associé à l’Université de La Rochelle (1996-2018). Membre des comités d’experts de la concurrence de l’OCDE et de la CNUCED de 1992 à 2018, il a participé aux travaux de l’OMC sur le commerce international et la politique de la concurrence de 1997 à 2004. Un des fondateurs du Cercle Jefferson, du Cercle K2, de la revue Concurrences en 2004, il est auteur d’une douzaine de livres ou rapports internationaux et de plus d’une centaine d’articles académiques en droit et politique de la concurrence et en histoire économique. Il prépare actuellement la 5e édition de «Droit et politique de la concurrence de l’Union Européenne » chez LGDJ-Montchrestien (coll. Clefs). Il est auteur d’une thèse de doctorat en histoire économique à l’Université de Paris III sur les monopoles des Compagnies des Indes néerlandaises au XVIIIe siècle. François Souty est Officier de l’Ordre National du Mérite.
