La Chine encadre les IA "humanoïdes" : ce que changent les nouvelles règles

  • Auteur de la discussion Auteur de la discussion Mathieu
  • Date de début Date de début

Mathieu

Alpha & Oméga
Admin
15 Oct 2006
9 589
4 919
298
Shanghai, People Square
www.murailledechine.com
Pékin vient de publier le premier cadre réglementaire au monde spécifiquement dédié aux services d'IA à interaction émotionnelle. Compagnons virtuels, chatbots affectifs, "petits amis IA" : à partir du 15 juillet 2026, les règles du jeu changent. Décryptage d'un texte qui concerne aussi les utilisateurs étrangers en Chine.




De quoi parle-t-on exactement​

Le 10 avril 2026, cinq administrations centrales (CAC, NDRC, MIIT, Ministère de la Sécurité publique et SAMR) ont publié conjointement les "Mesures provisoires pour l'administration des services d'interaction anthropomorphique par intelligence artificielle" (人工智能拟人化互动服务管理暂行办法). Le texte entre en vigueur le 15 juillet 2026.

Le champ d'application vise les services qui simulent les traits de personnalité, les modes de pensée et les styles de communication d'êtres humains, et qui entretiennent une interaction émotionnelle continue avec les utilisateurs. C'est le mot "continue" qui fait la différence avec le projet de texte publié en décembre 2025 pour consultation : la version finale exclut explicitement le service client intelligent, les assistants de recherche, les outils de productivité et les chatbots de questions-réponses factuelles.

En clair, ce sont les applications de type compagnon virtuel, partenaire IA ou confident numérique qui sont dans le viseur. En Chine, ce marché est dominé par des apps comme Xingye (星野, de MiniMax/Alibaba), Zhumengdao (筑梦岛), Xiaoice (ex-Microsoft), Maoxiang (ByteDance) ou encore X-Her. Le phénomène n'est pas marginal : Xingye comptait environ 500 000 utilisateurs actifs quotidiens sur le marché chinois, et sa version internationale Talkie a généré environ 70 millions de dollars de revenus en 2024.




Les cinq piliers du nouveau cadre​

Le texte s'articule autour de plusieurs axes qui, ensemble, dessinent une approche que les régulateurs qualifient eux-mêmes de "prudente et inclusive".

Transparence obligatoire. Les fournisseurs doivent informer clairement l'utilisateur qu'il interagit avec une IA et non un être humain. Le projet initial imposait un rappel toutes les deux heures d'utilisation continue. La version finale maintient le principe des rappels réguliers et de la facilité de déconnexion, mais assouplit certaines modalités d'application.

Interdictions de contenu. Le texte dresse une liste de contenus interdits qui va au-delà des règles habituelles de modération en ligne. Sont notamment prohibés : les contenus qui encouragent, glorifient ou suggèrent le suicide ou l'automutilation ; la violence verbale portant atteinte à la dignité ou à la santé mentale ; la manipulation émotionnelle poussant l'utilisateur à des décisions déraisonnables ; la création excessive de dépendance affective nuisant aux relations interpersonnelles réelles. Cette dernière interdiction est inédite dans un cadre réglementaire.

Protection renforcée des mineurs. C'est le volet le plus strict du texte. Les fournisseurs ont l'interdiction formelle de proposer aux mineurs des services impliquant des "relations intimes virtuelles" : parents virtuels, compagnons sentimentaux virtuels, ou toute relation de type familial simulée. Pour les mineurs de moins de 14 ans, le consentement explicite des parents est requis. Un "mode mineur" obligatoire doit être intégré, avec limites de temps, alertes de sécurité et contrôle parental.

Gouvernance des données d'interaction. Les données issues des conversations émotionnelles sont classées comme "informations personnelles sensibles". Leur utilisation pour entraîner les modèles d'IA nécessite le consentement individuel explicite de chaque utilisateur, un changement majeur par rapport au système actuel où la collecte se fait par défaut avec option de retrait. Les utilisateurs doivent pouvoir copier et supprimer l'intégralité de leur historique de conversation.

Détection de crise et intervention. Les fournisseurs doivent identifier en temps réel les situations à risque. Lorsqu'un utilisateur exprime des émotions extrêmes, le système doit générer du contenu d'apaisement et l'encourager à chercher de l'aide. En cas d'expression claire d'intention suicidaire ou d'automutilation, le fournisseur doit prendre des mesures d'intervention et contacter le tuteur ou le contact d'urgence de l'utilisateur.




Ce qui a changé entre le projet et la version finale​

Le texte mis en consultation en décembre 2025 avait suscité un vif débat dans l'écosystème tech chinois. Plusieurs ajustements notables ont été apportés dans la version définitive.

Le périmètre a été resserré. Le projet initial couvrait potentiellement tous les chatbots simulant des traits humains. La version finale cible spécifiquement les services d'interaction émotionnelle continue, ce qui exclut les assistants de travail, les outils éducatifs et les services clients automatisés.

L'obligation de reprise en main humaine en cas de scénario extrême a été retirée. Les audits annuels obligatoires sur les données des mineurs ne sont plus assortis d'une fréquence rigide. L'interdiction de fournir des "compagnons virtuels de type parent" aux personnes âgées, présente dans le projet, a été supprimée dans la version finale, ne conservant que des obligations de vigilance et d'accompagnement.

En contrepartie, les sanctions ont été renforcées : amendes, suspension de services, restriction des inscriptions. Les cas impliquant des atteintes à la vie ou à la santé des utilisateurs font l'objet de sanctions alourdies.

Le texte ajoute également des dispositions en faveur de l'innovation : soutien à la recherche sur les algorithmes, les puces et les frameworks, encouragement des bacs à sable réglementaires, et promotion de la littératie IA auprès du public.




Pourquoi ça compte, même hors de Chine​

La Chine est le premier pays à produire un texte réglementaire spécifiquement consacré à l'interaction émotionnelle avec l'IA. L'affaire Character.AI aux États-Unis (poursuites judiciaires après des cas de détresse psychologique chez des adolescents) et les sanctions européennes contre Replika ont nourri le débat, mais aucun cadre équivalent n'existe encore en Occident. L'AI Act européen soumet les systèmes d'interaction émotionnelle à des obligations renforcées, mais sans texte dédié de cette précision.

Pour les utilisateurs en Chine, le changement est tangible. Les apps de compagnons IA vont devoir intégrer des modes mineurs, des mécanismes de détection de crise, des rappels de réalité et des options de suppression des données avant le 15 juillet. Les fournisseurs dépassant un million d'inscrits ou 100 000 utilisateurs actifs mensuels devront réaliser des évaluations de sécurité formelles et les soumettre aux régulateurs.

L'approche chinoise se distingue par un trait récurrent : réguler par verticale plutôt que par loi cadre unique. Depuis 2022, Pékin a publié des textes distincts pour les algorithmes de recommandation, la synthèse profonde (deepfakes), l'IA générative, le labeling des contenus IA, et désormais l'interaction anthropomorphique. Cette stratégie permet d'ajuster les règles à chaque usage spécifique, au risque de créer un empilement réglementaire complexe pour les entreprises.




Ce que ça signifie concrètement​

Si vous utilisez des applications comme Xingye, Zhumengdao, Xiaoice ou d'autres services de compagnon IA en Chine, attendez-vous à des changements visibles dans l'interface dès cet été : rappels explicites que votre interlocuteur est une IA, mode mineur activable, et nouvelles options de gestion de vos données de conversation.

Pour les entreprises tech étrangères présentes en Chine ou développant des produits d'IA destinés au marché chinois, le texte impose un audit de conformité avant le 15 juillet sur la conception des produits, la gouvernance des contenus, les pratiques de divulgation et les protections jeunesse.

💬 Vous utilisez des compagnons IA en Chine ? Comment percevez-vous ces nouvelles règles : protection nécessaire ou encadrement excessif ? Partagez votre point de vue dans les commentaires.

- Geopolitechs, "China Rolls Out Interim Regulations on AI Human-Like Interaction Services: A Detailed Analysis" (10 avril 2026), traduction intégrale du texte final
- ChinaLawTranslate, "Provisional Measures on the Administration of Human-like Interactive AI Services (Draft)" (27 déc. 2025), traduction du projet de consultation
- ITTC Network, "China introduces AI compliance framework for digital platforms" (12 avril 2026)
- Carnegie Endowment for International Peace, "China Is Worried About AI Companions. Here's What It's Doing About Them" (27 fév. 2026)
- Scientific American, "China's Plans for Humanlike AI Could Set the Tone for Global AI Rules" (29 déc. 2025)
- MLex, "China sets rules for companionship AI, balances oversight with innovation" (13 avril 2026)
- IAPP, "Notes from the Asia-Pacific region: Str0ng start to 2026 for China's data, AI governance landscape" (jan. 2026)
- Sixth Tone, "Cracking the Love Code: The Struggles of AI Romance Apps" (2024)
- ChinaTalk, "Why America Builds AI Girlfriends and China Makes AI Boyfriends" (oct. 2025)
- Second Talent, "10 Best Chinese AI Chatbots Competing with ChatGPT [2026]" (avril 2026)