Rédigé par : Mankun
Introduction : Un conflit systémique déclenché par une « opération de substitution »
Récemment, une expérience utilisateur plutôt discrète a provoqué une vive tension entre l'industrie de l'IA et les plateformes Internet : certains smartphones équipés d'assistants IA, en tentant d'effectuer automatiquement des opérations telles que l'envoi d'enveloppes rouges WeChat ou des commandes e-commerce via des commandes vocales, ont été identifiés par les systèmes des plateformes comme « suspectés d'utiliser des logiciels externes » (cheat), déclenchant des alertes de risque voire des restrictions de compte.
En surface, il ne s'agit que d'un problème de compatibilité technique ; mais dans un contexte industriel plus large, cela révèle en réalité un conflit structurel autour de « qui a le droit d'opérer le smartphone, qui contrôle l'accès utilisateur ».
D'un côté, les fabricants de smartphones et les équipes de grands modèles linguistiques qui souhaitent intégrer profondément l'IA dans le système d'exploitation pour réaliser une « interaction imperceptible » ; de l'autre, les plateformes Internet qui ont longtemps construit leur écosystème commercial en s'appuyant sur l'accès via les applications, le parcours utilisateur et la boucle de données fermée.
Lorsque « l'assistant universel » commence à « agir » à la place de l'utilisateur, est-ce un outil d'efficacité ou un perturbateur des règles ? Cette question est désormais portée devant la réalité juridique.
« Le futur est là » ou « Avertissement de risque » — Une « guerre du code » se déroulant derrière l'écran du smartphone
Récemment, les utilisateurs ayant acquis les derniers smartphones IA ont pu vivre une scène dramatique : s'émerveiller de leur commodité avant de recevoir une alerte de risque de la part de plateformes comme WeChat.
Tout a commencé avec la coopération approfondie entre le grand modèle linguistique « Doubao » de ByteDance et certains fabricants de smartphones. Les assistants vocaux ne se contentent plus de consulter la météo, mais deviennent des super assistants capables de « voir l'écran et de simuler des opérations ».
Imaginez cette scène : il suffit de dire à son téléphone « envoie une enveloppe rouge dans le groupe de l'équipe de football Qing Fei » ou « aide-moi à acheter les nouvelles chaussures de football Adidas au meilleur prix » pour que le téléphone ouvre automatiquement l'application, compare les prix, paie — le tout sans que vous ayez à toucher l'écran.
Cette technologie, basée sur la « simulation de clics » et la « compréhension sémantique de l'écran », permet pour la première fois à l'IA de véritablement le contrôle du téléphone. Cependant, cette « fluidité » s'est rapidement heurtée au « mur » des plateformes Internet.
De nombreux utilisateurs ont constaté qu'en utilisant l'IA Doubao pour opérer WeChat, cela déclenchait des restrictions de compte, voire des avertissements « suspecté d'utiliser des logiciels externes ». Des plateformes e-commerce comme Taobao sont également très vigilantes face à ce type d'accès automatisé. Un blogueur fait cette analogie : l'IA est comme un majordome qui fait vos courses à votre place, mais qui se fait interpeller par le vigile du magasin : « Nous n'accueillons pas les robots. »
-
L'utilisateur ne comprend pas : C'est mon téléphone, mon IA autorisée, pourquoi ne peut-elle pas agir pour moi ?
-
La plateforme se défend : Mon écosystème, ma sécurité, n'autorisent pas les « opérations de substitution » externes.
Ce qui semble être une simple friction de compatibilité technique est en réalité une confrontation historique majeure dans l'histoire d'Internet en Chine. Ce n'est plus une simple bataille pour le trafic, mais un choc direct entre le système d'exploitation (OS) et les super applications concernant la « souveraineté numérique ».
La logique commerciale frappe de haut — Quand le « jardin clos » rencontre le « briseur de murs »
Pourquoi la réaction des grands groupes comme Tencent et Alibaba est-elle si vive ? Il faut remonter au modèle commercial central de l'Internet mobile — le « jardin clos » (walled garden).
La base commerciale des plateformes sociales, e-commerce et de contenu réside dans le monopole de l'accès et du temps utilisateur. Chaque clic, chaque étape de navigation est cruciale pour la monétisation publicitaire et l'accumulation de données. L'émergence d'« assistants IA de niveau système » comme Doubao représente un défi direct à ce modèle.
Il s'agit d'un jeu profond autour de l'« accès » et des « données ». Le smartphone IA touche aux intérêts commerciaux vitaux des géants de l'Internet, principalement sur trois points :
1. La crise du « désclic » :
Lorsque l'utilisateur n'a qu'à parler et que l'IA accomplit directement la tâche, l'application elle-même peut être contournée. L'utilisateur n'a plus besoin d'ouvrir l'application pour parcourir des produits, voir des publicités, ce qui signifie que l'économie de l'attention utilisateur et l'exposition publicitaire, dont dépendent les plateformes, seront considérablement affaiblies.
2. L'acquisition « parasite » des actifs de données :
L'IA « voit » l'écran pour opérer et lire les informations, sans que la plateforme n'ait à ouvrir d'interface. Cela équivaut à contourner les règles de coopération traditionnelles et à accéder directement au contenu, aux produits et aux données que la plateforme a construits à grands frais. Du point de vue de la plateforme, c'est une forme de « passager clandestin » (free-riding), pouvant même utiliser ces données pour entraîner ses propres modèles d'IA.
3. Le changement de « gardien » de la distribution du trafic :
Par le passé, le pouvoir de distribution du trafic appartenait aux super applications. Désormais, l'IA de niveau système devient le nouveau « maître interrupteur général ». Lorsque l'utilisateur demande « que me recommandes-tu ? », la réponse de l'IA déterminera directement vers quels flux commerciaux se dirigera le trafic, ce qui est suffisant pour remodeler la concurrence.
Par conséquent, les avertissements et les protections des plateformes ne sont pas de simples rejets techniques, mais une défense fondamentale de leur propre écosystème commercial. Cela révèle une contradiction profonde, encore non résolue, entre l'innovation technologique et les règles des plateformes.
Se préparer avant la tempête — Analyse approfondie des quatre risques juridiques majeurs des smartphones IA
En tant que professionnels du droit, à travers ce conflit entre smartphones IA et grands groupes, nous pouvons identifier quatre risques juridiques centraux incontournables :
一、 Limites de la concurrence : La neutralité technologique n'équivaut pas à une intervention sans responsabilité
Le point central de la controverse actuelle est de savoir si les opérations de l'IA constituent ou non une concurrence déloyale. Selon la « Loi contre la concurrence déloyale », l'utilisation de moyens techniques pour entraver le service normal des produits réseau d'autrui peut constituer une infraction.
Risque de « logiciel externe » : Dans l'« affaire Tencent c. 360 » et plusieurs affaires récentes de « logiciels externes de saisie automatique d'enveloppes rouges », la pratique judiciaire a établi un principe : sans autorisation, modifier ou perturber arbitrairement la logique de fonctionnement d'autres logiciels, ou augmenter la charge des serveurs par des moyens automatisés, peut constituer une concurrence déloyale. La « simulation de clics » de l'IA, si elle saute des publicités, contourne des vérifications d'interaction, affecte le service de la plateforme ou sa logique commerciale, pourrait également être reconnue comme une violation.
Problèmes de trafic et de compatibilité : Si l'IA détourne l'utilisateur de la plateforme d'origine vers ses services recommandés, cela pourrait relever du « détournement de trafic ». Inversement, si une plateforme interdit purement et simplement toutes les opérations IA, elle pourrait devoir démontrer que cette interdiction relève d'une autoprotection raisonnable et nécessaire.
二、 Sécurité des données : Les informations à l'écran relèvent des informations personnelles sensibles
L'IA a besoin de « voir » le contenu de l'écran pour exécuter des commandes, ce qui touche directement aux strictes normes de la « Loi sur la protection des informations personnelles ».
-
Traitement d'informations sensibles : Le contenu de l'écran contient souvent des historiques de chat, des informations de compte, des traces de déplacement, etc., qui sont des informations personnelles sensibles selon la loi, nécessitant un « consentement distinct » de l'utilisateur. L'« autorisation globale » courante sur les smartphones IA est sujette à caution. Si l'IA, en exécutant une commande de réservation, « voit » et traite des messages privés, elle pourrait violer le principe de « minimisation ».
-
Flou du responsable du traitement : Le traitement des données a-t-il lieu localement sur le téléphone ou dans le cloud ? En cas de fuite, comment la responsabilité est-elle partagée entre le fabricant du téléphone et le fournisseur de services IA ? Les accords utilisateurs actuels ne définissent souvent pas clairement ces points, créant un risque de non-conformité.
三、 Litige antitrust : Une plateforme a-t-elle le droit de refuser l'accès à l'IA ?
Les futurs litiges pourraient porter sur les « installations essentielles » et le « refus de transaction ».
Le camp des smartphones IA pourrait soutenir : WeChat, Taobao ont déjà un caractère d'infrastructure publique, et refuser l'accès à l'IA sans justification valable est suspecté d'être un abus de position dominante, entravant l'innovation technologique.
Le camp des plateformes pourrait argumenter : L'ouverture des données doit être conditionnée par la protection de la sécurité et de la propriété intellectuelle. Autoriser l'IA à lire les données sans autorisation pourrait franchir les mesures de protection technique, portant atteinte aux droits des utilisateurs et de la plateforme.
四、 Responsabilité de l'utilisateur : Quand l'IA se trompe, qui paie ?
Le passage de l'IA d'outil à « agent » soulève une série de questions de responsabilité civile.
-
Effet des actes d'agent : Si l'IA, en raison d'une mauvaise compréhension, achète le mauvais produit (par exemple, interprète « téléphone pas cher » comme un téléphone contrefait), s'agit-il d'une erreur substantielle ou d'une mauvaise représentation ? L'utilisateur peut-il demander un remboursement au motif que « ce n'est pas une opération personnelle » ?
-
Perte due au blocage de compte : Un utilisateur dont le compte tiers est bloqué à cause de l'utilisation d'une fonction IA pourrait réclamer des dommages-intérêts au fabricant du téléphone. La clé réside dans l'information claire sur ce risque lors de la vente. Si l'information est insuffisante, le fabricant pourrait faire face à des actions collectives.
Ce jeu n'est pas seulement une bataille technologique, mais aussi une redéfinition pratique des frontières juridiques de la propriété des données, de la responsabilité des plateformes et de l'autorisation utilisateur. Les fabricants d'IA et les plateformes doivent trouver un équilibre clair entre innovation et conformité.
Conclusion : Frontières des droits et esprit contractuel
La friction entre Doubao et les grands groupes, en surface un conflit produit, révèle en réalité une faille entre les anciens et les nouveaux ordres : le passé centré sur les applications rencontre l'impact de l'expérience interconnectée centrée sur l'IA.
En tant que professionnels du droit, nous voyons clairement que le système juridique existant, face à l'intervention de l'intelligence artificielle générale, semble dépassé. Une simple « interdiction » ou « contournement » ne peut constituer une solution durable. La voie future ne réside peut-être pas dans la poursuite de l'utilisation de techniques d'évasion comme la « simulation de clics », mais dans la promotion de l'établissement d'un protocole standardisé d'interface d'interaction IA.
À l'heure actuelle où les règles ne sont pas encore claires, nous rendons hommage à ceux qui, à la pointe de l'IA, persistent à explorer et promeuvent une technologie tournée vers le bien. Mais nous devons aussi être lucides : respecter les frontières permet souvent d'aller plus loin que la disruption elle-même.







