L’arrêt de la Haute Cour britannique n’a pas résolu les principales controverses sur les droits d’auteur dans le domaine de la formation à l’IA.

La décision longtemps attendue de la Haute Cour du Royaume-Uni dans l’affaire Getty Images contre Stability AI devait clarifier la manière dont le droit d’auteur s’applique à l’intelligence artificielle. Il n’en a rien été. Au lieu de résoudre l’un des défis juridiques les plus importants de l’intelligence artificielle moderne, à savoir si l’entraînement de modèles d’IA sur des documents protégés par le droit d’auteur de tiers sans autorisation est contraire à la loi, la Cour a entièrement contourné la question.

Ce n’est pas le manque d’intérêt du tribunal qui a permis d’éviter cette procédure. Getty Images a renoncé à sa demande principale concernant la formation des modèles d’IA après avoir admis que Stability AI n’effectuait pas son travail de formation au Royaume-Uni. Ce point est important. La compétence définit les limites du pouvoir du tribunal et, dans ce cas, elle a coupé l’herbe sous le pied d’une décision qui aurait pu faire date. Iain Connor, associé en propriété intellectuelle chez Michelmores, l’a dit clairement : le Royaume-Uni n’a toujours pas de décision juridique claire sur la légalité du processus d’apprentissage d’un modèle d’IA, basé sur l’ingestion de matériel protégé par le droit d’auteur.

Pour les décideurs de haut niveau, cela laisse un vide. En l’absence d’orientation réglementaire, les responsables de l’IA sont censés naviguer dans cet espace sans carte claire. Cela signifie que les cadres portent aujourd’hui la majeure partie du fardeau des risques liés à la propriété intellectuelle lorsqu’ils développent, forment ou intègrent des modèles génératifs dans des opérations globales.

La situation exige un changement de mentalité. Tant que les gouvernements ou les tribunaux n’auront pas rattrapé leur retard, l’incertitude juridique restera la règle par défaut. Cela signifie que la modélisation des risques, la clarté de la politique interne et les garanties juridiques doivent être mises en place au niveau de l’entreprise. Il ne suffit pas de s’appuyer sur les paradigmes conventionnels de la propriété intellectuelle. Si vous intégrez l’IA générative dans vos produits, il s’agit là d’un des drapeaux rouges qui nécessitent l’attention du conseil d’administration dès aujourd’hui.

La décision a confirmé la contrefaçon de marque pour l’utilisation des filigranes de Getty dans des images générées par l’IA.

Le tribunal a toutefois rendu une décision définitive : Stability AI a enfreint les marques déposées de Getty et d’iStock en générant des images contenant leurs filigranes. Juridiquement, c’est une victoire pour Getty. Techniquement, cette partie de la décision n’était pas controversée. Qu’il soit intentionnel ou non, le contenu généré par l’IA qui imite le filigrane d’une autre société constitue une violation fondamentale des droits de marque.

Mais ce qui compte, c’est que cette victoire est superficielle par rapport à la question juridique plus large de l’IA et du droit d’auteur. Iain Connor, qui s’est exprimé sur ce point, a reconnu que cette victoire ne ferait pas beaucoup bouger l’aiguille pour Getty et a déclaré qu’elle n’offrait « qu’un maigre réconfort ». Il a raison. D’un point de vue stratégique, des règles claires en matière de formation au droit d’auteur auraient permis de remodeler les opérations d’IA à l’échelle mondiale. Au lieu de cela, nous avons obtenu un avis modeste sur un cas étroit d’utilisation d’une marque.

Pour les chefs d’entreprise, la conclusion est que la protection des marques fonctionne toujours comme prévu, même dans un contexte dominé par l’IA. C’est encourageant. L’identité de votre marque est toujours défendable, qu’elle soit numérique ou non. Mais ne confondez pas cela avec une protection plus large de la propriété intellectuelle. Cette décision n’a pas permis d’établir si l’utilisation d’images, de musique ou de contenus écrits sous licence dans des ensembles de données d’entraînement à l’IA est licite ou non.

En bref, un conteneur a été marqué, mais le navire a continué à naviguer. Si votre équipe dirigeante attend que les tribunaux définissent des règles équitables pour l’utilisation du contenu de l’IA, ne retenez pas votre souffle. Vous feriez mieux de construire votre tampon juridique et opérationnel autour de stratégies de licence proactives et d’audits de propriété intellectuelle plutôt que d’attendre que la jurisprudence s’aligne sur la réalité technologique.

Les limitations juridictionnelles ont restreint la capacité du tribunal à traiter de la légalité de la formation AI sur des documents protégés par le droit d’auteur.

La question centrale de l’affaire Stability AI, à savoir si l’entraînement sur des données protégées par le droit d’auteur est contraire à la loi, n’a jamais été pleinement examinée. Pour quelle raison ? La juridiction.

Stability AI a déclaré qu’elle n’avait pas effectué la formation de son modèle de génération d’images, Stable Diffusion, au Royaume-Uni. Getty a admis ce point. De ce fait, la Haute Cour du Royaume-Uni n’a pas pu se prononcer sur la question de savoir si la formation elle-même constituait une violation du droit d’auteur. Cette limitation a eu un effet d’entraînement, la question la plus importante n’ayant pas été abordée. Au lieu d’une réponse directe sur la légalité des pratiques de formation à l’IA, le résultat a apporté à la fois une clarté procédurale et une ambiguïté juridique.

Nathan Smith, associé en propriété intellectuelle chez Katten Muchin Rosenman, a clairement indiqué que la décision laissait une « clarté superficielle ». Pour les entreprises qui s’appuient sur des cadres juridiques pour approuver leurs pipelines de formation à l’IA, il s’agit d’une base fragile. Vous ne savez toujours pas où commence et où finit la ligne juridique.

Pour les dirigeants qui supervisent la politique en matière d’IA, ce type d’écart juridictionnel devrait inciter à une coordination stratégique à long terme. Si vos systèmes d’IA fonctionnent au-delà des frontières, vous aurez besoin d’un registre des risques qui tienne compte de l’exposition juridique non pas dans une seule région, mais dans plusieurs. La législation sur les droits d’auteur varie considérablement entre le Royaume-Uni, les États-Unis, l’Union européenne et la région Asie-Pacifique. En l’absence de contrats structurés, d’informations juridiques localisées et de pratiques de formation à l’IA documentées, vous laissez trop de choses au hasard.

En d’autres termes, le tribunal n’a pas pu répondre à la grande question parce qu’il n’en avait pas le droit. C’est donc à vous, et non aux régulateurs, qu’il incombe d’élaborer des cadres capables de survivre dans les zones d’ombre.

Le tribunal a estimé que les systèmes d’intelligence artificielle apprennent des modèles statistiques plutôt que de créer des copies directes d’œuvres protégées par le droit d’auteur.

C’est la partie qui importe à toute personne impliquée dans le développement ou l’intégration de l’IA dans ses systèmes. Selon les témoignages d’experts présentés au tribunal, Stable Diffusion, le modèle d’IA au centre de l’affaire, ne stocke pas les images sur lesquelles il s’entraîne. Il ne recrée pas non plus ces images dans ses résultats. Au lieu de cela, il analyse statistiquement des modèles dans les données d’entraînement et utilise cette compréhension pour générer un contenu entièrement nouveau.

James Clark, associé chez Spencer West, spécialisé dans la protection des données et la réglementation de l’IA, l’a expliqué de la manière suivante : former un modèle sur des contenus protégés par le droit d’auteur ne signifie pas en soi que le modèle stocke ou reproduit ces œuvres. D’un point de vue juridique, cela affaiblit les arguments fondés sur les définitions traditionnelles de la copie.

Ce point change la donne. Si les données ne sont pas stockées ou récupérables et que le modèle ne reproduit pas directement l’œuvre vierge, la plupart des arguments classiques de contrefaçon commencent à perdre de leur poids. Cela ne signifie pas que le risque est nul. Cela signifie que l’application de la loi nécessitera une théorie juridique différente, qui ne repose pas sur la preuve que des copies directes ont été réalisées.

Pour les chefs d’entreprise, il s’agit d’une assurance conditionnelle. Les modèles d’IA construits à l’aide de cette approche statistique peuvent sortir des cadres juridiques actuels qui définissent la « copie ». Cela pourrait être une bonne nouvelle pour les plateformes et les outils génératifs, mais n’oubliez pas que les lois évoluent. La pression internationale pour redéfinir les règles de propriété intellectuelle en réponse aux technologies de l’IA est de plus en plus forte.

En attendant, restez terre à terre. Assurez-vous que vos équipes techniques peuvent documenter la manière dont les données sont ingérées et interprétées par vos modèles. La capacité à démontrer le fonctionnement de vos systèmes, y compris les ensembles de données utilisés et la manière dont les résultats sont créés, aura plus d’importance à l’avenir lors des examens réglementaires.

Cette affaire a mis en évidence le défi que représente l’attribution de la responsabilité des violations de la propriété intellectuelle dans le contexte de l’IA.

L’une des rares leçons à tirer de cette affaire est de savoir où se situe la responsabilité, et ce n’est pas du côté des utilisateurs finaux des contenus générés par l’IA. Les commentaires juridiques relatifs à cette affaire désignent les développeurs et les fournisseurs de modèles d’IA comme les responsables ultimes des violations de la propriété intellectuelle.

Wayne Cleghorn, associé chez Excello Law et spécialiste de la protection des données et de la réglementation en matière d’IA, a clairement expliqué que lorsque des œuvres protégées par le droit d’auteur sont utilisées, ou mal utilisées, dans le cadre du développement de systèmes d’IA, la responsabilité incombe principalement à ceux qui construisent et distribuent les modèles. Getty a renforcé ce point en déclarant qu’il n’était pas possible de poursuivre tous les développeurs qui auraient utilisé son contenu. Au lieu de cela, Getty demande aux gouvernements d’introduire des normes de transparence qui permettraient aux détenteurs de droits de propriété intellectuelle de protéger de manière proactive les contenus utilisés dans les systèmes d’IA.

Pour les dirigeants qui supervisent la stratégie d’IA, il s’agit d’un déclencheur opérationnel. Si vous construisez des modèles ou intégrez des modèles prêts à l’emploi, vous devrez impliquer les équipes juridiques et de conformité dès le début du processus de formation. Documentez comment et d’où proviennent les données de formation. Créez des systèmes qui permettent des contrôles de conformité ultérieurs. Attendre un litige externe ou une pression réglementaire n’est pas une bonne stratégie lorsque vous êtes la partie responsable.

Cela soulève également des questions plus générales pour les entreprises, comme le degré d’exposition juridique de vos activités d’IA. En l’absence de règles gouvernementales claires, toute limitation significative de la responsabilité en matière de propriété intellectuelle doit se faire à l’intérieur de l’entreprise. La transparence, la documentation et l’acquisition responsable d’ensembles de données ne sont plus des suppléments de conformité, mais des considérations stratégiques primordiales.

L’ambiguïté juridique incite à privilégier les accords de licence commerciale négociés plutôt que les litiges prolongés.

L’absence de certitude juridique n’empêche pas les entreprises d’aller de l’avant. Ce qui se produit plutôt, c’est un changement dans la façon dont les organisations gèrent les risques liés au droit d’auteur dans le domaine de l’IA. En l’absence de lois claires ou de jurisprudence fiable, des entreprises comme Getty Images sécurisent leur position par l’octroi de licences. Il s’agit d’un réalignement stratégique, d’une réponse réactive et axée sur les tribunaux à un modèle commercial proactif.

Cela est apparu clairement après l’annonce par Getty d’un nouvel accord de licence axé sur l’IA. Le cours de l’action a notamment augmenté après cette annonce, ce qui suggère que les marchés publics ont perçu cette décision comme un signe de leadership plutôt que comme un recul. Les licences commerciales constituent un moyen plus clair et plus rapide de réduire les risques liés au développement de l’IA tout en établissant des partenariats à long terme avec les détenteurs de contenu.

Pour les décideurs, cela indique la direction que prend l’écosystème. Les entreprises qui veulent éviter les atteintes à leur réputation et les frictions juridiques devront envisager des négociations de licence le plus tôt possible. Les accords négociés avec les propriétaires de contenu permettent aux développeurs de modèles d’IA d’opérer à grande échelle sans déclencher de poursuites judiciaires ou de conflits de marque.

Elle est également efficace. L’octroi de licences permet de prévoir les délais de développement des produits. Elle permet de clarifier les opérations, d’aligner les aspects juridiques sur les aspects techniques et de lancer les produits sans contraintes de dernière minute. En bref, les gagnants dans ce domaine seront les entreprises qui aligneront leur stratégie juridique sur les capacités de leur modèle à long terme. Parier sur des procès interminables n’est pas une utilisation productive du temps ou du capital alors que le marché favorise déjà les solutions proactives.

Principaux faits marquants

  • Les tribunaux britanniques n’apportent aucune clarté juridique sur la formation à l’IA : Les dirigeants ne doivent pas s’en remettre aux tribunaux pour déterminer si l’utilisation de matériel protégé par le droit d’auteur dans le cadre de la formation à l’IA est légale. En l’absence de couverture juridictionnelle, la Haute Cour du Royaume-Uni n’a pas résolu cette question fondamentale, ce qui laisse une lacune importante dans les orientations en matière de risque juridique.
  • La protection des marques est maintenue, mais des problèmes de propriété intellectuelle plus larges subsistent : Si le tribunal a confirmé la revendication de la marque Getty sur les images en filigrane générées par l’IA, il n’a pas abordé la question plus large de l’utilisation du contenu dans l’apprentissage automatique. Les dirigeants ne doivent pas confondre les victoires limitées en matière de propriété intellectuelle avec une protection stratégique.
  • La juridiction est importante lors de la formation à l’IA : les opérations en dehors des frontières nationales peuvent bloquer des décisions juridiques significatives. Les leaders de la technologie doivent prendre en compte les structures juridiques transfrontalières lors de la conception des pipelines d’IA afin d’éviter les angles morts juridictionnels.
  • Les modèles d’IA qui apprennent des modèles peuvent éviter les plaintes traditionnelles pour contrefaçon : Les tribunaux ont reconnu que les modèles génératifs tels que la diffusion stable ne stockent ni ne reproduisent les images originales. Les dirigeants doivent s’assurer que leurs équipes d’ingénieurs peuvent défendre la conception du modèle et expliquer comment les résultats sont générés.
  • La responsabilité incombe par défaut à ceux qui construisent et déploient des modèles d’IA : La responsabilité juridique incombe aux développeurs et aux fournisseurs de modèles, et non aux utilisateurs finaux. Les entreprises qui développent ou affinent des modèles doivent documenter les sources de données et intégrer des garanties juridiques dans leur pile d’IA.
  • La dynamique du marché favorise l’octroi de licences plutôt que les litiges : En l’absence d’une législation claire, les licences commerciales deviennent la stratégie privilégiée. Les dirigeants devraient envisager des accords de droits proactifs afin de minimiser les conflits de propriété intellectuelle et de maintenir la vitesse de développement.

Alexander Procter

décembre 31, 2025

14 Min