Les pays du monde entier se livrent à un sprint compétitif pour prendre la tête de la technologie de l’intelligence artificielle (IA). Avec la technologie de pointe et la présence de géants de la technologie tels que OpenAI, Microsoft, Google et Meta, les États-Unis, la course aux réglementations et aux avancées technologiques s’intensifie.

Le développement par OpenAI de modèles avancés de traitement du langage naturel a changé la façon dont les entreprises et les consommateurs interagissent avec les plateformes numériques. L’intégration de l’IA par Microsoft dans sa suite d’outils de productivité a permis de moderniser l’efficacité sur le lieu de travail. Les recherches de Google en matière d’IA ont permis de réaliser des percées dans les algorithmes d’apprentissage automatique qui améliorent les fonctionnalités des moteurs de recherche et l’expérience des utilisateurs. L’investissement de Meta dans l’IA alimente des algorithmes sophistiqués qui personnalisent le contenu des médias sociaux, le rendant ainsi plus attrayant pour les utilisateurs. Toutes ces organisations ont favorisé le développement de l’IA, rendant la création et la pertinence d’une réglementation incroyablement difficile.

Les différences entre les réglementations des États-Unis et de l’UE

Le débat sur la manière de réglementer l’IA est une course mondiale. Les États-Unis optent pour une approche décentralisée de type « laissez-faire », privilégiant l’innovation et la flexibilité. En revanche, l’Union européenne a mis en place un cadre de précaution complet qui donne la priorité à la sécurité, à la transparence et à la responsabilité dans le développement et le déploiement de l’IA.

Le règlement général sur la protection des données (RGPD) de l’UE a créé un précédent sur la manière dont les données personnelles doivent être traitées, influençant les pratiques de développement de l’IA pour donner la priorité à la protection de la vie privée des utilisateurs. Entre-temps, les États-Unis ont adopté une approche plus sectorielle de la réglementation, comme les lignes directrices fournies par le National Institute of Standards and Technology (NIST) aux agences fédérales sur l’utilisation de l’IA, qui encouragent l’innovation tout en suggérant des considérations éthiques.

L’approche américaine de la réglementation de l’IA

L’approche des États-Unis en matière de réglementation de l’IA est marquée par l’absence de législation fédérale globale sur l’IA, à l’exception notable de la loi locale 144 de la ville de New York. La flexibilité offerte par cet environnement réglementaire est propice à l’innovation et au développement rapide du secteur de l’IA, mais elle est entachée de préoccupations concernant la cohérence, la sécurité et les considérations éthiques dans les applications de l’IA.

Le développement des véhicules autonomes aux États-Unis en est une illustration : il s’est déroulé sans cadre fédéral unifié, ce qui a conduit à un patchwork désordonné de réglementations au niveau de l’État.

Loi locale 144

La loi locale 144 de la ville de New York est un exemple de réglementation ciblée de l’IA aux États-Unis. La législation de la ville de New York impose des audits sur les préjugés pour les processus d’embauche automatisés, afin de répondre aux préoccupations en matière d’équité et de discrimination. En tant que l’une des premières lois spécifiques à l’IA aux États-Unis, la loi locale 144 pourrait et devrait inspirer d’autres juridictions à adopter des mesures similaires, en démontrant comment une réglementation ciblée peut relever des défis spécifiques dans le secteur plus large de l’IA.

Un exemple de la loi locale 144 en action est l’obligation pour les entreprises de communiquer chaque année les résultats de l’audit de leurs outils d’embauche automatisés, dans un souci de transparence et de responsabilité sur la manière dont l’IA est utilisée pour prendre des décisions en matière d’embauche.

Le cadre réglementaire de l’UE

Avec l’adoption de la loi européenne sur l’IA en juin 2023, l’Europe s’est dotée d’un cadre réglementaire visant à rendre l’intelligence artificielle plus sûre, plus transparente et plus responsable. La toute nouvelle approche de la loi en matière de classification des systèmes d’IA est basée sur leurs niveaux de risque et démontre un engagement à relever les défis uniques posés par les technologies de l’IA. Un tel système de classification reconnaît les divers impacts potentiels des applications de l’IA et crée un modèle de gouvernance mondiale de l’IA qui donne la priorité à la sécurité humaine et aux considérations éthiques.

Les lois européennes sur l’IA constituent une stratification conçue pour appliquer une charge réglementaire proportionnée, de sorte que des contrôles plus stricts sont réservés aux applications d’IA ayant le plus grand potentiel d’impact sur les droits individuels et les normes sociétales. Par exemple, les technologies d’IA utilisées dans les diagnostics médicaux font l’objet d’un examen plus rigoureux que les systèmes d’IA déployés pour des applications moins critiques, telles que les loisirs ou les assistants personnels. Les approches fondées sur le risque amènent les développeurs à intégrer des considérations de sécurité et d’éthique dès le début de la conception des systèmes d’IA, promouvant ainsi une culture de la responsabilité et de l’obligation de rendre des comptes dans le secteur de l’IA.

« Avec l’adoption de la loi européenne sur l’IA en juin 2023, l’Europe a fait un pas vers un cadre réglementaire visant à rendre l’intelligence artificielle plus sûre, plus transparente et plus responsable. »

La loi européenne sur l’IA met l’accent sur des principes tels que la sécurité, la transparence, la traçabilité, la non-discrimination et la durabilité environnementale. Ces principes constituent des exigences réglementaires claires et sont considérés comme des éléments fondamentaux qui guident le développement et le déploiement des technologies de l’IA. Par exemple, la loi exige que les systèmes d’IA soient conçus de manière à ce que leurs décisions puissent être suivies et comprises par les humains, garantissant ainsi la transparence et la responsabilité. De même, l’exigence de non-discrimination vise à atténuer les préjugés inhérents aux algorithmes d’IA, en promouvant la justice et l’équité dans les résultats de l’IA. L’accent mis sur la durabilité environnementale reflète une reconnaissance plus large de la nécessité de développer des technologies d’IA qui soient non seulement technologiquement avancées, mais aussi respectueuses de l’environnement.

L’impact mondial de la réglementation

Les startups technologiques européennes s’inquiètent de l’étouffement de l’innovation

La communauté européenne des startups technologiques s’inquiète notamment de la possibilité que des réglementations strictes entravent leur capacité à innover et à rester compétitives sur la scène mondiale. Les startups craignent que les contraintes réglementaires imposées par la loi européenne sur l’IA ne ralentissent leur rythme d’innovation et ne les empêchent de mettre sur le marché des solutions d’IA nouvelles et transformatrices. Par exemple, une startup spécialisée dans les diagnostics médicaux basés sur l’IA peut estimer que le processus d’approbation réglementaire constitue un obstacle important à l’innovation et au déploiement rapides, ce qui risque de retarder la mise à disposition de technologies susceptibles de sauver des vies.

Pour les petites entreprises et les startups, il est particulièrement difficile d’orienter le développement à travers les réglementations de la loi européenne sur l’IA. Les ressources nécessaires à la mise en conformité, y compris la réalisation d’évaluations des risques et le respect des normes de sécurité et d’éthique, sont considérables. Ces défis sont exacerbés pour les petites entités qui peuvent ne pas disposer des ressources financières et humaines de leurs homologues plus importants.

Équilibrer la réglementation et l’innovation

Trouver le bon équilibre entre réglementation et innovation est un thème central du discours sur la gouvernance de l’IA. Les bacs à sable réglementaires et les pôles d’innovation sont des exemples d’initiatives conçues pour combler cette lacune, en offrant un environnement contrôlé où les startups peuvent expérimenter les technologies d’IA tout en respectant les normes réglementaires. Ces initiatives visent à faciliter l’innovation en fournissant une plateforme d’essai et de développement sans le poids de la conformité réglementaire, encourageant ainsi l’exploration de nouvelles applications de l’IA dans un cadre sûr et réglementé.

Perceptions des consommateurs

Informer les consommateurs sur les technologies d’IA avec lesquelles ils interagissent permet d’instaurer un climat de confiance et de compréhension. Des réglementations transparentes et l’éducation des consommateurs démystifient l’IA, en mettant en lumière ses avantages et ses risques potentiels. Par exemple, lorsque les utilisateurs comprennent comment fonctionnent les recommandations de l’IA sur des plateformes comme Netflix ou YouTube, ils peuvent mieux apprécier les avantages de la technologie tout en étant conscients des problèmes liés à la protection de la vie privée ou à l’utilisation des données.

Les initiatives éducatives peuvent prendre de nombreuses formes, allant de simples lignes directrices sur l’utilisation des appareils intelligents à des informations détaillées sur la manière dont les données à caractère personnel sont traitées et utilisées par les systèmes d’IA. Un exemple de transparence efficace est le GDPR en Europe, qui impose une communication claire aux utilisateurs sur la collecte et l’utilisation des données, offrant un modèle pour la façon dont les technologies d’IA pourraient également être réglementées afin de protéger et d’informer les consommateurs.

« Informer les consommateurs sur les technologies d’IA avec lesquelles ils interagissent permet d’instaurer un climat de confiance et de compréhension. »

L’authentification du contenu et le filigrane deviennent de plus en plus importants pour protéger les consommateurs contre la fraude et la désinformation générées par l’IA. Ces technologies permettent de vérifier l’authenticité du contenu numérique et d’instaurer la confiance dans les environnements en ligne. Par exemple, l’initiative d’Adobe sur l’authenticité du contenu vise à fournir la provenance des médias numériques, en permettant aux utilisateurs de vérifier la source et l’historique du contenu qu’ils consomment en ligne.

La technologie du filigrane, qui incorpore des informations invisibles dans les médias numériques afin de tracer leur origine et leur authenticité, joue un rôle clé dans la lutte contre les vidéos et les images falsifiées. S’assurer que le contenu peut être retracé jusqu’à son créateur permet de maintenir l’intégrité dans l’espace numérique, où le contenu généré par l’IA devient de plus en plus courant.

L’avenir de la réglementation de l’IA

Pour l’avenir, il est essentiel d’adopter une approche équilibrée de la réglementation de l’IA. En soutenant l’innovation tout en garantissant une utilisation éthique et la sécurité, les réglementations peuvent orienter le développement de l’IA dans une direction bénéfique pour la société. Des conversations permanentes entre les décideurs politiques, les acteurs du secteur et les parties prenantes sont essentielles pour faire face aux complexités de la réglementation de l’IA et maximiser l’impact transformateur de cette technologie.

Alexander Procter

février 26, 2024

10 Min