Intelligence Artificielle : Les premières règles du monde arrivent bientôt, êtes-vous prêt ?  (Partie 1) |  hogan lovells

Législation de l’UE sur l’IA

La Commission européenne a publié pour la première fois sa proposition de règlement sur l’intelligence artificielle (la “Loi sur l’IA”) le 21 avril 2021. Il est destiné à être la première législation à établir des normes harmonisées pour le développement, la commercialisation et l’utilisation de l’IA dans l’Union européenne. Les exigences exactes (tournant principalement autour de la qualité des données, de la transparence, de la surveillance humaine et de la responsabilité) dépendent de la cote de risque de l’IA en question, qui varie d’élevé à faible à un risque minimal, alors qu’un certain nombre d’utilisations de l’IA sont totalement interdit. Étant donné que la loi sur l’IA devrait être un élément historique du droit de l’UE qui aura une portée extraterritoriale et sera accompagné de sanctions sévères (y compris des amendes potentielles pouvant aller jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires annuel mondial), nous avons été suivre de près l’évolution.

Le dernier événement a eu lieu le 11 mai 2023, avec des membres du Parlement européen («députés”) en votant en faveur de certains amendements proposés au texte original de la loi AI. Parmi les principaux amendements, citons :

  • Principes généraux de l’IA: De nouvelles dispositions contenant des principes “généraux” d’IA ont été introduites. Celles-ci sont destinées à s’appliquer à tous les systèmes d’IA, qu’ils soient ou non à “haut risque”, élargissant considérablement le champ d’application de la loi sur l’IA. Dans le même temps, les députés ont élargi la classification des usages à haut risque pour y inclure ceux qui peuvent être nocifs pour la santé, la sécurité, les droits fondamentaux ou l’environnement. L’ajout de l’IA dans les systèmes de recommandation utilisés par les plateformes de médias sociaux (avec plus de 45 millions d’utilisateurs en vertu de la loi sur les services numériques de l’UE) à la liste à haut risque est particulièrement intéressant.

  • Pratiques interdites de l’IA: Dans le cadre des amendements, les députés ont considérablement modifié la “liste des risques inacceptables/interdits” pour inclure les utilisations intrusives et discriminatoires des systèmes d’IA. Ces interdictions s’étendent désormais à un certain nombre d’utilisations des données biométriques, y compris le grattage aveugle des données biométriques des médias sociaux pour créer des bases de données de reconnaissance faciale.

  • modèles de fondation: Alors que les versions précédentes de la loi sur l’IA se concentraient principalement sur les systèmes d’IA “à haut risque”, les députés ont introduit un nouveau cadre pour tous les modèles de base. Un tel cadre (qui (entre autres) exigerait des fournisseurs de modèles de base pour assurer une protection solide des droits fondamentaux, de la santé et de la sécurité et de l’environnement, de la démocratie et de l’état de droit), affecterait particulièrement les fournisseurs et les utilisateurs d’IA générative . Ces fournisseurs devraient également évaluer et atténuer les risques, se conformer aux exigences en matière de conception, d’information et d’environnement et s’inscrire dans la base de données de l’UE applicable, tandis que les modèles de base génératifs devraient également se conformer à des exigences de transparence supplémentaires.

  • Obligations de l’utilisateur : Les « utilisateurs » des systèmes d’IA sont désormais appelés « implémenteurs » (un changement bienvenu car l’ancien terme n’était pas destiné à capturer « l’utilisateur final »). Ce changement signifie que les « exécuteurs » sont soumis à une gamme élargie d’obligations, telles que l’obligation d’effectuer une évaluation d’impact de grande envergure sur l’IA, tandis que d’autre part, les droits des utilisateurs finaux sont renforcés, et désormais les utilisateurs finaux se voient accorder le droit de recevoir une explication sur les décisions prises par les systèmes d’IA à haut risque.

La prochaine étape, l’adoption en plénière, est prévue pour juin 2023. Après cela, la proposition entrera dans la dernière étape du processus législatif et des négociations entre le Conseil européen et la Commission européenne sur la forme finale de la loi sur l’IA. Commencer à.

Cependant, même si ces délais sont respectés, la traction que la réglementation sur l’IA a reçue récemment peut signifier que la loi de l’UE sur l’IA n’est pas le premier texte législatif dans ce domaine. Avant de jeter un coup d’œil aux développements dans ce domaine qui se produisent au Royaume-Uni, examinons pourquoi ceux qui sont impliqués dans la fourniture de produits doivent avoir une réglementation de l’IA sur leur radar en premier lieu.


IA : avantages et dangers

Les utilisations de l’IA sont infinies. En nous inspirant d’un rapport publié l’année dernière par l’Office britannique de la sécurité et des normes des produits, nous constatons que l’IA dans le domaine du développement de produits a le potentiel de conduire à :

  • Conception de produits plus sûrs: L’IA peut être utilisée pour former des algorithmes afin de développer uniquement des produits sûrs et des solutions compatibles.

  • Sécurité accrue et satisfaction des consommateurs: Les données collectées avec le soutien de l’IA peuvent permettre aux fabricants d’intégrer les caractéristiques personnelles et les préférences d’un consommateur dans le processus de conception d’un produit, ce qui peut aider à identifier l’utilisation future du produit et à garantir qu’il est conçu en conséquence d’une manière favorable pour celui-ci.

  • Montage plus sûr du produit: Les outils d’IA tels que la reconnaissance visuelle peuvent aider à effectuer des inspections de qualité tout au long de la chaîne d’approvisionnement, garantissant que toutes les pièces et tous les composants assemblés sont sûrs, laissant peu de place à l’erreur humaine.

  • Prévention des rappels massifs de produits: Une collecte de données améliorée via l’IA lors de l’assemblage industriel peut permettre la détection de problèmes qui ne sont pas faciles à identifier par des inspections manuelles, ce qui permet de détecter les problèmes avant que les produits ne soient vendus.

  • Maintenance prédictive: L’IA peut fournir aux fabricants des informations critiques qui leur permettent de planifier à l’avance et de prévoir quand l’équipement peut tomber en panne afin que les réparations puissent être programmées à temps.

  • Utilisation plus sûre pour le consommateur: L’IA dans les services clients peut également contribuer à la sécurité des produits grâce à l’utilisation d’assistants virtuels pour répondre aux demandes des consommateurs et fournir des recommandations sur l’utilisation sûre des produits.

  • Protection contre les cyberattaques: L’IA peut être exploitée pour détecter, analyser et prévenir les cyberattaques susceptibles d’affecter la sécurité ou la confidentialité des consommateurs.

D’un autre côté, il y a des risques à utiliser l’IA. Dans l’espace produit, cela pourrait se traduire par :

  • Produits ne fonctionnant pas comme prévu: Les problèmes de sécurité des produits peuvent résulter de mauvaises décisions ou d’erreurs commises lors de la phase de conception et de développement. Le manque de « bonnes » données peut également produire des résultats discriminatoires, affectant particulièrement les groupes vulnérables.

  • Des systèmes d’IA qui manquent de transparence et d’explicabilité: Un consommateur peut ne pas savoir ou comprendre quand un système d’IA est utilisé et que des décisions sont prises, ou comment ces décisions sont prises. Un tel manque de compréhension peut, à son tour, affecter la capacité de ceux qui ont été lésés à réclamer une indemnisation étant donné la difficulté de prouver comment le préjudice s’est produit. Il s’agit d’une préoccupation particulière étant donné que la sécurité des produits a traditionnellement inclus des risques pour la santé physique et la sécurité des utilisateurs finaux, tandis que les produits d’IA présentent des risques de dommages immatériels (tels que des dommages psychologiques) ou de dommages indirects dus à des vulnérabilités de sécurité cybernétique.

  • Les vulnérabilités de la cybersécurité sont exploitées: Les systèmes d’IA peuvent être piratés et/ou perdre leur connectivité, ce qui peut entraîner des risques pour la sécurité. Par exemple, si une alarme incendie connectée perd sa connectivité, le consommateur peut ne pas être averti en cas d’incendie.


La position britannique

Actuellement, il n’y a pas de législation générale réglementant l’IA au Royaume-Uni. Au lieu de cela, différents organismes de réglementation (par exemple, l’Agence de réglementation des médicaments et des produits de santé, le Bureau du Commissaire à l’information, etc.) supervisent l’utilisation de l’IA dans différents secteurs et, le cas échéant, fournissent des conseils à ce sujet.

Cependant, en septembre 2021, le gouvernement britannique a annoncé un plan de 10 ans, décrit comme le ‘Stratégie nationale d’IA‘. La stratégie nationale sur l’IA vise à investir et à planifier les besoins à long terme de l’écosystème de l’IA, à soutenir la transition vers une économie basée sur l’IA et à garantir que le Royaume-Uni obtienne une bonne gouvernance nationale et internationale des technologies de l’IA.

Plus récemment, le 29 mars 2023, le gouvernement britannique a publié son livre blanc tant attendu sur l’intelligence artificielle. Qualifiant son approche proposée de la réglementation de l’IA de « leader mondial » dans le but de « stimuler la croissance », le livre blanc fournit un cadre intersectoriel fondé sur des principes pour accroître la confiance du public dans l’IA et renforcer les capacités dans la technologie de l’IA. Les cinq principes destinés à sous-tendre le cadre réglementaire britannique sont les suivants :

1. Sécurité, protection et robustesse ;

2. Transparence et explicabilité adéquates ;

3. Équité ;

4. Responsabilité et gouvernance ; et

5. Contestabilité et réparation.

Le gouvernement britannique a déclaré qu’il éviterait une “législation musclée” qui pourrait étouffer l’innovation, ce qui signifie que, du moins dans un premier temps, ces principes ne seront pas appliqués par voie législative. Au lieu de cela, la responsabilité sera donnée aux régulateurs existants de décider des “approches spécifiques au contexte” qui conviennent le mieux à leurs secteurs. La consultation qui accompagne le livre blanc est ouverte jusqu’au 21 juin 2023.

Toutefois, cela ne signifie pas qu’aucune législation dans ce domaine n’est prévue. Par exemple:

  • Le 4 mai 2023, l’Autorité de la concurrence et des marchés (la «RMR”) a annoncé un examen des considérations de concurrence et de protection des consommateurs dans le développement et l’utilisation de modèles d’IA de base. L’une des intentions derrière la révision est d’aider à la production de “principes directeurs” pour la protection des consommateurs et de soutenir une saine concurrence à mesure que les technologies se développent. Un rapport sur les conclusions devrait être publié en septembre 2023, et il reste à voir si cela débouchera sur des propositions législatives.

  • Le Royaume-Uni s’est récemment concentré sur les appareils IoT, à la suite de l’adoption de la loi britannique sur l’infrastructure des télécommunications et la sécurité des produits en décembre 2022 et de sa récente annonce selon laquelle le programme britannique d’infrastructure des télécommunications et la sécurité des produits (sécurité des produits) entreront en vigueur. effet le 29 avril 2024. Alors que les appareils IoT et IA différeront, bien sûr, la volonté du Royaume-Uni de prendre position en tant que leader mondial dans ce domaine (avec le premier pays au monde à introduire des normes de sécurité minimales pour tous les produits de consommation avec connectivité Internet) peut signifier qu’une approche similaire de l’IA devrait être attendue dans un avenir proche.

Notre pratique mondiale du droit des produits couvre tous les aspects de la réglementation de l’IA, de la sécurité des produits, de la conformité et des risques de responsabilité potentiels. Dans la partie 2 de cet article, nous examinons les développements en France, aux Pays-Bas et aux États-Unis et partageons nos réflexions sur ce que les entreprises peuvent faire pour prendre une longueur d’avance et se préparer à la réglementation de l’IA à travers le monde.