Introduction
Dans l’un des textes juridiques les plus ambitieux à ce jour, le Parlement européen a franchi une étape importante : il existe un accord politique sur le texte de la fameuse loi sur l’intelligence artificielle depuis la fin de l’année 2023. L’IA en Europe doit être sûre, respecter les droits fondamentaux et préserver la démocratie, sans étouffer l’innovation.
Le respect des règles est important pour toute nouvelle réglementation. Et pourtant : la loi sur l’IA impose des obligations cruciales aux systèmes d’IA en fonction de leurs risques potentiels et de leurs niveaux d’impact. Les pénalités ne sont pas minimes. Avec des amendes pouvant atteindre 7 % du chiffre d’affaires mondial en cas de non-conformité, il est plus important que jamais pour les entreprises d’être proactives et de se conformer aux exigences de la loi sur l’IA.
Toutefois, le respect de la loi sur l’IA ne doit pas être considéré uniquement comme une charge. L’introduction de la loi sur l’IA renforce la confiance dans l’IA et, par conséquent, la confiance des consommateurs dans les entreprises qui utilisent ou proposent l’IA. En outre, la loi sur l’IA ouvre la voie à de nouvelles possibilités d’innovation et de croissance. En effet, outre les obligations, la législation prévoit également des mesures de soutien à l’innovation, notamment un » bac à sable réglementaire » et des essais en conditions réelles, qui permettent aux entreprises de développer et de former des solutions d’IA avant de les mettre sur le marché.
La loi sur l’IA permet donc aux entreprises de jouer un rôle de premier plan dans l’évolution de l’intelligence artificielle. Soyez un pionnier et utilisez l’IA pour stimuler votre activité.
Objectifs de la législation
L’objectif premier de la législation européenne sur l’IA est de fournir une définition technologiquement neutre des systèmes d’IA et d’établir des règles horizontales harmonisées qui leur soient applicables. En outre, la législation prévoit la création de divers organismes chargés de contrôler et de surveiller les systèmes d’IA au sein de l’UE (notamment le Conseil européen de l’intelligence artificielle (Conseil IA) et les offices de l’IA).
Classification des systèmes d’IA
La législation européenne sur l’IA classe les systèmes d’IA dans différentes catégories de risque. Chaque classification entraîne des exigences et des obligations spécifiques :
- Les systèmes d’IA présentant un risque inacceptable, à savoir les systèmes qui violent les droits fondamentaux, par exemple ceux impliqués dans le scoring social et l’identification biométrique en temps réel, seront interdits.
- Les systèmes d’IA à haut risque, c’est-à-dire ceux qui présentent des risques importants pour la santé, la sécurité et les droits fondamentaux, sont soumis à des obligations strictes, notamment la supervision humaine.
- Les systèmes d’IA présentant un risque minimal, tels que les jeux vidéo et les filtres anti-spam, entre autres, peuvent être utilisés indéfiniment au sein de l’UE.
- Les systèmes d’IA présentant un risque de transparence, tels que les chatbots, entre autres, doivent répondre à des exigences de transparence pour permettre aux utilisateurs de prendre des décisions en connaissance de cause.
Implications pour les entreprises
La législation européenne sur l’IA s’applique à toutes les parties impliquées dans le développement, la mise en œuvre et l’utilisation de l’IA. Elle s’étend à différents secteurs et même au-delà de l’UE si les produits sont destinés à être utilisés dans l’UE.
Comme indiqué, les obligations des entreprises varient en fonction du type de système d’IA utilisé ou développé.
Les principaux engagements sont les suivants :
- procéder à des évaluations des risques ;
- utiliser des données de haute qualité ;
- documenter les choix techniques et éthiques ;
- des enregistrements permettant de suivre les performances du système d’IA ;
- Informer les utilisateurs sur la nature et l’objectif des systèmes d’IA ;
- permettre une surveillance et une intervention humaines ;
- garantir l’exactitude, la robustesse et la cybersécurité ;
- tester la conformité des systèmes d’IA
- Enregistrement des systèmes d’intelligence artificielle dans une base de données de l’UE.
Risques et défis
L’application de la législation européenne sur l’IA sera assurée par les États membres. Les amendes qui peuvent être imposées varient également selon qu’il s’agit d’un système d’IA interdit ou d’un système d’IA à risque élevé, minimal ou de transparence. En cas de non-respect des règles relatives aux systèmes d’IA interdits, les amendes peuvent atteindre 35 000 000 € ou 7 % du chiffre d’affaires annuel total de l’entreprise. En cas de non-respect d’autres obligations, les amendes peuvent également être élevées, jusqu’à 15 000 000 € ou 3 % du chiffre d’affaires annuel total. La loi prévoit des montants inférieurs pour les petits fournisseurs, les start-ups et les PME.
Opportunités
La législation de l’UE sur l’IA vise à établir un cadre qui garantit la confiance des clients et des citoyens dans l’IA, tout en promouvant l’investissement et l’innovation dans les technologies de l’IA. Les bacs à sable réglementaires fournissent des environnements contrôlés pour tester les technologies innovantes, tandis que des initiatives telles que les réseaux de centres d’excellence en IA et les pôles d’innovation numérique soutiennent le développement de l’IA dans l’UE.
Prochaines étapes
Il est conseillé aux entreprises d’évaluer leurs systèmes d’IA et les risques associés. Sur la base de cette évaluation, il sera alors nécessaire de se conformer aux obligations imposées par la législation sur l’IA, notamment en élaborant des codes de conduite et des codes de pratique.
L’utilisation de l’IA est une bonne chose. Il est préférable d’utiliser l’IA de manière intelligente et conforme.
IFORI peut vous assister en vous conseillant sur l’application et la mise en œuvre de ces nouvelles réglementations. Contactez-nous dès maintenant.