La Réglementation Européenne sur l'Intelligence Artificielle
La Réglementation Européenne sur l’Intelligence Artificielle : Un Nouveau Cap pour l’UE
Le 21 mai 2024, l’Union Européenne (UE) a franchi un nouveau cap en adoptant la réglementation sur l’intelligence artificielle (AI Act), après quatre années de négociations intenses. Cette réglementation vise à établir des règles claires pour l’utilisation de l’intelligence artificielle (IA) dans l’UE, en garantissant la sécurité, la transparence et la responsabilité des systèmes d’IA.
IA Act : Un processus de négociation difficile
Le processus de négociation a été marqué par de nombreuses oppositions, notamment de la part de lobbyistes et d’entreprises d’IA qui craignaient que la réglementation puisse freiner le développement de la French Tech. Cependant, le Parlement Européen a finalement approuvé le règlement à une large majorité de 523 voix sur 618.
IA Act : les acteurs concernés et les autorités de surveillance
La réglementation concerne essentiellement cinq grands types d’acteurs : les fournisseurs, les intégrateurs, les importateurs, les distributeurs et les organisations utilisatrices d’IA. Chaque État membre de l’UE est responsable de l’application et de la mise en œuvre du règlement en son sein et doit désigner une autorité de contrôle nationale.
IA Act – Une nouvelle hiérarchie des risques
La réglementation définit un système d’intelligence artificielle (SIA) comme un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui, à partir de données d’entrée, déduit des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels. Les SIA sont classés sur quatre niveaux en fonction du risque qu’ils représentent : les risques inacceptables, les risques hauts, les risques limités et les risques faibles.
IA Act – les exigences en cybersécurité
La réglementation fixe un certain nombre d’exigences en cybersécurité pour les SIA à haut risque, notamment :
- La gestion des risques
- La sécurité par conception (security by design)
- La documentation technique
- La gouvernance des données
- La tenue de registres
- La résilience
- La surveillance humaine
IA Act – Les modèles d’IA à usage général
La réglementation introduit un nouveau terme : les modèles d’IA à usage général (GenIA). Ces modèles sont définis comme des modèles d’IA qui présentent une généralité significative et qui sont capables d’exécuter de manière compétente un large éventail de tâches distinctes. Les GenIA doivent répondre à des exigences particulières, notamment en matière de transparence et de respect des droits d’auteurs.
IA Act – Les mesures à mettre en œuvre
Si un SIA rentre dans les catégories de risque élevé, il devra se soumettre à de nombreuses exigences, notamment en matière de cybersécurité. Les mesures à mettre en œuvre incluent la mise en place d’essais contradictoires, la protection de l’infrastructure physique du modèle et la notification des incidents graves.
IA Act – La conformité à l’AI Act
Pour se préparer à la conformité à l’AI Act, il convient de respecter l’approche par les risques qui est imposée par le texte. La première étape consiste à faire l’inventaire de ses cas d’usage, puis à classer ses SIA par niveau de risque. Les mesures applicables seront alors identifiées en fonction du niveau de risque des SIA.
IA Act – Les prochaines étapes
La mise en application de l’AI Act est prévue pour les prochaines années. Les entreprises et les organisations doivent se préparer à la conformité à la réglementation en mettant en place les mesures nécessaires pour garantir la sécurité et la transparence de leurs systèmes d’IA.
En conclusion, la réglementation européenne sur l’intelligence artificielle est un pas important vers la création d’un cadre réglementaire pour l’utilisation de l’IA dans l’UE. Les entreprises et les organisations doivent se préparer à la conformité à la réglementation en mettant en place les mesures nécessaires pour garantir la sécurité et la transparence de leurs systèmes d’IA.