Le Splitblog en février : Tout ce que les entreprises doivent savoir maintenant sur l’EU AI Act
Depuis août 2024, l’EU-AI-Act est en vigueur. Un projet de loi actuel pour une loi d’application a maintenant été adopté. L’Agence fédérale des réseaux doit être le point de contact central pour surveiller les exigences de l’UE en matière d’intelligence artificielle.
L’EU-AI-Act est la première réglementation législative complète sur l’intelligence artificielle au monde. Il vise à promouvoir une IA digne de confiance en Europe, à minimiser les risques tout en permettant l’innovation. Pour les entreprises, il est essentiel de comprendre et de mettre en œuvre les nouvelles exigences afin d’éviter les risques juridiques et de garantir des avantages concurrentiels.
Qu’est-ce que l’EU-AI-Act ?
L’EU-AI-Act est un cadre qui classe les systèmes d’IA selon leur potentiel de risque et définit les exigences réglementaires correspondantes. L’objectif est de garantir la sécurité, la transparence et le respect des droits fondamentaux lors de l’utilisation de l’IA.
Approche basée sur les risques et catégorisation des systèmes d’IA
L’EU-AI-Act divise les systèmes d’IA en quatre catégories :
Risque inacceptable (interdit)
Exemples : systèmes de notation sociale, manipulation d’enfants, catégorisation biométrique selon des critères sensibles.
Réglementation : Ces systèmes sont interdits dans l’UE.
Risque élevé
Exemples : IA dans les dispositifs médicaux, systèmes de transport, sélection du personnel, application de la loi.
Réglementation : Exigences strictes telles que la gestion des risques, la gouvernance des données, la documentation technique et la surveillance humaine.
Risque limité
Exemples : chatbots, deepfakes.
Réglementation : Obligations de transparence, par exemple identification des contenus générés par IA.
Risque faible/nul
Exemples : filtres anti-spam, IA dans les jeux vidéo.
Réglementation : Aucune obligation supplémentaire, mais les principes généraux tels que la non-discrimination s’appliquent.
Exigences de conformité pour les systèmes d’IA à haut risque
Les entreprises qui utilisent des systèmes d’IA à haut risque doivent satisfaire aux exigences suivantes :
- Gestion des risques : Évaluation et minimisation continues des risques.
- Gouvernance des données : Données d’entraînement de haute qualité, représentatives et sans erreur.
- Documentation technique : Preuve de conformité.
- Journalisation : Enregistrement automatisé des événements pendant au moins 10 ans.
- Transparence : Informations claires sur les capacités, les limites et les risques.
- Surveillance humaine : Mécanismes de contrôle des fonctions de l’IA.
- Certification : Des tiers doivent confirmer le respect des réglementations.
- Marquage CE : Preuve de conformité pour le marché de l’UE.
Étapes de mise en œuvre et de conformité
- Déterminer la catégorie de risque
Utilisez des outils tels que l’AI Act Compliance Checker pour vérifier la classification de votre système d’IA.
- Effectuer des évaluations des risques
Identifiez les dommages potentiels et mettez en œuvre des mesures d’atténuation des risques.
- Créer la documentation
Tenez des dossiers techniques, des données d’entraînement et des preuves de conformité.
- Mettre en œuvre la surveillance humaine
Assurez-vous que les systèmes d’IA sont contrôlés et surveillés par des humains.
- Respecter les obligations de transparence
Informez les utilisateurs des contenus générés par IA et des limites du système.
- Utiliser le bac à sable réglementaire
Testez les systèmes d’IA dans des environnements contrôlés pour garantir la conformité.
- Rester attentif aux mises à jour
L’EU-AI-Act continuera d’être affiné, par exemple par des règles de mise en œuvre simplifiées.
Délais de mise en œuvre et sanctions en cas de non-conformité
- Février 2025 : Entrée en vigueur des pratiques interdites et des obligations en matière de maîtrise de l’IA.
- Août 2025 : Règles de gouvernance pour l’IA à usage général (GPAI).
- Août 2027 : Application complète pour les systèmes d’IA à haut risque.
Sanctions en cas de non-conformité :
- Jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les violations des interdictions.
- Jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires pour les autres violations.
- Sanctions réduites pour les PME.
Conclusion : Pourquoi l’EU-AI-Act est important
L’EU-AI-Act garantit que l’IA est développée de manière sûre, transparente et conforme aux valeurs européennes. Les entreprises qui mettent en œuvre les exigences de manière précoce peuvent éviter les risques juridiques, renforcer la confiance des consommateurs et se positionner sur le marché de l’UE. La conformité à l’AI-Act n’est pas seulement une obligation légale, mais aussi une opportunité de promouvoir une innovation responsable en matière d’IA.
Pour plus d’informations, consultez le site officiel de l’EU AI Act.
Remarque : Cet article a été créé avec l’aide de l’IA.
