Règlementation IA européenne en vigueur depuis août 2024 : vers une Intelligence Artificielle plus responsable

Cette règlementation IA vise à favoriser un développement responsable de l’Intelligence Artificielle dans l’UE. 

Elle vise à favoriser un développement responsable de l’Intelligence Artificielle dans l’UE.

La réglementation IA traite des risques pour la santé, la sécurité et les droits fondamentaux des citoyens avec une approche fondée sur les risques :

Reglementation IA
  • Risque minime : la plupart des systèmes d’IA tels que les filtres anti-spam et les jeux vidéo fondés sur l’IA ne sont soumis à aucune obligation au titre du règlement sur l’IA.
  • Risque spécifique en matière de transparence : les systèmes d’IA tels que les dialogueurs (chatbots) doivent indiquer clairement aux utilisateurs qu’ils interagissent avec une machine, tandis que certains contenus générés par l’IA doivent être signalés comme tels.
  • Risque élevé : les systèmes d’IA à haut risque tels que les logiciels médicaux fondés sur l’IA ou les systèmes d’IA utilisés pour le recrutement doivent respecter des exigences strictes, notamment en ce qui concerne les systèmes d’atténuation des risques, la qualité des ensembles de données utilisés, la fourniture d’informations claires à l’utilisateur, le contrôle humain, etc.
  • Risque inacceptable : par exemple, les systèmes d’IA qui permettent une «notation sociale» par les gouvernements ou les entreprises sont considérés comme une menace évidente pour les droits fondamentaux des citoyens et sont donc interdits.

L’UE aspire à devenir un leader mondial dans le domaine de l’IA sûre. En élaborant un cadre réglementaire solide fondé sur les droits de l’homme et les valeurs fondamentales, l’UE peut mettre en place un écosystème d’IA qui profite à tous.

Acadigit soutient pleinement cette règlementation IA.

Partager l'article

Facebook
Twitter
LinkedIn
WhatsApp
Email

Formez-vous avec Acadigit sur les essentiels du numérique