Où en êtes-vous ? Avez-vous lancé des projets pour supporter cette loi ?
Les entreprises technologiques vont devoir se conformer aux nouvelles règles de l’Union Européenne sur l’utilisation de l’IA en matière de droit d’auteur, de transparence et d’utilisations.
La législation sur l’IA est un ensemble de règles radicales pour les entreprises technologiques opérant dans l’UE, qui interdit certaines utilisations des outils d’IA et impose des exigences de transparence aux développeurs. La loi a officiellement été adoptée en mars 2024 et comprend plusieurs phases de mise en conformité.
Qu’est-ce que la loi européenne sur l’IA ?
La loi sur l’IA est un règlement européen sur l’intelligence artificielle (IA). Il s’agit du premier règlement complet sur l’IA établi par un organisme de réglementation important. La loi classe les applications de l’IA dans trois catégories de risque. Premièrement, les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits. Deuxièmement, les applications à haut risque, comme un outil de balayage de CV qui classe les candidats à l’emploi, sont soumises à des exigences légales spécifiques. Enfin, les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Maintenant que le texte complet a été publié, le compte à rebours des délais de conformité est officiellement lancé.
Un vérificateur de conformité (en ligne) est à votre disposition : Découvrez en 10 minutes comment la loi sur l’IA vous affectera en répondant à une série de questions simples.
Quand sera-t-elle applicable ?
La loi sur l’IA interdit les utilisations d’applications « qui menacent les droits des citoyens », comme la biométrie pour donner des informations telles que l’orientation sexuelle ou la religion, ou l’utilisation d’images des caméras de sécurité. Les systèmes qui tentent de lire les émotions sont interdits sur le lieu de travail et à l’école, tout comme les systèmes de notation sociale. Ces utilisations sont considérées comme présentant un « risque inacceptable » et vous avez jusqu’au 2 février 2025 pour vous y conformer.
Dès Août 2025, les « systèmes d’IA à usage général » comme les chatbots devront se conformer à la loi sur les droits d’auteurs et répondre à des exigences de transparence telles que le partage de résumés des données utilisées pour construire les systèmes.
En Août 2026, les règles de la loi sur l’IA s’appliqueront de manière générale aux entreprises opérant dans l’UE. Les développeurs de certains systèmes d’IA « à haut risque » auront jusqu’à 36 mois (jusqu’en août 2027) pour se conformer à des règles sur l’évaluation des risques et la surveillance des personnes. Ceci comprend les applications intégrées dans les infrastructures, le travail, les services essentiels comme les banques et les soins de santé, ainsi que le système judiciaire.
Le non-respect de cette obligation entraînera des amendes pour l’entreprise contrevenant : Jusqu’à 7% du chiffre d’affaires annuel ou une amende pouvant atteindre 35 millions d’euros.















































