Encore un accord sur la législation relative à l’IA dans l’UE

Les États membres de l’UE se sont accordés sur une législation majeure concernant l’IA, après son approbation conditionnelle en décembre. Le texte est quasiment finalisé, et il ne reste que quelques tours de vote.

Les États membres de l’UE ont conclu un accord sur le contenu de la nouvelle législation relative à l’IA. En décembre, un texte provisoire avait été approuvé sous réserve, mais il fallait encore négocier. Plusieurs pays, dont la France et l’Allemagne, ont demandé des garanties sur le fait que la loi sur l’IA ne freinerait pas l’innovation.

Ces garanties se manifestent désormais par des mesures relatives à l’innovation, ainsi que par la création d’un bureau de l’intelligence artificielle qui veillera à la mise en œuvre de la loi sur l’intelligence artificielle. Ce bureau empêchera également le double emploi de ces réglementations avec d’autres législations.

Approbation approuvée

Les États membres ayant approuvé les règles votées en décembre, une commission parlementaire peut maintenant approuver le texte final. Après cette approbation, une vraie approbation en séance plénière est nécessaire. Après cette quatrième approbation, la loi sur l’IA est définitivement approuvée. Six mois après cet obstacle, les premières mesures de prévention de l’utilisation frauduleuse de l’IA pourront déjà entrer en vigueur.

L’UE prend les rênes avec la loi sur l’IA. Avec ces règles, l’UE devient le premier espace au monde avec des lois sur l’IA sans aucune ambiguïté.

L’IA avance tellement vite qu’on est toujours à la traîne. Les sentiments d’inquiétude à l’égard de ces développements rapides de l’IA sont donc très vifs. On travaille depuis plus de deux ans à une législation sur l’IA, mais son approbation finale peine à se concrétiser. En décembre, le principal obstacle a été écarté : un accord a finalement été conclu à Bruxelles le 8 décembre, après une énième réunion du Parlement européen.

Catégories IA

La nouvelle législation se fonde sur des catégories. Elles sont définies en fonction du degré de risque d’une application particulière de l’IA. Par exemple, les simples filtres anti-spam ou les systèmes d’IA qui conseillent les utilisateurs sont considérés à « risque minimal ».

En revanche, les systèmes d’IA employés dans les domaines de la justice, de la santé, de la biométrie et de la gestion de l’eau ou de l’énergie sont considérés à « haut risque » et sont donc soumis à des règles plus strictes. Par ailleurs, tout système manipulant le comportement humain est considéré à « risque inacceptable ».

Il existe enfin une dernière catégorie : le « risque de transparence ». Il faut informer les utilisateurs de toute interaction avec l’IA. Il s’agit, par exemple, des chatbots et des « deep fakes ». Les deep fakes sont de vidéos truquées de personnes existantes, créées par l’IA, qui semblent très réalistes.

Une amende lourde pour toute infraction

Si on viole ces règles d’IA, les conséquences sont énormes. Les amendes peuvent aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Ces amendes sont calculées en fonction du type d’infraction et de la taille de l’entreprise.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.
retour à la maison