C’est le premier cadre juridique proposé au sein de l’Union européenne sur le sujet de l’intelligence artificielle pour à la fois garantir la sécurité et les droits fondamentaux des citoyens et des entreprises et renforcer l’adoption de l’IA, les investissements et l’innovation dans l’ensemble de l’UE.
Ce cadre règlementaire sera fondé sur une approche des risques :
- Les systèmes présentant des risques jugés comme inacceptables parce qu’ils menacent la sécurité, les moyens de subsistance et les droits des personnes seront interdits. Il peut s’agir, par exemple, d’applications d’IA qui manipulent le comportement humain et privent les utilisateurs de leur libre arbitre (comme des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) ou de systèmes qui permettent la notation sociale par les États.
- Les systèmes présentant des risques jugés élevés devront se conformer à des obligations strictes pour pouvoir être mis sur le marché. Cela peut concerner les domaines touchant les infrastructures critiques (énergie, transports…), l’éducation, la formation professionnelle, l’emploi, les ressources humaines, les services privés et publics essentiels, le maintien de l’ordre, la justice, les processus démocratiques ou encore les systèmes d’identification biométrique à distance.
- Pour ceux présentant des risques limités, ils devront appliquer des obligations spécifiques en matière de transparence (par exemple, les utilisateurs de chatbots devront être avertis qu’ils interagissent avec une machine).
- Quant aux systèmes présentant un risque minime, la Commission propose leur libre utilisation (jeux vidéo, filtres anti-spam…).
Pour que ces nouvelles règles soient applicables, elles doivent d’abord être adoptées par le Parlement européen et les États membres. À suivre donc...