IA interdites : les nouvelles lignes rouges de l’AI Act
Anne-Angélique de Tourtier, Head of Customer Success & Privacy Operations chez Adequacy
L’intelligence artificielle s’installe partout dans les organisations, des administrations aux plateformes en ligne. Derrière cette accélération se cache une question moins spectaculaire que les promesses de l’IA générative mais beaucoup plus sensible pour les dirigeants européens. Où s’arrête l’innovation légitime et où commence le risque jugé inacceptable par le nouveau règlement sur l’IA.
Quand l’IA franchit la ligne rouge
Entré en vigueur à l’été 2024, l’AI Act classe les systèmes d’IA en plusieurs catégories de risque et réserve un traitement particulier à certains usages considérés comme incompatibles avec les valeurs de l’Union. Ces pratiques ne relèvent pas du débat entre bonne ou mauvaise IA. Elles sont purement et simplement interdites et ne peuvent pas être mises en conformité, à la différence des systèmes à haut risque qui restent autorisés sous conditions.
Le périmètre des interdictions tient moins à la technologie employée qu’aux effets concrets sur les personnes. Le règlement vise d’abord les manipulations cognitives. Un jeu en ligne qui utilise des mécanismes cachés pour pousser des enfants à acheter des options payantes, rester connectés plus longtemps ou céder davantage de données personnelles entre dans cette catégorie. L’AI Act cible aussi l’exploitation de vulnérabilités, comme une campagne qui s’appuie sur la fragilité financière de certaines populations pour les orienter vers des produits risqués.
Notation sociale, surveillance et inférence des émotions
Le secteur public se voit lui aussi imposer des lignes rouges claires. La notation sociale de citoyens en fonction de leurs comportements, même présentée comme un levier de bonne conduite, fait partie des usages prohibés. L’idée de classer les individus en “bons” ou “mauvais” citoyens à partir d’un score calculé par l’IA se heurte frontalement aux principes européens.
De la même manière, la reconnaissance faciale en temps réel dans l’espace public ne peut pas devenir un outil ordinaire de gestion de la sécurité. Le règlement ne prévoit que des exceptions strictement encadrées pour des situations graves et limitées dans le temps.
D’autres interdictions visent des technologies déjà présentes dans certaines entreprises. L’inférence des émotions des salariés ou des élèves à l’école à partir de leurs expressions faciales ou de leur voix sort désormais du cadre autorisé, sauf motif médical ou de sécurité très spécifique. La catégorisation biométrique qui cherche à déduire l’origine, la religion, l’orientation sexuelle ou les opinions politiques d’une personne à partir de données physiques est également considérée comme un risque inacceptable. La constitution de bases de visages à partir d’images collectées sur internet ou via la vidéosurveillance sans consentement explicite cumule enfin les dérives en matière de surveillance de masse, de souveraineté et de protection des données.
Repérer les signaux d’alerte dès l’idéation
Pour les organisations qui explorent l’IA, la première étape consiste à repérer ces signaux d’alerte le plus tôt possible. Avant de parler performance, expérience utilisateur ou retour sur investissement, il devient indispensable de cartographier les cas d’usage, d’identifier les modèles utilisés et de vérifier s’ils peuvent tomber, même indirectement, dans l’une des catégories interdites.
Un système peut paraître utile en surface et pourtant reposer sur un mécanisme de scoring social ou sur une analyse émotionnelle des salariés qui le fait basculer dans la zone rouge. Une fonctionnalité présentée comme un simple outil d’optimisation commerciale peut, en pratique, exploiter la vulnérabilité psychologique ou financière de certains publics. Sans grille de lecture claire, ces dérives passent facilement sous le radar.
Documenter les renoncements, une nouvelle exigence de gouvernance
L’AI Act ne laisse pas la porte ouverte à une mise en conformité progressive pour ces usages. Lorsqu’un projet est qualifié de risque inacceptable, il doit être abandonné. Les entreprises ne peuvent ni le commercialiser, ni le déployer en interne, ni le tester en conditions réelles, même avec le consentement apparent des utilisateurs.
En revanche, elles doivent être capables de démontrer qu’elles ont identifié ce risque, qu’elles y ont renoncé et qu’elles ont documenté cette décision dans leur dispositif de conformité IA et dans leur registre des systèmes déployés ou écartés. Cette obligation de traçabilité change la façon d’aborder l’innovation. Les directions métiers, les équipes innovation et les DPO doivent travailler ensemble pour instaurer des filtres dès la phase d’idéation, sensibiliser les équipes aux interdictions et intégrer ces questions dans les revues de projets.
Une charte IA d’entreprise, articulée avec les politiques RGPD existantes, devient l’outil de référence pour rappeler les lignes rouges, organiser les arbitrages et garder une trace de ce qui a été autorisé ou refusé.
Tracer des frontières nettes pour innover durablement
De nombreux points restent encore à préciser, en particulier l’articulation avec les modèles d’IA à usage général développés hors d’Europe, l’encadrement des usages émergents dans les jeux vidéo ou les réseaux sociaux et les marges de manœuvre des forces de l’ordre dans les situations d’urgence.
Pour les dirigeants, l’enjeu immédiat est double. Comprendre ce qui est désormais interdit afin de ne pas investir dans des impasses techniques et juridiques. Montrer aussi que l’entreprise sait dire non à certaines promesses de l’IA lorsque le prix à payer serait la manipulation des individus, la surveillance permanente ou la discrimination systémique.
Alors que les premières interdictions de l’AI Act sont déjà applicables, cette capacité à tracer des frontières nettes entre innovation utile et risque inacceptable devient un marqueur de gouvernance responsable. Les organisations qui assument ces choix en amont prennent un avantage clair. Elles sécurisent leur trajectoire d’innovation tout en préservant la confiance de leurs clients, de leurs salariés et des régulateurs.


