AI Act 2026 : ce que les entrepreneurs qui utilisent l’IA doivent déjà anticiper
L’IA n’est déjà plus un sujet de niche
En 2025, 20,0 % des entreprises de l’Union européenne de 10 salariés ou plus utilisaient déjà des technologies d’IA, contre 13,5 % en 2024. Chez les grandes entreprises, le taux montait à 55,0 %. En France, le mouvement accélère aussi : 10 % des entreprises de 10 salariés ou plus déclaraient utiliser l’IA en 2024, contre 6 % un an plus tôt, et les structures de 10 à 49 salariés sont passées de 5 % à 9 %. Côté usages, l’IA générative touche déjà le grand public : 32,7 % des Européens de 16 à 74 ans l’ont utilisée en 2025, et 63,8 % des 16-24 ans. Pour les entrepreneurs, le message est limpide : vos clients, vos recrues et vos concurrents sont déjà en train d’entrer dans ce nouveau terrain de jeu.
2026, ce n’est pas le début de l’IA : c’est le début du sérieux
Le AI Act est entré en vigueur le 1er août 2024, et l’essentiel du règlement devient applicable le 2 août 2026. Mais certaines briques sont déjà en place : les pratiques interdites et l’obligation de culture IA s’appliquent depuis le 2 février 2025, tandis que les règles de gouvernance et les obligations pour les modèles d’IA à usage général s’appliquent depuis le 2 août 2025. La logique du texte est simple : plus un usage est risqué pour la sécurité ou les droits fondamentaux, plus les obligations montent. Ce point est crucial pour les petites entreprises, car la bonne question n’est pas seulement “utilisez-vous l’IA ?”, mais “dans quelle décision, sur quelles personnes, et avec quel niveau de risque ?”
La première question n’est pas technique, elle est stratégique
La Commission européenne recommande aux organisations de commencer par identifier leur rôle : développent-elles un système d’IA, ou utilisent-elles surtout des outils conçus par d’autres ? Cette distinction change tout dans la feuille de route. Une agence qui s’appuie sur ChatGPT ou Copilot pour produire plus vite n’est pas dans la même situation qu’une startup qui conçoit son propre moteur d’analyse de candidatures ou de notation. Pour aider les acteurs économiques à s’y retrouver, Bruxelles a lancé un AI Act Service Desk, une plateforme d’information unique et un “Compliance Checker” destinés à orienter les entreprises vers leurs obligations réelles. Pour une TPE, ce tri de départ peut éviter beaucoup de dépenses inutiles et concentrer l’effort là où le risque est véritablement business.
L’obligation la plus sous-estimée est déjà active : la culture IA
Depuis février 2025, les fournisseurs et les utilisateurs de systèmes d’IA doivent veiller à un niveau suffisant de “AI literacy” parmi les personnes qui utilisent ces outils pour leur compte. La bonne nouvelle, c’est que Bruxelles ne demande ni diplôme spécifique, ni certification obligatoire, ni structure lourde. Le minimum attendu est beaucoup plus concret : savoir quels outils sont utilisés dans l’entreprise, comprendre leurs opportunités et leurs risques, distinguer si l’on est simple utilisateur ou concepteur, puis adapter l’information ou la formation selon les métiers. La Commission donne même un exemple très parlant : une entreprise dont les salariés utilisent ChatGPT pour rédiger des publicités ou traduire des textes est bien concernée, notamment pour sensibiliser aux hallucinations. Et pour documenter ses efforts, un registre interne des formations ou consignes suffit déjà comme base crédible ; les contrôles nationaux sur ce volet démarrent à partir d’août 2026.
Les zones de vigilance de 2026 seront très concrètes
À partir du 2 août 2026, les règles de transparence sur les contenus générés ou manipulés par IA deviennent applicables : pour les entrepreneurs qui publient des visuels, des voix clonées ou des vidéos promotionnelles, le signalement de certains contenus ne sera plus un détail. En parallèle, certains usages RH passent dans une catégorie beaucoup plus sensible : les systèmes d’IA destinés au recrutement, au filtrage de candidatures ou à l’évaluation de candidats figurent dans les cas à haut risque. Plus encore, l’usage d’IA pour inférer les émotions d’une personne sur le lieu de travail est, sauf exceptions limitées, interdit. En pratique, demander à l’IA de proposer un brouillon de post LinkedIn n’a pas le même poids réglementaire que laisser un algorithme trier des CV ou “lire” l’état émotionnel d’un salarié. C’est précisément ici que l’entrepreneur rigoureux peut prendre une avance décisive.
Anticiper maintenant, ce n’est pas freiner sa croissance : c’est la sécuriser
Le AI Act prévoit des sanctions élevées : pour certaines pratiques interdites, les amendes peuvent aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel, avec d’autres niveaux de sanctions pour d’autres manquements. Le droit européen précise toutefois que les PME et startups doivent faire l’objet d’une proportionnalité dans les amendes administratives. La vraie lecture entrepreneuriale du texte n’est donc pas la peur, mais la crédibilité. Une entreprise capable d’expliquer quels outils elle utilise, comment elle relit les résultats, comment elle forme ses équipes et comment elle évite les usages à risque rassure immédiatement ses clients, ses partenaires et ses futurs talents. En 2026, l’avantage concurrentiel ne sera pas seulement d’utiliser l’IA plus vite ; ce sera de l’utiliser avec plus de preuve, plus de méthode et plus de confiance.