في الواجهةمقالات قانونية

L’IMPACT DU NOUVEAU RÈGLEMENT EUROPÉEN DE L’INTELLIGENCE ARTIFICIELLE (EU AI ACT) SUR LES SOCIÉTÉS MAROCAINES : CADRE LÉGAL, RISQUES ET STRATÉGIES DE CONFORMITÉ. – Jadoua BENSEGHIR

L’IMPACT DU NOUVEAU RÈGLEMENT EUROPÉEN DE L’INTELLIGENCE ARTIFICIELLE

(EU AI ACT) SUR LES SOCIÉTÉS MAROCAINES :

CADRE LÉGAL, RISQUES ET STRATÉGIES DE CONFORMITÉ.

THE IMPACT OF THE NEW EUROPEAN ARTIFICIAL INTELLIGENCE REGULATION (EU AI ACT) ON MOROCCAN COMPANIES: LEGAL FRAMEWORK, RISKS, AND COMPLIANCE STRATEGIES.

Jadoua BENSEGHIR

doctorante en droit à l’Université Hassan II de Casablanca

هذا البحث منشور في مجلة القانون والأعمال الدولية الإصدار رقم 59 الخاص بشهر غشت / شتنبر 2025
رابط تسجيل الاصدار في DOI
https://doi.org/10.63585/KWIZ8576
للنشر و الاستعلام
mforki22@gmail.com
الواتساب 00212687407665

L’IMPACT DU NOUVEAU RÈGLEMENT EUROPÉEN DE L’INTELLIGENCE ARTIFICIELLE

(EU AI ACT) SUR LES SOCIÉTÉS MAROCAINES :

CADRE LÉGAL, RISQUES ET STRATÉGIES DE CONFORMITÉ.

THE IMPACT OF THE NEW EUROPEAN ARTIFICIAL INTELLIGENCE REGULATION (EU AI ACT) ON MOROCCAN COMPANIES: LEGAL FRAMEWORK, RISKS, AND COMPLIANCE STRATEGIES.

Jadoua BENSEGHIR

doctorante en droit à l’Université Hassan II de Casablanca

Résumé :

Dans cet article, j’explore ce que le Règlement sur l’intelligence artificielle de l’Union européenne (EU AI Act) implique réellement pour les entreprises marocaines, notamment celles qui exportent des services d’externalisation vers des clients de l’UE. La discussion débute par une présentation claire du Règlement, mettant en lumière son dispositif fondé sur les risques et son ambition d’intégrer la gouvernance de l’IA dans le cadre plus vaste de la constitutionnalisation numérique de l’Europe. Pourquoi cette vision ambitieuse est-elle si difficile à mettre en œuvre dans la pratique ? L’article analyse les pressions juridiques, économiques et sociales qu’elle suscite, en soulignant trois défauts persistants : une taxonomie des risques rigide, des coûts de conformité élevés et des lacunes durables en matière de responsabilité. Il se penche ensuite sur la portée extraterritoriale du Règlement et montre, par des exemples concrets, comment les entreprises marocaines en ressentiront les effets. Pour les accompagner, je propose un test d’applicabilité pas à pas et présente des recommandations de conformité adaptées au niveau de risque de chaque système d’IA. Enfin, l’article invite les législateurs marocains à anticiper : esquisser un « Moroccan AI Act » fondé sur la transparence, l’explicabilité et la responsabilité algorithmique, afin que le Maroc demeure sécurisé juridiquement et en phase avec les normes internationales en constante évolution.

Mots clés : EU AI Act ; entreprises marocaines ; extraterritorialité ; réglementation fondée sur les risques ; gouvernance de l’IA ; conformité juridique de l’IA ; lacunes de responsabilité ; protection des données ; droit à l’effacement ; constitutionnalisation numérique de l’UE ; De Lege Ferenda marocain.

Abstract :

In this piece, I delve into what the European Union Artificial Intelligence Act (EU AI Act) really means for Moroccan companies, especially those exporting outsourcing services to EU clients. The discussion opens with a clear outline of the Act, spotlighting its risk-based scheme and its bid to weave AI governance into Europe’s wider project of digital constitutionalism. Why is this ambitious vision so challenging in practice? The article unpacks the legal, economic, and social pressures it creates, stressing three stubborn flaws: an inflexible risk taxonomy, hefty compliance costs, and lingering gaps in liability design. It then zeroes in on the Act’s extraterritorial reach and shows, through concrete examples, how Moroccan businesses will feel the pinch. To help, I put forward a step-by-step applicability test and provide bespoke compliance advice calibrated to the risk tier of each AI system. Finally, the piece urges Moroccan lawmakers to get ahead of the curve: sketch a home-grown AI Act rooted in transparency, explainability, and algorithmic accountability, so Morocco stays legally secure and in sync with the world’s evolving standards.

Key words : EU AI Act; Moroccan Companies; Extraterritoriality; Risk-Based Regulation; AI Governance; AI Legal Compliance; AI Legal Liability Gaps; Data Protection; RTBF; EU Digital Constitutionalism; Moroccan De Lege Ferenda.

Introduction

L’intelligence artificielle (IA), véritable moteur du XXIᵉ siècle, redessine sans relâche nos paysages économiques, sociaux et juridiques. Nous le remarquons chaque jour : sa capacité à bouleverser les chaînes de valeur et à remodeler nos interactions place les juristes face à des défis inédits, qui appellent des réponses coordonnées au-delà des frontières. C’est dans ce contexte que l’Union européenne a adopté, en 2024, l’Acte sur l’intelligence artificielle (ci-après “EU AI Act”). Ce texte ambitieux, premier instrument contraignant à vocation horizontale[1] en la matière, érige un cadre de gouvernance numérique exigeant pour tout l’espace européen.

L’influence de ce règlement dépasse pourtant largement l’UE. En revendiquant une portée extraterritoriale, le EU AI Act vise aussi une quantité d’entreprises étrangères, notamment marocaines, liées aux marchés ou aux données européennes. Pourquoi cela importe-t-il ? Parce que toute entité dont les systèmes d’IA touchent, même indirectement, des citoyens ou des données de l’UE s’expose à ses obligations et, le cas échéant, à des sanctions financières substantielles. Les sociétés marocaines actives dans l’offshoring, les services numériques ou la fourniture de produits intégrant de l’IA destinés à l’Europe doivent donc mesurer promptement leur niveau de conformité.

Cet article poursuit un double objectif. D’abord, offrir une présentation détaillée du EU AI Act : principes directeurs, hiérarchie des risques, mais aussi limites déjà pointées par la doctrine, notamment : rigidité conceptuelle, lourdeur procédurale, coût disproportionné pour les PME. J’y vois une occasion, pour le législateur marocain, d’anticiper et d’adapter ces enseignements afin de bâtir un cadre national sur mesure.

Ensuite, l’étude explore la mise en œuvre concrète du règlement pour les entreprises marocaines. Comment savoir si votre société tombe sous le coup du texte ? Je crois qu’une grille d’auto-évaluation, nourrie des outils diffusés par l’UE et l’OCDE, peut fournir une réponse claire. Cette matrice permettra aux acteurs de déterminer leurs obligations avec précision et de planifier, le cas échéant, les ajustements nécessaires.

La partie suivante traite des sanctions prévues en cas de non-conformité et des stratégies adaptées aux différents niveaux de risque. À ce stade, je m’attends à ce qu’une approche proactive, audits internes, documentation robuste, gouvernance éthique, devienne vite indispensable pour éviter des pénalités élevées. Quelles conséquences pour celles et ceux qui tarderaient ? La réponse est simple : un risque juridique et financier majeur.

Au terme de ce parcours, l’article entend clarifier les implications complexes du EU AI Act pour les acteurs marocains et proposer des pistes législatives concrètes. L’ambition ici est d’accompagner le Royaume vers un écosystème réglementaire solide, capable de stimuler l’innovation tout en protégeant les droits fondamentaux face aux défis posés par l’IA.

Partie 1 : Présentation du EU AI Act, évaluation critique et perspectives pour le législateur marocain

Présentation du EU AI Act

L’intelligence artificielle (IA) bouleverse les cadres juridiques traditionnels par son potentiel disruptif et son impact socio-économique massif. Je le constate moi-même : les juristes doivent repenser leurs paradigmes. C’est dans cet esprit que l’Union européenne a adopté, en 2024, l’Acte sur l’intelligence artificielle (EU AI Act). Premier règlement horizontal et contraignant consacré à l’IA, il repose sur une gradation précise des risques afin d’arbitrer, avec doigté, entre dynamisme technologique et sauvegarde des droits fondamentaux. Pourquoi cela importe-t-il ? Parce qu’en inscrivant ces principes dans le constitutionnalisme numérique, l’Europe trace une voie que d’autres suivront inévitablement.

Le EU AI Act définit quatre niveaux de risque, inacceptable, élevé, limité, minimal, et ajuste les obligations en conséquence. Les applications jugées inacceptables, comme le scoring social, les techniques subliminales manipulatoires ou l’identification biométrique à distance en temps réel, sont purement interdites. D’une plume ferme, le législateur fixe ainsi une ligne rouge protégeant la dignité humaine, la vie privée et la transparence.

Pour les systèmes classés à risque élevé, la régulation se veut résolument proactive. Sont visés, par exemple, les outils de notation de solvabilité, la gestion d’infrastructures critiques ou certaines analyses policières. Ici, le texte impose aux développeurs un dispositif robuste de gestion des risques, une gouvernance stricte des données, une documentation technique complète et, surtout, une supervision humaine constante. J’y vois une logique claire : prévenir l’erreur avant qu’elle ne devienne préjudice.

En somme, cette architecture réglementaire cherche à anticiper les dérives sans museler l’innovation, offrant un modèle équilibré qui pourrait inspirer bien au-delà des frontières européennes.

Catégories de risques des systèmes d’IA dont dispose le EU AI Act. [2]

Concernant les systèmes classés à risque limité, chatbots, générateurs de deep-fake et assimilés, le législateur européen se montre sobre : seule subsiste une obligation de transparence, les opérateurs devant déclarer la nature artificielle du service. Je le vois comme un coup de pouce à l’innovation : pourquoi alourdir ces secteurs lorsque l’éthique est moins exposée ? Par cohérence, les solutions à risque minimal échappent à toute règle dédiée, même si elles demeurent régies par les normes générales de sécurité produit. (Qu’on discutera plus en détails aux prochaines sections)

Le EU AI Act réserve un traitement spécial aux modèles d’IA dits « à usage général ». Ces architectures polyvalentes doivent publier une synthèse transparente des données d’entraînement, respecter le droit d’auteur et informer clairement les utilisateurs finaux de leurs limites. J’estime que cette clarté favorise la confiance. Pour les modèles dits « systémiques » (seuils précis de puissance à l’appui, référence est ici faite aux FLOPS[3]) les exigences montent : tests adversariaux récurrents, signalement obligatoire des incidents graves et supervision par le tout nouvel Bureau européen de l’IA.[4]

La responsabilité première incombe aux fournisseurs ; pourtant, les utilisateurs professionnels ne sont pas exempts de vigilance, notamment lorsqu’ils exploitent des systèmes à haut risque. Pourquoi s’en dispenseraient-ils ? Une gestion rigoureuse des risques s’impose à chaque maillon.

Pour conjuguer régulation et créativité, le texte introduit les « regulatory sandboxes ».[5][6] Dans ces enceintes sécurisées, les entreprises expérimentent leurs solutions tout en anticipant les contraintes de conformité, un environnement que je juge indispensable pour apprendre vite et innover sans brûler d’étapes.

Côté calendrier, l’Union opte pour la progressivité : six mois (de la date d’entrée en vigueur) pour bannir les risques inacceptables, un an pour réguler les modèles à usage général, deux ans pour les systèmes à haut risque de l’annexe III,[7] jusqu’à trois ans pour ceux de l’annexe I.[8] Les codes de pratique devront, eux, être ficelés dans les neuf mois suivant l’entrée en vigueur du texte.

Bref, le EU AI Act érige un modèle de gouvernance de l’IA équilibré entre protection et innovation. Est-ce la panacée ? Peut-être pas, mais le pas est décisif ; la section suivante lève le voile sur les défis qui demeurent.

Évaluation critique du EU AI Act : entre ambitions réglementaires et limites pratiques

L’adoption du EU AI Act marque, à mes yeux, un tournant capital pour la régulation juridique de l’intelligence artificielle à l’échelle internationale. Mais, soyons honnêtes, un texte si ambitieux ne peut échapper aux critiques ni aux limites, qu’elles soient conceptuelles ou pratiques. Pourquoi cela importe-t-il ? Je crois que comprendre ses failles est indispensable. Dans les pages qui suivent, j’explore ces points névralgiques.

À mon sens, le EU AI Act souffre d’un défaut majeur : il s’appuie sur une classification des risques trop rigide pour suivre le rythme effréné des progrès de l’IA. Pourquoi est-ce inquiétant ? Parce que, je pense, malgré la clause d’«actualisation dynamique» dont dispose l’article 7[9] du texte, ce carcan risque d’empêcher le cadre réglementaire de s’ajuster aux systèmes IA émergents, laissant béante une zone grise où des dangers inédits pourraient se tapir.[10] Les études universitaires récentes, que j’ai consulté, dénoncent aussi la fragilité d’un modèle purement technocratique fondé sur la seule évaluation du risque, jugée insuffisante.[11] Certes, une telle approche canalise certaines applications, mais elle saisit mal les nuisances sociétales beaucoup plus diffuses : je peux notamment en citer les menaces systémiques contre la délibération démocratique, l’érosion du pluralisme médiatique, et, les entorses à la justice distributive.[12] Peut-on vraiment gouverner un phénomène aussi complexe que l’IA par de simples obligations techniques et une classification de risque classique ? Je m’en doute fort, surtout face à des défis tels que la désinformation et la manipulation électorale.

De mon point de vue, une critique revient sans cesse : le EU AI Act fait peser un fardeau économique lourd, surtout sur les petites et moyennes entreprises (PME) et les start-ups.[13] Certes, il existe des procédures simplifiées et le « paquet Innovation » est censé réduire les obligations documentaires, mais, soyons francs, ces acteurs doivent toujours affronter une avalanche de paperasses : documentation minutieuse,[14] certifications récurrentes, surveillance permanente.[15] [16] Comment des structures aux moyens limités peuvent-elles suivre ce tempo alors que les grandes entreprises disposent de budgets confortables ? Est-ce vraiment ainsi que l’on stimulera l’écosystème européen d’innovation ? Je crains que les PME et start-ups subissent des chocs financiers et opérationnels susceptibles de freiner violemment leur compétitivité et, in fine, leur capacité d’innovation dans l’IA.

A mon avis, le EU AI Act souffre également de lacunes procédurales criantes. En misant presque exclusivement sur des dispositifs préventifs et la gestion du risque, le texte omet de donner aux citoyens des moyens vraiment efficaces pour contester une décision automatisée ou demander réparation après un préjudice causé par l’IA. Pourquoi cette omission est-elle si grave ? Parce qu’un cadre clair de responsabilité[17] -civile et pénale- et de recours conditionne l’effectivité même d’une régulation et la sécurité juridique qui en découle ; sans lui, les victimes d’abus ou d’erreurs d’IA peineront à identifier un responsable valable devant le droit civil ou pénal.[18] [19]

À l’échelle macro-économique, j’observe aussi des signaux d’alarme. Plusieurs études préviennent que les coûts élevés de conformité pourraient, selon certaines estimations, réduire les investissements européens en IA d’environ 20 % sur cinq ans.[20] N’est-ce pas paradoxal de viser la souveraineté numérique tout en décourageant l’injection de capital ? Une telle pression financière risque de détourner les fonds vers des régions réglementairement plus souples, freinant l’innovation et affaiblissant la position stratégique de l’UE.[21] Une leçon importante au Maroc pour son propre futur “Moroccan AI Act” souhaité !

Enfin, la régulation demeure silencieuse sur un point crucial : l’effacement des données personnelles des données d’entraînement de l’IA.[22] Cette lacune rend techniquement incompatible le EU AI Act avec des garanties clés du RGPD, notamment le droit à l’oubli. (le fameux “RTBF”) Je crois que cette incohérence doctrinale constitue une faille majeure : elle laisse sans solution concrète la protection de la vie privée dans le contexte particulier de l’apprentissage automatique. (“Machine learning”)[23] On se demande alors, comment concilier ces deux régimes sans sacrifier la confiance du public ?

En conclusion, je demeure convaincu que, malgré l’effort louable, et nécessaire, pour encadrer un domaine aussi protéiforme que l’IA, le EU AI Act traîne encore d’imposants boulets : rigidité de ses catégories de risque, charges administratives corsées, mutisme sur la responsabilité après usage, sans oublier de sérieux angles morts socio-politiques. Pourquoi s’en soucier ? Parce que, sans correctifs, le texte risque de brider l’innovation autant qu’il prétend la stimuler. Pour combler ces brèches et vraiment protéger les droits fondamentaux tout en nourrissant l’inventivité, j’estime que les futurs régulateurs européens devront se doter d’outils complémentaires, plus souples, munis de mécanismes de recours et de responsabilité autrement plus robustes.

Perspectives pour le législateur marocain : vers un futur “Moroccan AI Act”

À titre personnel, je crois que l’émergence de l’IA exige une réflexion juridique profonde. Pas seulement en Europe : au Maroc aussi, l’accélération technologique fait surgir d’immenses défis juridiques et sociopolitiques. Pourquoi se contenter de copier un modèle étranger ? En s’inspirant du EU AI Act, sans occulter ses limites, le législateur marocain tient, me semble-t-il, une occasion rare : façonner un cadre national sur mesure, enraciné dans nos réalités, capable d’apporter des réponses concrètes aux enjeux liés à l’IA et d’attirer les capitaux étrangers. A cet effet, ci-dessous certains défis, dont le législateur marocain doit être conscient lors d’une future légifération du “Moroccan AI Act”.

Le premier défi, je l’ai constaté dans mes analyses, touche l’impact socio-politique. L’expérience européenne, du référendum sur le Brexit, aux élections présidentielles françaises, l’a démontré : un usage non régulé de l’IA peut bouleverser les processus démocratiques.[24] L’affaire Cambridge Analytica[25] reste l’exemple-clé ; le micro-ciblage algorithmique amplifie les divisions et dégrade le débat public. Le Maroc, engagé dans un développement démocratique continu, doit, selon moi, redoubler de vigilance pour écarter toute manipulation susceptible d’altérer le jeu électoral. N’est-ce pas le moment d’adopter un dispositif robuste qui protège les libertés individuelles et encadre strictement l’usage politique et médiatique de l’IA ?

Le deuxième défi, à mes yeux indissociable de l’IA, touche à l’explicabilité et à la transparence. Ces systèmes, souvent qualifiés de « black boxes », sont si complexes que ni l’utilisateur moyen ni certains régulateurs ne peuvent réellement savoir ce qui se passe sous le capot.[26] Pourquoi cela importe-t-il ? Parce qu’une telle opacité ébranle les principes mêmes de responsabilité requis pour la sécurité juridique.[27] Je pense donc que le Maroc devrait adopter des mécanismes juridiques inspirés, sans les copier servilement, des modèles de supervision renforcée et des approches XAI (Explainable AI).[28] [29] Un futur cadre marocain devra exiger ainsi différents niveaux d’explicabilité, surtout dans des secteurs sensibles (justice, sécurité publique, administration) afin de mieux protéger les droits fondamentaux, comme le recommande la littérature.[30]

Troisième axe, tout aussi crucial : la protection des données personnelles. L’IA s’abreuve de volumes massifs de données ; sans garde-fou, la vie privée et le « droit à l’oubli » risquent d’être malmenés lorsque des données personnelles se retrouvent dans l’output d’un LLM[31] sans consentement.[32] Certes, le Maroc dispose déjà de la loi n° 09-08, mais je crois qu’il faut la renforcer pour l’aligner sur les réalités technologiques actuelles. Le droit à l’oubli, tel que défini par le RGPD ou la loi n° 09-08, se heurte aux limites techniques des modèles IA : effacer totalement une donnée personnelle assimilée relève parfois du mythe[33], elle finit par réapparaître.[34] Comment éviter que ce droit ne devienne caduc ? À mon avis, il est temps d’adopter une approche souple et pragmatique qui combine un contrôle accru des données d’entraînement et garantit une autodétermination informationnelle réelle pour chaque citoyen.[35]

À côté de ces enjeux, je vois le développement fulgurant des systèmes autonomes (pensez à une “self driving Tesla” ) comme un défi majeur pour notre droit marocain local et ses régimes juridiques de responsabilité. Pourquoi ? Parce qu’aujourd’hui, le cadre juridique marocain, tout comme bien d’autres, ne traite pas explicitement la responsabilité des actes et préjudices commis par une IA autonome ni les dommages qui en découlent. Si un accident survient, qui paie ? qui est civilement ou pénalement responsable? Le législateur doit donc, à mon sens, devancer le problème et définir avec précision les règles d’imputation, qu’il s’agisse de responsabilité civile ou pénale.[36] Cela passera sans doute par des mécanismes dédiés, taillés pour la technologie,[37] tout en évitant l’écueil d’une personnification juridique[38] (“Legal personhood” en common Law) accordée trop vite aux machines.[39]

À mes yeux, élaborer un Moroccan AI Act n’est plus une option : c’est une urgence, tant la multiplicité et la complexité des défis de l’intelligence artificielle grandissent. Pourquoi cela importe-t-il ? Parce que le législateur marocain, j’en suis convaincue, peut s’inspirer des leçons européennes tout en façonnant un texte ancré dans nos réalités nationales. Cette loi devrait, je pense, rester agile et souple tout en assurant une protection robuste des libertés fondamentales ainsi qu’une transparence suffisante pour nourrir la confiance citoyenne. Et si nous allions plus loin ? L’approche marocaine pourrait intégrer l’« explicabilité renforcée »,[40] l’autodétermination des données personnelles[41] et une responsabilité claire des systèmes autonomes, afin d’offrir un socle juridique solide au développement éthique et responsable de l’IA au Maroc.

Partie 2 : Champ d’application du EU AI Act et applicabilité aux entreprises marocaines, stratégies de conformité

Champ d’application du EU AI Act : une portée large et multidimensionnelle

Le règlement européen relatif à l’intelligence artificielle (EU AI Act) s’avance avec un champ d’application étonnamment vaste. Je le vois comme le signe d’une ambition claire : réguler de façon exhaustive tous les systèmes d’IA qui opèrent, directement ou non, sur le territoire de l’Union européenne. Pourquoi une telle envergure ? Pour concilier, sans compromis, la défense des droits fondamentaux et l’équité du marché intérieur.

Premier jalon : l’article 2 précise qui est visé. Sont concernés les fournisseurs qui mettent sur le marché ou en service des systèmes d’IA dans l’Union, qu’ils soient installés à Paris, Rabat ou ailleurs. Cela comprend également les modèles d’IA à usage général, capables d’accomplir une multitude de tâches et de s’intégrer partout ; un vrai casse-tête sans cette catégorisation.

Ensuite viennent les déployeurs. Qu’ils opèrent depuis Bruxelles ou Casablanca, dès lors que leurs résultats sont utilisés dans l’UE, ils entrent dans le giron du texte. Importateurs, distributeurs, fabricants apposant leur marque sur des produits embarquant de l’IA : personne n’échappe au filet réglementaire. Même les représentants autorisés de fournisseurs hors UE, sans oublier toutes les personnes physiques concernées dans l’Union, doivent rendre des comptes et se trouvent tous dans le viseur du texte.

Une ligne suffit : le législateur veut inclure dans le champ d’application de cette loi la chaîne de distribution complète de l’IA, de la conception à l’utilisation.

Le EU AI Act étend enfin sa portée territoriale pour garantir une protection homogène. Dès qu’un système est mis sur le marché, mis en service, importé ou simplement utilisé dans l’UE, le règlement s’applique. Quel impact pour un développeur aux antipodes ? Indépendamment de son adresse, si ses résultats touchent l’Europe, la conformité devient impérative, preuve supplémentaire que le périmètre de ce texte se veut réellement global.

Cette portée territoriale étonnamment large vise d’abord à empêcher tout contournement des règles européennes via des opérations externalisées ou délocalisées. Mais que se passerait-il si un acteur tentait d’y échapper ? Moi, j’y vois la réponse dans le considérant 22 de la loi[42] : même un système utilisé hors de l’Union, dès qu’il affecte directement ou indirectement des citoyens européens ou exploite des données recueillies légalement dans l’UE, tombe sous le coup du texte.

Une soupape subsiste toutefois. Les autorités publiques de pays tiers et les organisations internationales peuvent bénéficier d’une exemption lorsqu’elles agissent dans le cadre d’accords internationaux ou de coopérations policières et judiciaires avec l’UE ou ses États membres, à condition d’offrir des garanties solides en matière de libertés et de droits fondamentaux.

Côté calendrier, l’application du EU AI Act s’égrène par étapes. Le règlement est certes entré en vigueur le 12 juillet 2024, mais les obligations se déclinent ainsi : 2 février 2025 pour l’interdiction des systèmes à risque inacceptable et les mesures générales de maîtrise, 2 août 2025 pour les fournisseurs de modèles à usage général, puis août 2026 et août 2027 pour les systèmes à haut risque listés aux annexes III et I. Pourquoi cette progressivité ? Pour laisser aux acteurs le temps d’intégrer, sans chaos, des contraintes parfois lourdes.

Le champ se resserre aussi par exclusions ciblées. Les IA dédiées exclusivement à la défense, à la sécurité nationale ou au militaire demeurent hors périmètre, respectant la souveraineté des États membres. Même sort pour les modèles conçus uniquement à des fins de recherche et développement scientifiques, tant qu’ils restent confinés à ces objectifs.

En phase amont, les programmes de recherche, d’essai ou de développement menés avant la mise sur le marché ou la mise en service échappent aux obligations, pourvu qu’ils restent strictement encadrés et ne s’étendent pas aux tests en conditions réelles.

Au final, je crois que le EU AI Act combine ampleur et précision : une gouvernance ambitieuse couvrant chaque étape de la vie d’un système d’IA. Les sociétés marocaines devront-elles se conformer ? La réponse est évidente : oui, et vite.

Test d’Applicabilité du EU AI Act aux entreprises marocaines :

Le EU AI Act, ce règlement pionnier de l’intelligence artificielle (IA), impose désormais ses exigences à une mosaïque d’acteurs internationaux, et, bien sûr, aux entreprises marocaines. Vaste défi. Je l’ai constaté : sa portée supra-territoriale oblige chaque société marocaine qui exploite l’IA et commerce avec l’Union européenne à jauger avec précision son niveau de conformité. Pourquoi courir le risque d’une erreur ? Les sanctions peuvent atteindre 7 % du chiffre d’affaires mondial annuel ou 35 millions d’euros, un montant capable d’ébranler n’importe quel bilan.

Pour se repérer dans ce labyrinthe, le législateur européen propose un «self-assessment tool», utile tremplin pour un premier diagnostic. Pourtant, je crois qu’une vérification finale assurée par un juriste spécialisé reste indispensable : elle sécurise le processus, affine les conclusions et, surtout, évite les mauvaises surprises.

Le premier critère fondamental à considérer pour une entreprise marocaine est de savoir si son système peut effectivement être considéré comme une IA au sens de l’article 3 du EU AI Act. Ce dernier définit un système d’IA comme :

“un système basé sur une machine conçue pour fonctionner avec différents niveaux d’autonomie, capable de s’adapter après son déploiement, et qui déduit à partir des données qu’il reçoit comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions”.

Ainsi, une entreprise marocaine devra examiner précisément les caractéristiques techniques de son système pour déterminer s’il satisfait cette définition initiale.

La deuxième étape indispensable consiste à identifier clairement la position occupée par l’entreprise marocaine dans la chaîne de valeur associée à l’IA. Le EU AI Act distingue plusieurs rôles :

  • Fournisseur : développe ou fait développer un système d’IA sous son propre nom ou marque.
  • Déployeur : utilise un système d’IA sous son autorité, à l’exclusion des usages personnels non professionnels.
  • Importateur : situé dans l’UE, commercialise des systèmes d’IA développés à l’extérieur de l’UE.
  • Distributeur : met des systèmes d’IA à disposition sur le marché européen, sans être fournisseur ou importateur.
  • Représentant autorisé : situé dans l’UE, mandaté par un fournisseur externe pour remplir des obligations réglementaires.
  • Fabricant de produits : intègre un système d’IA à un produit commercialisé sous sa propre marque.

[43]

À ce stade, chaque entreprise doit cerner ­— sans se tromper ­— sa propre catégorie, afin de savoir quelles obligations européennes lui incombent. J’insiste sur ce point : une classification erronée coûte cher. Pourquoi cette rigueur est-elle cruciale ? Parce qu’un simple oubli peut déclencher les lourdes pénalités prévues par le EU AI Act.

Vient ensuite la vérification du champ d’application territorial et matériel. Le règlement s’applique dès qu’un système d’IA est mis sur le marché, en service, importé ou distribué dans l’UE, ou lorsque ses résultats touchent des personnes situées dans l’Union. Autrement dit, même une société marocaine opérant hors UE mais traitant des données européennes ou livrant des résultats destinés à l’UE doit se conformer aux règles ; impossible d’y échapper par la géographie seule.

L’étape suivante ? Évaluer le niveau de risque lié au système. Les « hauts risques » incluent notamment les composants de sécurité pour les secteurs critiques (transport, santé, infrastructures essentielles) ainsi que les contextes sensibles comme l’éducation, l’emploi, le maintien de l’ordre ou la gestion des frontières. J’attire toujours l’attention sur les systèmes d’identification biométrique à distance : ils déclenchent, à eux seuls, des obligations renforcées.

Pour naviguer dans cette complexité, plusieurs outils en ligne existent déjà.[44] Le « self-assessment tool » officiel de l’Union Européenne, accessible ici : https://artificialintelligenceact.eu/fr/evaluation/verificateur-de-conformite-a-l-acte-de-l-ai-de-l-ue/, guide l’utilisateur pas à pas. De même, Trail de l’OCDE (https://www.trail-ml.com/eu-ai-act-compliance-checker) ou capAI de l’Université d’Oxford[45] offrent une aide précieuse. Je trouve ces plateformes utiles pour un premier diagnostic rapide.

Avec l’application progressive du EU AI Act, la demande pour ces solutions explosera. Elles constituent une première ligne de défense face au risque juridique, tant pour les entreprises européennes que pour les sociétés étrangères actives sur le marché continental.

En pratique, la démarche de conformité impose donc un processus méthodique, de la qualification technique initiale jusqu’à la détermination fine des obligations. Gardons-le en tête : l’accompagnement par un juriste spécialisé reste indispensable pour interpréter correctement les critères légaux et atteindre une conformité sans faille. Qui voudrait s’y risquer seul ?

Sanctions et stratégies de compliance pour les entreprises marocaines face au EU AI Act

À mon sens, le EU AI Act impose des obligations draconiennes dont la portée extraterritoriale ne laisse aucune société marocaine interagissant avec l’Union européenne indifférente. Pourquoi cela importe-t-il ? Parce qu’une lecture, même rapide, révèle la sévérité des sanctions et l’urgence d’élaborer une stratégie de conformité taillée sur mesure, adaptée au risque que présente chaque système d’IA.

En pratique, la non-conformité expose les entreprises à des amendes administratives réellement dissuasives : jusqu’à 7 % du chiffre d’affaires annuel mondial ou 35 millions d’euros (le montant le plus élevé l’emporte).[46] Ce plafond, gradué selon la gravité de l’infraction, se décline ainsi :

  • 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial pour les pratiques interdites ou le non-respect des exigences relatives aux données.
  • 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial pour d’autres obligations non respectées.
  • 7,5 millions d’euros ou 1,5 % du chiffre d’affaires annuel mondial si l’on transmet des informations erronées ou trompeuses aux autorités compétentes.

Je crois que ces chiffres parlent d’eux-mêmes et incitent toute organisation à agir sans tarder. Adopter une démarche de compliance proactive, documentée et continue devient alors impératif.

Le règlement, rappelons-le, ajuste les exigences au niveau de risque : plus le risque est élevé, plus les obligations s’accumulent. Identifier précisément la catégorie de risque applicable à son système d’IA constitue donc la première étape d’un plan de conformité crédible.[47]

Et si le système relève du risque « inacceptable » (manipulation, discrimination ou surveillance abusive) la seule réponse sensée est l’interdiction pure et simple de son déploiement. Une veille technique rigoureuse et une analyse juridique régulière doivent, dès lors, être instaurées pour prévenir toute violation grave. Comment s’y préparer dès aujourd’hui ? En intégrant la conformité dans la conception même des projets et en mobilisant, dès le départ, les bonnes compétences internes et externes.

Les systèmes à haut risque, c’est-à-dire ceux qui touchent la sécurité des infrastructures, l’éducation, l’emploi, la justice ou les décisions financières, exigent une conformité bien plus poussée. Dans ma pratique, j’ai constaté que le moindre manquement coûte cher ; pourquoi prendre ce risque ? Concrètement, une entreprise marocaine doit :

  • Mettre en place un dispositif de gestion des risques couvrant tout le cycle de vie du système IA.
  • Garantir une gouvernance des données vigilante afin de limiter les biais et assurer une qualité irréprochable.
  • Produire une documentation technique exhaustive, à conserver pendant au moins dix ans.
  • Tenir des journaux d’événements automatiques (“logs”) durant six mois minimum pour assurer la traçabilité.
  • Assurer une transparence intégrale vis-à-vis des utilisateurs et prévoir une supervision humaine efficace.
  • Réaliser périodiquement des AI Impact Assessments sur les droits fondamentaux et notifier les autorités compétentes des résultats. (il s’agit des fameux “AIA”)
  • Organiser des audits indépendants réguliers et satisfaire aux exigences de cybersécurité, de précision et de robustesse.

Un représentant autorisé, basé dans l’UE, devra en outre être nommé pour dialoguer avec les régulateurs et piloter les obligations de conformité. Je pense que ces exigences, lourdes mais claires, impliquent des coûts substantiels qui restent cependant préférables à des pénalités salées.

À l’inverse, les systèmes jugés à risque limité (génération de contenus synthétiques, “motion recognition AI”, etc.) sont surtout soumis à un devoir de transparence : informer l’utilisateur qu’il s’adresse à une IA, sauf évidence contraire, et marquer toute création artificielle de manière lisible par machine. N’est-ce pas un compromis raisonnable ? Ces obligations légères simplifient la conformité tout en préservant le public de possibles manipulations.

La bonne nouvelle, c’est qu’aucune exigence supplémentaire ne pèse sur les systèmes d’IA classés à risque minimal. Concrètement, les sociétés marocaines disposent donc d’une réelle latitude pour les concevoir, les tester et les déployer dans l’UE, à condition de respecter les règles générales de sécurité des produits ainsi que la législation sectorielle. Pourquoi s’en priver lorsque la porte est grande ouverte ?

Je remarque toutefois que la donne change dès qu’on aborde les modèles d’IA à usage général, l’AGI (Artificial general intelligence). Ici, la transparence devient la règle d’or : l’utilisateur final doit savoir, sans ambiguïté, qu’il échange avec une machine et que le contenu est créé artificiellement. Si le modèle présente un risque systémique, il faut notifier la Commission européenne, joindre une documentation technique détaillant capacités et limites, puis publier un résumé des données d’entraînement. J’insiste : des évaluations régulières et des tests adversaires sont indispensables pour garantir robustesse et sécurité.

En définitive, toute entreprise marocaine concernée par le EU AI Act doit, selon moi, élaborer un plan de conformité proportionné au niveau de risque. Cette cartographie fine des obligations, couplée à une démarche proactive, limite les périls juridiques et financiers liés aux sanctions. Mieux encore, elle accroît la compétitivité sur les marchés européens et mondiaux de l’IA, tout en assurant un usage éthique et responsable de la technologie. Pourquoi ne pas transformer ces contraintes en avantage stratégique ?

Conclusion

En définitive, je crois que l’adoption du règlement européen sur l’intelligence artificielle (EU AI Act) marque un virage décisif dans la gouvernance mondiale de l’IA, avec des effets immédiats pour les entreprises marocaines inscrites dans la chaîne de valeur européenne. Pourquoi s’y intéresser de près ? Cette étude a mis en lumière les multiples composantes du cadre européen, identifié de manière nette les critères d’applicabilité et dévoilé l’impact concret sur nos acteurs économiques, en particulier ceux engagés dans l’offshoring et la sous-traitance technologique.

L’examen du champ d’application territorial, temporel et personnel montre l’ampleur du EU AI Act : sa portée extraterritoriale englobe toute entreprise marocaine qui traite des données européennes ou fournit des résultats destinés à l’UE. Une vigilance renforcée s’impose donc, d’autant que les sanctions financières annoncées s’avèrent lourdes en cas de manquement. N’est-ce pas un signal clair ?

Par ailleurs, cette publication met en évidence les limites pratiques et conceptuelles du texte : rigidité taxonomique, coûts administratifs élevés, zones d’ombre en matière de responsabilité juridique, qu’elle soit civile ou pénale. Ces critiques, fondées, offrent au législateur marocain un précieux matériau pour concevoir un « Moroccan AI Act » agile et pertinent. À mes yeux, l’analyse prospective proposée invite à anticiper ces défis grâce à une approche flexible, adaptée aux réalités technologiques du Royaume.

À mes yeux, le test d’applicabilité présenté dans cet article offre aux entreprises marocaines bien plus qu’une grille de lecture : c’est une boussole, claire et méthodique, pour piloter leur conformité. En mobilisant des outils pratiques d’auto-évaluation et en s’appuyant sur l’accompagnement d’experts juridiques, elles pourront, je le crois, mieux cerner leurs obligations réglementaires, ajustées au niveau de risque propre à chaque système d’IA. Pourquoi cela compte-t-il ? Parce que la classification par niveau de risque (inacceptable, élevé, limité, minimal et modèles d’IA à usage général) devient la pierre angulaire d’une stratégie de conformité capable d’écarter les sanctions juridiques et financières les plus lourdes.

Face à ces défis, je plaide pour que les entreprises marocaines adoptent une posture résolument proactive, fondée sur une évaluation continue et exigeante des risques. Concrètement, cela suppose l’instauration d’une gouvernance robuste de l’IA, avec des mécanismes transparents d’évaluation, une supervision humaine réelle et des dispositifs solides de gestion ainsi que de contrôle des données. Le législateur marocain, quant à lui, doit, à mon sens, accélérer l’élaboration d’un cadre juridique national inspiré des meilleures pratiques européennes, mais épousant les spécificités locales afin de protéger les droits fondamentaux tout en soutenant l’innovation technologique.

Au fond, le EU AI Act n’est pas seulement un obstacle. Ne constitue-t-il pas, aussi, une formidable occasion de renforcer la compétitivité et la réputation internationales des entreprises marocaines ? Il revient désormais aux acteurs économiques et aux pouvoirs publics du Royaume de capitaliser sur ces enseignements pour bâtir un futur où l’intelligence artificielle sera à la fois levier de croissance et rempart solide en faveur des libertés individuelles.

Bibliographie

Almada M, ‘Governing the black box of AI’ (SSRN, 7 November 2023) https://ssrn.com/abstract=4587609 consulté le 15 Février 2025.

Bathaee Y, ‘The artificial intelligence black box and the failure of intent and causation’ (2018) 31(2) Harvard Journal of Law & Technology 889 https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf consulté le 15 Février 2025.

Chang C-C, ‘When AI remembers too much: reinventing the right to be forgotten for the generative age’ (2024) 19 Washington Journal of Law, Technology & Arts 23 https://digitalcommons.law.uw.edu/wjlta/vol19/iss3/2/ consulté le 15 Février 2025.

Commission européenne, ‘Bureau européen de l’IA’ (nd) https://digital-strategy.ec.europa.eu/fr/policies/ai-office consulté le 15 Février 2025.

De Nadal L and Jančárik P, ‘Beyond the deepfake hype: AI, democracy, and “the Slovak case”’ (2024) 5(4) HKS Misinformation Review https://misinforeview.hks.harvard.edu/article/beyond-the-deepfake-hype-ai-democracy-and-the-slovak-case/ consulté le 15 Février 2025.

Digital SME Alliance, ‘DIGITAL SME Position Paper on the Artificial Intelligence Act’ (Position Paper, 2021) https://www.digitalsme.eu/policy/ consulté le 15 Février 2025.

European Commission, ‘New Rules for Artificial Intelligence – Questions and Answers’ (press release QANDA/21/1683, 21 April 2021, updated 12 December 2023) https://ec.europa.eu/commission/presscorner/detail/en/qanda_21_1683 consulté le 15 Février 2025.

European Confederation of Institutes of Internal Auditing (ECIIA), ‘The AI Act: Road to Compliance’ (January 2025) 6 https://docs.ifaci.com/wp-content/uploads/2025/02/The-AI-Act-Road-to-Compliance-Final-1.pdf consulté le 15 Février 2025.

European Parliament, ‘AI Liability Directive’ (Legislative Train, A Europe Fit for the Digital Age nd) https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-ai-liability-directive consulté le 15 Février 2025.

European Parliamentary Research Service, ‘Artificial Intelligence Act’ (EPRS Briefing PE 733.544, March 2022) https://www.europarl.europa.eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN.pdf consulté le 15 Février 2025.

Finocchiaro G, ‘The regulation of artificial intelligence’ (2024) AI & Society 1961 https://cris.unibo.it/retrieve/5eb315d2-5f34-47fe-9394-5fda4980ee5e/The%20regulation%20of%20artificial%20intelligence.pdf consulté le 15 Février 2025.

Floridi L, Holweg M, Taddeo M, Amaya J, Mökander J and Wen Y, ‘capAI – A Procedure for Conducting Conformity Assessment of AI Systems in Line with the EU Artificial Intelligence Act’ (23 March 2022) https://ssrn.com/abstract=4064091 consulté le 15 Février 2025.

Fosch Villaronga E, Kieseberg P and Li T, ‘Humans forget, machines remember: artificial intelligence and the right to be forgotten’ (2018) Computer Law & Security Review 304 https://scholarship.law.bu.edu/faculty_scholarship/817/ consulté le 15 Février 2025.

Fragale M and Grilli V, ‘Deepfake, deep trouble: the European AI Act and the fight against AI-generated misinformation’ (2024) Columbia Journal of European Law (preliminary reference) https://cjel.law.columbia.edu/preliminary-reference/2024/deepfake-deep-trouble-the-european-ai-act-and-the-fight-against-ai-generated-misinformation/ consulté le 15 Février 2025.

Holistic AI, ‘Regulating AI: The Horizontal vs Vertical Approach’ (nd) https://www.holisticai.com/blog/regulating-ai-the-horizontal-vs-vertical-approach consulté le 15 Février 2025.

Holzinger A, Saranti A, Molnar C, Biecek P and Samek W, ‘Explainable AI methods – a brief overview’ in International Workshop on Extending Explainable AI beyond Deep Models and Classifiers (Cham, Springer 2020) 13 https://link.springer.com/chapter/10.1007/978-3-031-04083-2_2 consulté le 15 Février 2025.

Hildebrandt M, ‘Legal personhood for AI?’ in Law for Computer Scientists (2019) https://www.researchgate.net/publication/343161002_Legal_Personhood_for_AI consulté le 15 Février 2025.

Jakee K and Fink D, ‘Microtargeting voters in the 2016 US election: was Cambridge Analytica really different?’ (SSRN, 1 May 2024) https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4843786 consulté le 15 Février 2025.

Lehmann J, Breuker J and Brouwer B, ‘Causation in AI and law’ (2004) Artificial Intelligence and Law 279 https://www.researchgate.net/publication/220539291_Causation_in_AI_and_Law consulté le 15 Février 2025.

Levallois-Barth C and Keller J, ‘Les conditions et limites d’un droit à l’altération des données personnelles par les personnes concernées’ (2024) 18 tic & Société 57 https://journals.openedition.org/ticetsociete/8912 consulté le 15 Février 2025.

Levantino FP, ‘Generative and AI-Powered Oracles: “What Will They Say about You?”’ (2023) 51 Computer Law & Security Review 105898 https://doi.org/10.1016/j.clsr.2023.105898 consulté le 15 Février 2025.

Latham & Watkins LLP, ‘New EU Product Liability Directive Comes Into Force’ (nd) https://www.lw.com/en/offices/admin/upload/SiteAttachments/New-EU-Product-Liability-Directive-Comes-Into-Force.pdf consulté le 15 Février 2025.

Majumdar P, Ronald B and Rautdesai R, ‘Artificial intelligence, legal personhood and determination of criminal liability’ (2019) 6 Journal of Critical Reviews 323 https://www.researchgate.net/publication/383994634_Artificial_Intelligence_Legal_Personhood_and_Determination_of_Criminal_Liability consulté le 15 Février 2025.

Marshall B, ‘No legal personhood for AI’ (2023) Patterns https://doi.org/10.1016/j.patter.2023.100861 consulté le 15 Février 2025.

Mishchenko K, ‘Risk Classification of AI Systems: A Review and Algorithm Proposal within the Framework of the EU AI Act’ (2025) https://www.diva-portal.org/smash/get/diva2:1946335/FULLTEXT02.pdf#page=15.10 consulté le 15 Février 2025.

Rangone N and Megale L, ‘Risks without rights: the EU AI Act’s approach to AI in law and rulemaking’ (nd) European Journal of Risk Regulation https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/risks-without-rights-the-eu-ai-acts-approach-to-ai-in-law-and-rulemaking/3AD4822C291C6591BAFD26524CD44C12 consulté le 15 Février 2025.

Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) [2024] OJ L1689/1 annex III https://artificialintelligenceact.eu/annex/3/ consulté le 15 Février 2025.

Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) [2024] OJ L1689/1 annex I https://artificialintelligenceact.eu/annex/1/ consulté le 15 Février 2025.

Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) [2024] OJ L1689/1 art 7 https://artificialintelligenceact.eu/article/7/ consulté le 15 Février 2025.

Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) [2024] OJ L1689/1 recital 22 https://artificialintelligenceact.eu/fr/recital/22/ consulté le 15 Février 2025.

Sheldon R, ‘Floating-point operations per second (FLOPS)’ (TechTarget, August 2023) https://www.techtarget.com/whatis/definition/FLOPS-floating-point-operations-per-second consulté le 15 Février 2025.

Shanahan M, ‘Talking about large language models’ (2024) 67 Communications of the ACM 68 https://dl.acm.org/doi/pdf/10.1145/3624724 consulté le 15 Février 2025.

Simmler M and Markwalder N, ‘Guilty robots? Rethinking the nature of culpability and legal personhood in an age of artificial intelligence’ (2018) Criminal Law Forum https://doi.org/10.1007/s10609-018-9360-0 consulté le 15 Février 2025.

Madiega T and Van De Pol AL, ‘Artificial intelligence act and regulatory sandboxes’ (European Parliamentary Research Service, 2022) 6 https://www.europarl.europa.eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN.pdf consulté le 15 Février 2025.

Thelisson E and Verma H, ‘Conformity assessment under the EU AI Act: general approach’ (2024) AI & Ethics 113 https://pure.tudelft.nl/ws/portalfiles/portal/186508857/s43681-023-00402-5.pdf consulté le 15 Février 2025.

Vuarin L and Steyer V, ‘Le principe d’explicabilité de l’IA et son application dans les organisations’ (2023) 240 Réseaux 179 https://doi.org/10.3917/res.240.0179 consulté le 15 Février 2025.

Wang X and Wu Y C, ‘Balancing innovation and regulation in the age of generative artificial intelligence’ (2024) 14 Journal of Information Policy https://scholarlypublishingcollective.org/psup/information-policy/article/doi/10.5325/jinfopoli.14.2024.0012/388980/Balancing-Innovation-and-Regulation-in-the-Age-of consulté le 15 Février 2025.

Proposal for a Directive of the European Parliament and of the Council on liability for defective products COM(2022) 495 final https://eur-lex.europa.eu/eli/dir/2022/495/oj consulté le 15 Février 2025.

  1. La réglementation horizontale englobe toutes les applications de l’IA dans tous les secteurs, tandis que la réglementation verticale est limitée à une application ou un secteur spécifique de l’IA. Holistic AI, ‘Regulating AI: The Horizontal vs Vertical Approach’ (Holistic AI nd) https://www.holisticai.com/blog/regulating-ai-the-horizontal-vs-vertical-approach consulté le 15 Février 2025

  2. Eva Thelisson et Himanshu Verma, ‘Conformity assessment under the EU AI Act: general approach’ (2024) AI & Ethics 113 https://pure.tudelft.nl/ws/portalfiles/portal/186508857/s43681-023-00402-5.pdf consulté le 15 février 2025

  3. “Floating-point operations per second (FLOPS) ou Les opérations en virgule flottante par seconde (FLOPS) sont une mesure de la performance d’un ordinateur basée sur le nombre de calculs arithmétiques en virgule flottante que le processeur peut effectuer en une seconde.” Robert Sheldon, ‘Floating-point operations per second (FLOPS)’ (TechTarget, août 2023) https://www.techtarget.com/whatis/definition/FLOPS-floating-point-operations-per-second consulté le 15 février 2025

  4. “Le Bureau européen de l’IA soutient le développement et l’utilisation d’une IA digne de confiance, tout en protégeant contre les risques liés à l’IA. Le Bureau de l’IA a été créé au sein de la Commission européenne en tant que centre d’expertise en matière d’IA et constitue le fondement d’un système européen unique de gouvernance de l’IA.” Commission européenne, ‘Bureau européen de l’IA’ (Commission européenne nd) https://digital-strategy.ec.europa.eu/fr/policies/ai-office consulté le 15 février 2025

  5. “Regulatory sandboxes font généralement référence à des outils réglementaires permettant aux entreprises de tester et d’expérimenter de nouveaux produits, services ou modèles économiques innovants sous la supervision d’un régulateur et pour une durée limitée.” T Madiega et AL Van De Pol, ‘Artificial intelligence act and regulatory sandboxes’ (European Parliamentary Research Service, 2022) 6 https://www.europarl.europa.eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN.pdf consulté le 15 février 2025

  6. European Parliamentary Research Service, ‘Artificial Intelligence Act’ (EPRS Briefing PE 733.544, mars 2022) https://www.europarl.europa.eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN.pdf consulté le 15 février 2025

  7. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) [2024] OJ L1689/1 annex III https://artificialintelligenceact.eu/annex/3/ consulté le 15 février 2025

  8. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) [2024] OJ L1689/1 annex I https://artificialintelligenceact.eu/annex/1/ consulté le 15 février 2025

  9. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) [2024] OJ L1689/1 art 7 https://artificialintelligenceact.eu/article/7/ consulté le 15 février 2025

  10. Giusella Finocchiaro, ‘The regulation of artificial intelligence’ (2024) AI & Society 1961 https://cris.unibo.it/retrieve/5eb315d2-5f34-47fe-9394-5fda4980ee5e/The%20regulation%20of%20artificial%20intelligence.pdf consulté le 15 février 2025

  11. Nicoletta Rangone et Luca Megale, ‘Risks without rights: the EU AI Act’s approach to AI in law and rulemaking’ (nd) European Journal of Risk Regulation https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/risks-without-rights-the-eu-ai-acts-approach-to-ai-in-law-and-rulemaking/3AD4822C291C6591BAFD26524CD44C12 consulté le 15 février 2025

  12. Mauro Fragale et Valentina Grilli, ‘Deepfake, deep trouble: the European AI Act and the fight against AI-generated misinformation’ (2024) Columbia Journal of European Law (preliminary reference) https://cjel.law.columbia.edu/preliminary-reference/2024/deepfake-deep-trouble-the-european-ai-act-and-the-fight-against-ai-generated-misinformation/ consulté le 15 février 2025

  13. Ibid.

  14. Article 72 de Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 (Artificial Intelligence Act) [2024] OJ L1689/1 consulté le 15 février 2025

  15. European DIGITAL SME Alliance, ‘DIGITAL SME Position Paper on the Artificial Intelligence Act’ (Position Paper, 2021) https://www.digitalsme.eu/policy/ consulté le 15 février 2025

  16. Giusella Finocchiaro, ‘The regulation of artificial intelligence’ (2024) AI & Society 1961 https://cris.unibo.it/retrieve/5eb315d2-5f34-47fe-9394-5fda4980ee5e/The%20regulation%20of%20artificial%20intelligence.pdf consulté le 15 février 2025

  17. European Parliament, ‘AI Liability Directive’ (Legislative Train, A Europe Fit for the Digital Age nd) https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-ai-liability-directive consulté le 15 février 2025

  18. Proposal for a Directive of the European Parliament and of the Council on liability for defective products COM(2022) 495 final https://eur-lex.europa.eu/eli/dir/2022/495/oj consulté le 15 février 2025

  19. Latham & Watkins LLP, ‘New EU Product Liability Directive Comes Into Force’ (Latham & Watkins LLP nd) https://www.lw.com/en/offices/admin/upload/SiteAttachments/New-EU-Product-Liability-Directive-Comes-Into-Force.pdf consulté le 15 février 2025

  20. B Mueller, ‘How much will the Artificial Intelligence Act cost Europe?’ (Center for Data Innovation, July 2021) https://itif.org/publications/2021/07/26/how-much-will-artificial-intelligence-act-cost-europe/ consulté le 15 février 2025

  21. Giusella Finocchiaro, ‘The regulation of artificial intelligence’ (2024) AI & Society 1961 https://cris.unibo.it/retrieve/5eb315d2-5f34-47fe-9394-5fda4980ee5e/The%20regulation%20of%20artificial%20intelligence.pdf consulté le 15 février 2025

  22. Eduard Fosch Villaronga, Peter Kieseberg et Tiffany Li, ‘Humans forget, machines remember: artificial intelligence and the right to be forgotten’ (2018) Computer Law & Security Review 304 https://scholarship.law.bu.edu/faculty_scholarship/817/ consulté le 15 février 2025

  23. Nicoletta Rangone and Luca Megale, ‘Risks without rights: The EU AI Act’s approach to AI in law and rulemaking’ European Journal of Risk Regulation. https://www.researchgate.net/publication/389830238_Risks_Without_Rights_The_EU_AI_Act’s_Approach_to_AI_in_Law_and_Rule-Making consulté le 15 février 2025

  24. L De Nadal et P Jančárik, ‘Beyond the deepfake hype: AI, democracy, and “the Slovak case”’ (2024) HKS Misinformation Review 5(4) https://misinforeview.hks.harvard.edu/article/beyond-the-deepfake-hype-ai-democracy-and-the-slovak-case/ consulté le 15 février 2025

  25. Keith Jakee et Demi Fink, ‘Microtargeting voters in the 2016 US election: was Cambridge Analytica really different?’ (SSRN, 1 May 2024) https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4843786 consulté le 15 février 2025

  26. Marco Almada, ‘Governing the black box of AI’ (SSRN, 7 November 2023) https://ssrn.com/abstract=4587609 consulté le 15 février 2025

  27. J Lehmann, J Breuker et B Brouwer, ‘Causation in AI and law’ (2004) Artificial Intelligence and Law 279 https://www.researchgate.net/publication/220539291_Causation_in_AI_and_Law consulté le 15 février 2025

  28. Andreas Holzinger, Anna Saranti, Christina Molnar, Przemyslaw Biecek et Wojciech Samek, ‘Explainable AI methods – a brief overview’ in International Workshop on Extending Explainable AI beyond Deep Models and Classifiers (Cham, Springer 2020) 13 https://link.springer.com/chapter/10.1007/978-3-031-04083-2_2 consulté le 15 février 2025

  29. Yavar Bathaee, ‘The artificial intelligence black box and the failure of intent and causation’ (2018) 31(2) Harvard Journal of Law & Technology 889 https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf consulté le 15 février 2025

  30. Ibid.

  31. “LLMs are generative mathematical models of the statistical distribution of tokens in the vast public corpus of human-generated text, where the to- kens in question include words, parts of words, or individual characters— including punctuation marks. They are generative because we can sample from them, which means we can ask them questions. But the questions are of the following, very specific kind: “Here’s a fragment of text. Tell me how this fragment might go on. Ac- cording to your model of the statistics of human language, what words are likely to come next?”” Miles Shanahan, ‘Talking about large language models’ (2024) 67 Communications of the ACM 68 https://dl.acm.org/doi/pdf/10.1145/3624724 consulté le 15 février 2025

  32. La technologie sous-jacente de ChatGPT, un grand modèle de langage (LLM), est entraînée sur de vastes quantités de données, pouvant potentiellement inclure des informations personnelles sensibles.” Xukang Wang et Ying Cheng Wu, ‘Balancing innovation and regulation in the age of generative artificial intelligence’ (2024) 14 Journal of Information Policy https://scholarlypublishingcollective.org/psup/information-policy/article/doi/10.5325/jinfopoli.14.2024.0012/388980/Balancing-Innovation-and-Regulation-in-the-Age-of consulté le 15 février 2025

  33. Eduard Fosch Villaronga, Peter Kieseberg, and Tiffany Li, ‘Humans Forget, Machines Remember: Artificial Intelligence and the Right to Be Forgotten’ (2018) 34 Computer Law & Security Review 304. https://scholarship.law.bu.edu/faculty_scholarship/817/ consulté le 15 février 2025

  34. Francesco Paolo Levantino, ‘Generative and AI-Powered Oracles: “What Will They Say about You?”’ (2023) 51 Computer Law & Security Review 105898 https://doi.org/10.1016/j.clsr.2023.105898 consulté le 15 février 2025

  35. Cheng-chi Chang, ‘When AI remembers too much: reinventing the right to be forgotten for the generative age’ (2024) 19 Washington Journal of Law, Technology & Arts 23 https://digitalcommons.law.uw.edu/wjlta/vol19/iss3/2/ consulté le 15 février 2025

  36. Priyanka Majumdar, Bindu Ronald et Rupal Rautdesai, ‘Artificial intelligence, legal personhood and determination of criminal liability’ (2019) 6 Journal of Critical Reviews 323 https://www.researchgate.net/publication/383994634_Artificial_Intelligence_Legal_Personhood_and_Determination_of_Criminal_Liability consulté le 15 février 2025

  37. Monika Simmler et Nora Markwalder, ‘Guilty robots? Rethinking the nature of culpability and legal personhood in an age of artificial intelligence’ (2018) Criminal Law Forum https://doi.org/10.1007/s10609-018-9360-0 consulté le 15 février 2025

  38. Brandeis Marshall, ‘No legal personhood for AI’ (2023) Patterns https://doi.org/10.1016/j.patter.2023.100861 consulté le 15 février 2025

  39. Mireille Hildebrandt, ‘Legal personhood for AI?’ in Law for Computer Scientists (2019) https://www.researchgate.net/publication/343161002_Legal_Personhood_for_AI consulté le 15 février 2025

  40. L Vuarin et V Steyer, ‘Le principe d’explicabilité de l’IA et son application dans les organisations’ (2023) 240 Réseaux 179 https://doi.org/10.3917/res.240.0179 consulté le 15 février 2025

  41. “Le droit à l’autodétermination informationnelle implique la possibilité, pour la personne concernée, de définir elle-même les informations qu’elle souhaite partager en fonction de différents contextes dans lesquels elle évolue, qu’il s’agisse de contextes familial, professionnel, associatif, et cetera.” C Levallois-Barth et J Keller, ‘Les conditions et limites d’un droit à l’altération des données personnelles par les personnes concernées’ (2024) 18 tic & Société 57 https://journals.openedition.org/ticetsociete/8912 consulté le 15 février 2025

  42. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) [2024] OJ L1689/1 recital 22 https://artificialintelligenceact.eu/fr/recital/22/ consulté le 15 février 2025

  43. European Confederation of Institutes of Internal Auditing (ECIIA), ‘The AI Act: Road to Compliance’ (January 2025) 6 https://docs.ifaci.com/wp-content/uploads/2025/02/The-AI-Act-Road-to-Compliance-Final-1.pdf consulté le 15 février 2025

  44. Mishchenko, Kateryna. ‘Risk Classification of AI Systems: A Review and Algorithm Proposal within the Framework of the EU AI Act.’ (2025). https://www.diva-portal.org/smash/get/diva2:1946335/FULLTEXT02.pdf#page=15.10 consulté le 15 février 2025

  45. ​​Floridi, Luciano and Holweg, Matthias and Taddeo, Mariarosaria and Amaya, Javier and Mökander, Jakob and Wen, Yuni, ‘capAI – A Procedure for Conducting Conformity Assessment of AI Systems in Line with the EU Artificial Intelligence Act’ (March 23, 2022). https://ssrn.com/abstract=4064091 or http://dx.doi.org/10.2139/ssrn.4064091 consulté le 15 février 2025

  46. European Commission, ‘New Rules for Artificial Intelligence – Questions and Answers’ (press release QANDA/21/1683, 21 April 2021, updated 12 December 2023) https://ec.europa.eu/commission/presscorner/detail/en/qanda_21_1683 consulté le 15 février 2025

  47. European Confederation of Institutes of Internal Auditing (ECIIA), ‘The AI Act: Road to Compliance’ (January 2025) 6 https://docs.ifaci.com/wp-content/uploads/2025/02/The-AI-Act-Road-to-Compliance-Final-1.pdf consulté le 15 février 2025

مقالات ذات صلة

زر الذهاب إلى الأعلى