Le 30 janvier 2025, Sihem AYADI, CEO de Juridy, a participé à la conférence organisée par DÉCIDEURS JURIDIQUES au SOMMET DU DROIT, au Pavillon d’Armenonville.
Intitulée Réguler l’IA en entreprise : que disent les normes volontaires ?, cette conférence a réuni des experts de divers secteurs :
-
Luke O’Leary Head of Legal Qonto
-
Laetitia Guibout; Directrice juridique et conformité, SNCF Gares & Connexions
-
Karl Hennessee, SVP Litigation & Investigations, Airbus SAS
L’objectif était déchanger sur les meilleurs pratiques, nottament, des codes de conduite, des chartes éthiques et des enjeux de gouvernance de la donnée.
Sihem AYADI a notamment mis l’accent sur des outils stratégiques permettant de structurer des projets responsables et de renforcer la confiance, dans un contexte où l’AI Act et d’autres régulations se profilent.
« Pourquoi parler de normes ? Parce qu’elles permettent de concilier innovation et éthique, créativité et conformité. » a-t-elle déclaré.
Réguler l’IA en entreprise : que disent les normes volontaires ?
L’intelligence artificielle (IA) transforme les entreprises à un rythme rapide. Cependant, cette évolution soulève de nombreuses questions éthiques et juridiques.
Les normes volontaires, bien qu’elles ne soient pas juridiquement contraignantes, jouent un rôle majeur dans la structuration de l’usage responsable de l’IA.
Que disent ces normes et comment peuvent-elles aider les entreprises à mieux encadrer leurs pratiques ?
L’importance des normes volontaires pour l’IA en entreprise
Les normes volontaires servent de cadre de référence pour les entreprises souhaitant s’assurer que leurs usages de l’IA respectent des principes éthiques et techniques.
Contrairement aux régulations légales, elles reposent sur une adhésion volontaire, souvent encouragée par des organisations sectorielles ou des gouvernements.
Pourquoi les entreprises adoptent-elles ces normes ?
- Anticipation des obligations légales : Ces normes préparent les entreprises à éventuelles régulations futures.
- Renforcer la confiance : Les parties prenantes (clients, partenaires) accordent une valeur croissante à la transparence et à l’éthique.
- Promouvoir l’innovation responsable : Un cadre normatif clair peut accélérer l’adoption de l’IA tout en réduisant les risques de dérives.
Un enjeu global et sectoriel
Des organisations internationales, comme l’ISO (International Organization for Standardization), ont publié des recommandations clés pour la gestion responsable de l’IA.
En parallèle, certains secteurs, tels que la santé, la finance, et notamment les legaltech françaises, ont développé leurs propres standards, adaptés à leurs contraintes spécifiques.
Par exemple, le Code de conduite Legaltech et IA générative de France Digitale vise à encadrer les pratiques des entreprises innovantes dans l’usage de l’intelligence artificielle.
Juridy a intégré ce groupe afin de promouvoir des pratiques éthiques et responsables.
Ce code propose des lignes directrices pour assurer une gouvernance claire et protéger les utilisateurs finaux des risques liés à l’IA générative (Source : France Digitale).
Principales normes volontaires applicables à l’IA
De nombreuses normes volontaires visent à guider les entreprises dans l’utilisation éthique et efficace de l’IA. Voici un panorama des plus influentes :
1. Normes ISO
L’ISO propose un ensemble de standards pour l’IA, parmi lesquels :
- ISO/IEC 38507 : Consacrée à la gouvernance de l’IA, elle fournit des lignes directrices sur la responsabilité des dirigeants concernant les systèmes intelligents.
- ISO/IEC TR 24028 : Porte sur l’évaluation de la fiabilité et des biais dans l’IA.
- ISO/IEC 23894 (en cours de développement) : Vise à standardiser les approches d’éthique en intelligence artificielle.
2. Les recommandations de l’OCDE
L’Organisation de coopération et de développement économiques a publié des principes directeurs en 2019, adoptés par 42 pays. Ces recommandations reposent sur cinq piliers :
- Transparence.
- Robustesse technique.
- Respect des droits de l’Homme.
- Croissance inclusive.
- Rendement durable.
3. Normes sectorielles
Dans certains domaines, des normes plus spécifiques se sont développées. Par exemple :
- Santé : Le Conseil de l’Europe encourage des standards éthiques pour les dispositifs médicaux basés sur l’IA.
- Finance : Les institutions financières suivent des recommandations comme celles émises par la BIS (Bank for International Settlements).
4. Le plan d’action AFNOR
L’AFNOR a publié un plan d’action ambitieux pour accompagner les entreprises dans leur gestion de l’IA.
Ce plan, disponible sur leur site, présente des outils pratiques pour mettre en place une IA éthique et fiable. Parmi les axes majeurs :
- Formation et sensibilisation : Proposer des modules de formation adaptés aux entreprises, pour mieux comprendre les enjeux et intégrer les bonnes pratiques.
- Mise en place de référentiels : Fournir des références claires pour développer des systèmes conformes aux standards internationaux.
- Accompagnement personnalisé : Offrir un suivi aux entreprises, notamment les PME, pour les aider à naviguer dans l’écosystème complexe de l’IA.
5. Certification et qualité
Une initiative récente de l’AFNOR prévoit la création d’une norme et d’une certification qualité pour les systèmes d’IA. Cette certification vise à :
- Garantir une transparence totale sur les processus de développement et d’utilisation de l’IA.
- Rassurer les utilisateurs quant à la fiabilité et la sécurité des systèmes.
- Mettre en avant les entreprises responsables, conformes aux meilleures pratiques établies par cette norme (Source : AFNOR).
6. L’AI Act et ses implications
L’Union européenne a introduit l’AI Act, une réglementation ambitieuse visant à encadrer l’utilisation de l’IA en fonction des risques qu’elle présente (Source : AI Act).
Ce texte propose une classification des systèmes d’IA selon leur niveau de risque :
- Risque inacceptable : Certains systèmes, tels que ceux exploitant des vulnérabilités humaines, sont interdits.
- Risque élevé : Les IA utilisées dans des domaines critiques (santé, justice, recrutement) doivent respecter des obligations strictes de conformité.
- Risque limité : Des obligations de transparence sont imposées pour les systèmes comme les chatbots.
L’AI Act complète les normes volontaires en instaurant un cadre légal harmonisé à l’échelle européenne, visant à protéger les citoyens tout en stimulant l’innovation.
Les normes volontaires et le cadre legal de l’IA
7. Les enseignements de la recherche scientifique
Selon un rapport disponible sur HAL (Source : HAL), la gouvernance de l’IA doit inclure des processus collaboratifs impliquant chercheurs, entreprises et régulateurs. Cette approche :
- Renforce la légitimité des normes en associant des parties prenantes variées.
- Favorise l’adaptabilité : Les normes doivent évoluer pour s’adapter aux avancées technologiques.
- Encourage une éthique partagée : En mettant en avant des principes communs, comme la justice algorithmique et la protection des droits fondamentaux.
Les études mettent également en évidence l’importance de tester les systèmes d’IA dans des environnements contrôlés avant leur déploiement à grande échelle.
8. L’équilibre entre régulation et innovation
Selon l’article de Maddyness (Source : Maddyness), une régulation bien conçue de l’IA ne doit pas être perçue comme un frein à l’innovation, mais comme une opportunité de renforcer la compétitivité des entreprises. Elle favorise :
- La confiance des utilisateurs : En instaurant des standards clairs et éthiques.
- Une concurrence loyale : En réduisant les abus ou les pratiques risquées.
- Un développement durable de l’IA : En s’assurant que les impacts sociaux et économiques soient pris en compte.
Limites des normes volontaires
Malgré leur utilité, les normes volontaires présentent certaines limites :
- Absence de sanctions : Leur nature non contraignante les rend dépendantes de la bonne volonté des entreprises.
- Hétérogénéité : Les entreprises peuvent être confrontées à un empilement de normes, parfois contradictoires.
- Adhésion variable : Les PME et startups peuvent avoir des difficultés à s’y conformer en raison de coûts ou de ressources limitées.
Vers une complémentarité entre normes et régulations
Pour maximiser leur impact, les normes volontaires doivent être complémentaires des régulations juridiques.
L’Union européenne a adopté le Règlement (UE) 2024/1689, connu sous le nom d’AI Act, qui est entré en vigueur le 1ᵉʳ août 2024 (Source :Artificial Intelligence Act).
Ce règlement établit un cadre juridique harmonisé pour l’intelligence artificielle au sein de l’UE, avec des exigences qui s’appliqueront progressivement sur une période de 6 à 36 mois, selon le type de système d’IA concerné.
Le rôle des entreprises dans ce contexte
Les entreprises doivent adopter une approche proactive pour se conformer à ces nouvelles régulations :
- Cartographier les normes pertinentes : Identifier les normes harmonisées et les spécifications communes applicables à leurs systèmes d’IA, conformément à l’article 40 de l’AI Act.
- Intégrer ces standards dans leurs processus internes : Adapter leurs systèmes de gestion de la qualité et de gestion des risques pour répondre aux exigences du règlement.
- Former leurs équipes sur les enjeux éthiques et techniques : Sensibiliser et former le personnel aux nouvelles obligations légales et aux bonnes pratiques en matière d’IA.
L’exemple de LawDesigner
Juridy propose une plateforme innovante qui intègre des modèles de documents en legal design pour simplifier et rendre accessibles les normes complexes comme l’AI Act ou les recommandations de la CNIL pour l’IA.
En outre, elle offre des modèles personnalisables de chartes éthiques et de codes de conduite adaptés à chaque organisation. Ces outils visent à :
- Sensibiliser tous les salariés aux bonnes pratiques de régulation de l’IA.
- Favoriser une compréhension claire des obligations légales et éthiques.
- Simplifier la mise en conformité grâce à des supports pédagogiques adaptés aux besoins des entreprises.
Conclusion
Les normes volontaires offrent un cadre précieux pour réguler l’usage de l’IA en entreprise. Bien qu’imparfaites, elles complémentent les régulations et favorisent une adoption plus responsable de cette technologie.
En s’appuyant sur ces standards, les entreprises peuvent non seulement anticiper les évolutions législatives, mais aussi renforcer leur compétitivité et leur crédibilité.
Dans ce contexte, la gouvernance des données joue un rôle clé. La création d’espaces de données juridiques, tels que le Legal Data Space, permet de structurer le partage et l’exploitation des données dans un cadre sécurisé et conforme.
Ces initiatives encouragent les collaborations intersectorielles tout en garantissant le respect des normes éthiques et réglementaires.
Pour en savoir plus sur ce sujet, nous vous invitons également à écouter le podcast Zoom sur le Legal Data Space avec Martin Bussy, Cofondateur, Legal-X proposé par Lex Inside (Source : Ausha).
Ce podcast explore en détail les opportunités et défis liés à la création d’un espace juridique commun pour les données, renforçant ainsi les pratiques éthiques et collaboratives dans le secteur juridique.
Legal Data Space