« Le déploiement de l’IA Act devrait se faire sans fracas si les entreprises sont bien préparées. » - Ekimetrics
Ekimetrics: big data specialists

Data science for business

Contact
Retour aux articles

« Le déploiement de l’IA Act devrait se faire sans fracas si les entreprises sont bien préparées. »

« Le déploiement de l’IA Act devrait se faire sans fracas si les entreprises sont bien préparées. »

Le 13 mars 2024, le Parlement européen a adopté l’IA Act, marquant un tournant décisif dans la manière dont l’Europe envisage l’avenir de l’intelligence artificielle (IA). Conçue principalement pour sauvegarder les droits et la sécurité des individus, cette loi soulève d'importantes questions quant à son impact sur les entreprises. Annabelle Blangero, Lead « IA Responsable » chez Ekimetrics apporte son éclairage.

Auteur : Annabelle Blangero, Lead "IA Responsable"

Date : 3 Avril 2024

Catégorie : Actualités

Quels sont les impacts potentiels de l’intelligence artificielle sur le paysage des entreprises aujourd’hui ? L’impact de l’IA Act sera-t-il positif ou préjudiciable pour le business ?


Annabelle Blangero
: L’Europe a un coup à jouer sur l’IA de confiance, là où les grands acteurs technologiques américains et chinois qui, souvent, ne placent pas l’éthique au cœur de leurs préoccupations. Cette réglementation forge un cadre propice au développement d’une IA plus responsable et je suis convaincue de la nécessité d’établir des garde-fous pour prévenir les dérives et les conséquences négatives de l’IA sur la société.

Si l’intelligence artificielle est une technologie très puissante, elle comporte néanmoins de nombreux risques pour les individus liés à sa complexité, sa nature probabiliste et sa propension aux biais. Ces risques peuvent être de différentes natures : techniques (accélération des biais humains, effet black box, hallucinations du modèle…), sociétaux (avec des dérives discriminatoires par exemple) ou démocratiques (avec la multiplication des fake news notamment).

Pour la majorité des entreprises, l’impact le plus significatif se résumera à une mise en conformité avec de nouvelles normes de transparence des systèmes d’IA. Les nouvelles exigences de sécurité sont loin d’être superflues : elles sont même fondamentales pour contrer les risques précédemment mentionnés.

 

Toutes les entreprises doivent-elles être préoccupées par cette loi ?


A.B.
: II est important de noter que toutes les entreprises qui opèrent en Europe sont concernées par cette loi, y compris celles basées hors de l’UE doivent se conformer dès qu’elles interagissent avec le marché européen. La mise en conformité sera progressive, sur une période de deux ans, et s’appliquera industrie par industrie dans chaque pays.

L’IA Act catégorise les applications d’intelligence artificielle selon quatre niveaux de risque : faible, moyen, élevé, et inacceptable. Les cas d’usage à faible risque, comme la prédiction des ventes ou le Marketing Mix Modeling, ont un impact limité sur les individus. Les applications à risque moyen comprennent, par exemple, l’utilisation d’agents conversationnels, de chatbots, ou encore de techniques de segmentation et de lead scoring. Quant aux applications à haut risque, celles qui touchent directement les droits et la sécurité des individus — telles que les systèmes de recrutement, d’évaluation des personnes, d’attribution de droits, dans le domaine juridique, les prêts bancaires ou la médecine — nécessiteront une mise aux normes plus conséquente.

Aujourd’hui, la majorité des entreprises exploitent l’IA pour des applications jugées à faible ou moyen risque, ce qui signifie que les ajustements nécessaires ne seront pas drastiques, ce sera principalement la transparence qui sera exigée dans leur démarche de mise aux normes.

Je ne vois que du positif à venir avec cette loi, elle ne peut que renforcer le contrôle, la transparence, l’interprétabilité des modèles… Elle pourrait également contribuer à une meilleure compréhension et à un renforcement des compétences dans le domaine de l’IA.

 

Quand les entreprises doivent-elles commencer à se préparer pour l’IA Act ?


A.B.
: Dès maintenant ! Le déploiement de l’IA Act devrait se faire sans fracas si les entreprises sont bien préparées et anticipent. Nous pouvons assimiler cette transition à celle vécue en 2016, lors de l’adoption du RGPD1 par le parlement européen.

Les entreprises doivent s’empresser d’instaurer des mécanismes d’évaluation des risques, par exemple, via des questionnaires ou des checklists destinés aux Product Owners. Elles peuvent se préparer en cartographiant précisément l’usage de l’IA en interne pour créer dès aujourd’hui un registre de modèles et systèmes d’IA, au moyen de fiches détaillées (i.e. model cards), facilitera grandement cette mise en conformité. Une gouvernance claire doit également être établie pour délimiter les responsabilités, former des comités, définir des processus, en collaboration étroite avec les départements juridique, IT, et sécurité. La sensibilisation et la formation des équipes sur l’IA sont aussi essentielles pour accompagner la montée en compétence. Choisir un partenaire méthodologique et technologique adéquat est donc primordial pour guider les entreprises à travers ces étapes.

Chez Ekimetrics, comme chez beaucoup d’experts de la data science, nous n’avons pas attendu que l’IA Act soit adoptée par le parlement européen pour accompagner nos clients sur le chemin de l’IA responsable. Nous avons déjà accompagné certains de nos clients dans la mise en place d’une gouvernance de l’IA, des systèmes de model cards et de registres ou encore des analyses de biais et des algorithmes. Nos efforts portent sur le développement d’outils novateurs, tels que des solutions pour évaluer l’impact environnemental et détecter les biais dans les grands modèles de langage (LLM). Nous prônons depuis longtemps l’importance de l’interprétabilité et de l’explicabilité des systèmes d’IA.

Nous sommes convaincus qu’une approche responsable de l’intelligence artificielle ne doit pas être vue comme une contrainte et qu’au contraire, cela peut créer de la valeur et donne aux entreprises un véritable avantage concurrentiel. Cela permet aux entreprises de mieux contrôler leurs systèmes par la transparence et l’interprétabilité, de mieux monitorer la performance, tout en réduisant les coûts de développement et de maintenance, et en minimisant l’impact environnemental. Nous avons établi sept piliers clés pour une IA responsable : Sécurité, Transparence, Interprétabilité, Explicabilité, Vigilance, Robustesse, et Durabilité. Cette base nous a permis de développer des outils novateurs comme le tracker CO2, un script pour semi-automatiser les model cards, et des checklists d’évaluation des risques, établissant des normes avancées en IA responsable.

Nos engagements ont même été reconnus, car l’année dernière nous avons été certifiés LabelIA niveau Avancé, par l’association indépendante Labelia Labs2. Cette certification représente un très haut niveau de maturité dans les pratiques d’IA responsables, évalué à partir de nombreux critères. Forts de cette reconnaissance, avec nos équipes, nous avons consolidé notre expertise et notre vision dans un livre blanc qui vise à être un outil pratique sur l’IA responsable pour les dirigeants d’entreprise, afin de faciliter leur priorisation stratégique. Je vous invite à le télécharger pour savoir par où commencer et comment.

 

Téléchargez le livre blanc (en anglais)

 

1Règlement général sur la protection des données
2Association indépendante qui favorise le développement d’écosystèmes en data science digne de confiance

Toutes nos industries

dernières actualités

Événements

Venez nous écouter au HUBFORUM Paris !

Venez nous écouter au HUBFORUM Paris !
Lire l'article

Contactez-nous !

  • Nous nous engageons à respecter votre vie privée. Ekimetrics utilise les informations que vous nous fournissez pour répondre à votre demande. Pour plus d'informations sur la manière dont vos données sont gérées et sur vos droits, veuillez consulter notre Politique de confidentialité.
  • Ce champ n’est utilisé qu’à des fins de validation et devrait rester inchangé.