Guide de l’AI Act
Loi sur l'IA : se conformer au nouveau règlement sur l'intelligence artificielle et accompagner le développement de son organisation
Réduction de 100 € HT pour toute inscription reçue avant le 15/04/2024 (EARLY100)
Découvrez le nouveau règlement européen encadrant l'intelligence artificielle, un tournant majeur pour les acteurs de l’Union européenne. L’« AI Act » vise à instaurer un cadre clair et éthique pour la conception, la fourniture et l’usage de systèmes d’IA, tout en protégeant les droits individuels et en favorisant l'innovation.
Cette réglementation instaurée pour l'UE impacte directement l’ensemble des individus des organisations. Les CEO, les cadres dirigeants, les responsables des technologies de l'information, les juristes et responsables de la conformité sont particulièrement concernés. La conférence s'adresse à toute ces personnes concernées par les contraintes de conformité en matière d'IA, souhaitant comprendre les implications de ce nouveau règlement et les meilleures pratiques pour s'y conformer.
En intégrant les enjeux éthiques, juridiques et de conformité qu’apportent l'IA, les organisations pourront relever les défis de leur transformation digitale tout en saisissant les opportunités d'avancée technologique qu'offre cette révolution technologique.
Plongez-vous dans les enjeux essentiels de l'intelligence artificielle et préparez-vous à naviguer dans un environnement réglementaire complexe mais porteur d'opportunités. Explorez les différentes perspectives de l'AI Act, présentées lors de cette conférence par les meilleurs experts du sujet pour adopter une approche proactive et informée face à la réglementation de l'IA, notamment suite à l'arrivée de ChatGPT.
Nous vous attendons nombreux pour cette journée d’explications et d'échanges sur les aspects pratiques, juridiques et stratégiques passionnants sur l'IA, et les développements et bouleversements sociétaux qu’elle génère.
Conférence présidée par :
Yves Poullet
Professeur émérite à la faculté de droit et recteur honoraire de l’université de Namur
Membre de l’académie royale de Belgique
Membre de la chambre juridictionnelle de l’APD
Membre de la CCF d’INTERPOL
Vice-président du programme IFAP de l’UNESCO en charge des aspects légaux et éthiques
- Développer des stratégies en fonction des nouvelles obligations en ce qui concerne l’utilisation des données et des systèmes recourant à l’intelligence artificielle
- Adapter la gouvernance de son organisation en prenant en compte les différents enjeux que génère le recours à l’intelligence artificielle
- Evaluer les risques générés par l'IA ainsi que les risques liés aux biais au sein des algorithmes
- Examiner comment mettre en œuvre les nouvelles obligations tout en permettant à son organisation de se développer
- Préparer son organisation à l'entrée en vigueur du règlement européen régentant l'intelligence artificielle
- Se familiariser avec l'IA pour rester compétitif et innovant dans un environnement en évolution constante
Agréments
- L’organisateur est accrédité par la FSMA - N° d’accréditation : 500036A et 50036B - 1 point par heure
- Abilways est également reconnu par la FSMA dans le cadre de la formation permanente des compliance officers : 1 point par heure
- OBFG (Ordre des Barreaux Francophones & Germanophone) sur demande
- IJE (Institut des juristes d'entreprise) : sur demande
- Besoin d’une autre accréditation ? N’hésitez pas à nous en faire part en amont de la conférence
- CEO, Administrateurs, présidents, directeurs généraux et dirigeants
- Chiefs Compliance Officers (CCO), Heads of compliance, Compliance managers, Compliance Officers
- Responsables des technologies de l'information (IT), déployeurs de solutions d'IA, data scientists et spécialistes en intelligence artificielle
- Heads of Strategy & Innovation
- Responsables des données (Chiefs Data Officer, Data Analysts)
- CRO et département risks
- Responsables des départements juridiques, Legal counsels, Conseillers juridique, juristes, personnel juridique
- Audit et contrôle interne
- Avocats
- Consultants
- Responsables dématérialisation, digital Transformation Managers, digital product managers, consultants techniques
- Chief Information Officers, Architectes informatiques, directeurs des systèmes informatique et/ou d'information, responsables de la sécurité des systèmes d'information, chefs de projet IT, responsables des études informatiques
- Délégués à la protection des données (DPO)
- Responsables marketing et commerciaux
- Directeurs et gestionnaires des ressources humaines (RH)
- Directeurs marketing
- Toute personne souhaitant comprendre les implications de ce nouveau règlement sur son travail
Une vue sur les innovations et stratégies à partir des données et de l'IA
Patrice Latinne
Partner | Data & Artificial Intelligence, EY
Lead Data & AI consulting services for EY EMEIA FSO Belgium
Lead Artificial Intelligence for Financial Services in EMEIA
Lecturer, Business Analytics, Machine Learning & AI, Solvay Brussels School of Economics and Management (SBS-EM) – ULB
AI4Belgium
De la classification et la gestion des risques des systèmes d’IA aux responsabilités et obligations des fabricants, fournisseurs, utilisateurs et parties prenantes
- Comment comprendre les règles permettant de classer le niveau de risque des systèmes d’IA ?
- Quels systèmes de gestion des risques mettre en place ?
- Comment déterminer les mesures de gestion des risques les plus adaptées ?
- De quelle manière faut-il garantir l’exactitude, la robustesse et la cybersécurité des applications d’intelligence artificielle ?
- Quelles sont les obligations incombant aux fournisseurs de systèmes d’IA à haut risque ?
- Comment doivent-ils mettre en place la gestion et le suivi des systèmes d’IA ?
- Qu’est-ce qui doit être documenté ?
- Que faut-il faire par rapport aux journaux générés automatiquement ?
- Quelles sont les particularités pour les organismes de crédit ?
Elisabeth Dehareng
Partner focusing on IT, data protection/privacy and IP disputes Baker & McKenzie
De la compliance aux sanctions en passant par le contrôle des applications, la gestion des risques et de l’ineffectivité
- Quelles sont les mesures correctives appropriées qui peuvent ou doivent être prises ?
- Procédure de sauvegarde de l’Union
- Quelles sont les procédures vis-à-vis d’un système d’IA conforme mais qui présente un risque ?
- Modus operandi des inspections, investigations et audits
- Quelles sont les sanctions qui sont prévues ?
- Comment mettre en place un programme de compliance et répondre aux attentes des régulateurs ?
Anne-Gabrielle Haie
AI, Data & Digital Partner, Steptoe
Des Data Protection Impact Assessments aux AI Impact Assessments pour limiter les risques et garantir le respect des droits individuels
- Quels critères utiliser pour un DPIA ? Comment évaluer les impacts ? Comment analyser les risques ? Comment les atténuer ?
- Quels sont les objectifs visés par un AIIA ? Quel est le champ d’application de l’AI IA? Quel sera le contexte d’utilisation de l’IA, y compris les processus concernés, les utilisateurs impactés, et les limites technologiques et organisationnelles ?
- Comment organiser la collecte, le stockage et l'utilisation des données, les corriger/mettre à jour ?
- Quelle base légale en cas de traitements de données personnelles ?
- Comment évaluer la proportionnalité de l'outil d'IA ?
- Comment assurer la transparence et l'explicabilité de l'IA ?
- Comment exiger une intervention humaine ?
Alain Strowel
Senior Partner Pierstone
Professeur Université catholique de Louvain (UCL et Saint-Louis, Brussels) : Droits intellectuels et nouvelles technologies, Digital Law, Data Law and Innovation, Droit de l’information et de la communication, Droit et économie des biens informationnels, Prof. invité Université d’Alicante (LLM in IP and IT law), Munich Intellectual Property Law Center
&
Ophélie Snoy
Managing Associate PIERSTONE
Focusing on privacy, data protection and AI law (CIPP/E)
Member of International Association of Privacy Professionals (IAPP)
Member of AFCDP (DPO French Association)
Pouvoirs, fonctionnement et gouvernance des organismes européens et nationaux
- Qui seront les autorités notifiantes, l’organisme national d’accréditation et les organismes d’évaluation de la conformité ?
- Filiales et sous-traitants des organismes notifiés
- Comment la coordination et la coopération entre organismes notifiés va-t-elle se construire ?
- Quels seront la composition, la mission, la structure, les tâches et le fonctionnement du Comité européen de l’intelligence artificielle
Charles-Albert Helleputte
Partner, Squire Patton Boggs
Legal Expert at ENISA, the European Union Cybersecurity Agency
European Advisory Board Member, International Association of Privacy Professionals (IAPP)
Lecturer, UCLouvain & Université Saint Louis (Law & Tech Governance)
Founding member of DRAILS (Data, Robotics, Artificial Intelligence, Law and Society)
Vision, prospective et lignes directrices à propos de l’IA au sein du secteur public belge
- Aperçu de l’écosystème belge et des enjeux actuels en matière d’IA
- Quel usage allez-vous pouvoir faire de l’AI Ethics Assessment Tool ?
- Comment intégrer la charte pour l’utilisation responsable de l’IA au sein des services publics ?
- Quelles sont les possibilités qu’apportent l’IA pour ces porchaines années ? Applications, tâches
- Boulversements sociétaux à venir
- Comment se préparer au futur du marché de l’emploi et de l’éducation ?
Nathanael Ackerman
Digital Mind for Belgium / Digital Champion for Wallonia
Chief Evangelist Officer, AI4Belgium
Head of AI - Blockchain & Digital Minds, FPS Policy & Support (BOSA SPF Stratégie et Appui)
Expert & Belgian Federal Government Delegate, GPAI
Member of the Belgian Delegation to the AI Ethics Committee, UNESCO
Member of the OECD Network of Experts on AI (ONE AI), OECD.AI
Qu’est-ce que l’AI Act (loi européenne sur l'IA) ?
L’AI Act, également appelé IA Act ou loi sur l’IA est un règlement européen sur l'intelligence artificielle. Il s'agit de la première réglementation qui établit des règles et des normes pour l'utilisation de systèmes recourant à l'intelligence artificielle dans l'UE.
Cette législation sur l'intelligence artificielle vise à assurer un équilibre entre la promotion de l'innovation et la protection des droits et des intérêts des citoyens européens face aux défis posés par l'intelligence artificielle.
L'AI Act classe les systèmes d'IA en quatre catégories de risque, en fonction de leur impact sur les droits fondamentaux et la sécurité des personnes dans l'Union européenne. Les systèmes d’IA qui portent atteinte aux valeurs et aux droits fondamentaux de l'Union européenne (UE), tels que la dignité humaine, la démocratie ou l'État de droit, sont considérés comme inacceptables et sont interdits. Parmi ceux-ci figurent notamment les systèmes d'identification biométrique sous certaines conditions.
Les types d'IA qui sont utilisés dans des secteurs sensibles comme la santé, l'éducation, le recrutement, la gestion d'infrastructures critiques, le maintien de l'ordre ou de la justice sont considérés comme présentant un risque élevé. Ils sont soumis à des exigences strictes en matière de qualité, de transparence, de supervision humaine et de sécurité. Ils doivent désormais être évalués avant leur mise sur le marché, ainsi qu'au cours de leur cycle de vie.
Les systèmes d'IA générative à usage général (tel que ChatGPT), doivent suivre un processus approfondi d'évaluation. Les sociétés et organisations vont devoir rapporter tout incident grave les concernant à la Commission européenne.
Les systèmes d'IA qui ne présentent pas un risque élevé pour les droits fondamentaux et la sureté des personnes sont considérés comme limités ou minimaux. Les fournisseurs de ces systèmes doivent uniquement respecter des obligations de transparence pour informer les utilisateurs qu'ils interagissent avec un système d'IA et leur permettre d'exercer leurs choix.
Pourquoi réglementer l'IA à travers l'AI Act ?
Le règlement de l’UE établit des règles harmonisées pour l'IA en Europe en réponse à la demande du Parlement européen et du Conseil européen. L'IA est considérée comme un outil puissant pour améliorer les processus et les services des firmes et organisations mais elle peut également poser des risques pour les personnes et la société.
L'objectif poursuivi par l'AI Act est de faciliter le développement d'un marché unique pour des applications d'IA légales, sûres et dignes de confiance. Créer un écosystème d’IA de confiance nécessitait un cadre juridique.
La réglementation établit des règles pour le développement, la mise sur le marché et l'utilisation de systèmes d'IA, en prenant en compte les risques et les problèmes liés à l'IA.
Les types d'IA doivent être sûrs et respecter les valeurs de l'Union et la législation en vigueur en matière de droits fondamentaux.
La facilitation des investissements et l'innovation dans le domaine de l'IA sont promus par ce nouveau règlement qui tend à apporter une sécurité juridique et à renforcer la gouvernance et les exigences de sécurité applicables aux systèmes d'IA.
La proposition d'IA Act établit une approche réglementaire horizontale équilibrée et proportionnée qui se limite aux exigences minimales nécessaires pour répondre aux risques et aux problèmes liés à l'IA. Elle définit une méthode solide d'évaluation du risque pour recenser les systèmes d'IA à haut risque, qui devront satisfaire à un ensemble d'exigences obligatoires horizontales.
AI Act : En quoi les organisations doivent s'intéresser sans plus attendre à la nouvelle législation sur l'IA ?
Les entreprises et organisations belges doivent s'intéresser à la nouvelle législation sur l'intelligence artificielle (IA) pour plusieurs raisons. D'abord, il est important d'adapter leurs pratiques à la nouvelle réglementation, en mettant en place des processus pour s'y conformer. Le législation sur l'intelligence artificielle va introduire des obligations spécifiques pour les organisations qui utilisent ces technologies, et il est donc essentiel de comprendre les nouvelles exigences.
Ensuite, comme stipulé par l'AI Act, il est crucial de gérer les risques liés à l'IA dans l'UE. Les entreprises qui utilisent l'IA peuvent être exposées à des problèmes de sécurité, de confidentialité ou de propriété intellectuelle, et il est donc important de mettre en application des mesures pour protéger les intérêts des entreprises. Le règlement de l'IA Act va instaurer des normes pour gérer ces risques et protéger la data et la confidentialité.
Toujours d'après l'AI Act, les entreprises qui utilisent l'IA doivent également assurer leurs clients que ces technologies sont employées de manière éthique. Le règlement sur l'IA s’inscrit dans la continuité du RGPD et aide à mettre en place des normes pour protéger les données et la confidentialité, ce qui peut aider à conserver la confiance de leurs clients. En sus des compliance officers puis des data privacy officers, les sociétés vont désormais devoir faire une place pour les AI ethics officers.
Ce statut sur l'IA va en outre encourager l'avancée technologique et le développement de l'IA, en garantissant que les entreprises peuvent travailler dans un environnement réglementaire stable et prévisible.
Enfin, il est important pour les entreprises et organisations de l'Union européenne de se conformer au règlement sur l'IA pour éviter évidemment les sanctions et risques réputationnels.