Le nouveau règlement UE 2024/1689 du 13 juin 2024 sur l’intelligence artificielle (RIA) a été publié au Journal Officiel de l’Union européenne le 12 juillet 2024. Il entrera en vigueur progressivement à compter du 1er août 2024 et constitue le nouveau cadre juridique pour encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle (IA).
Le nouveau règlement UE 2024/1689 du 13 juin 2024 sur l’intelligence artificielle (RIA) a été publié au Journal Officiel de l’Union européenne le 12 juillet 2024. Il entrera en vigueur progressivement à compter du 1er août 2024 et constitue le nouveau cadre juridique pour encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle (IA).
Le l’intelligence artificielle est un outil logique et automatisé utilisé par une machine qui est en mesure de réaliser des tâches bien définies qui consistent généralement dans la reproduction de comportements humains (tels que le raisonnement, la planification etc.). Elle repose généralement sur un algorithme. Les systèmes d’intelligence artificielle sont des robots qui sont entraînés par l’être humain pendant leur phase de développement, pour ensuite être capables d’effectuer des tâches tout seul pendant la phase de déploiement.
Les systèmes d’intelligence artificielle sont utilisés dans de nombreux domaines tels que le recrutement, la surveillance du marché, les usages répressifs, les chatbots, la génération de contenus créatifs artificiels etc.
Aussi bien dans la phase de développement que dans la phase de déploiement, les outils d’IA ont besoin d’être alimentés en données pour fonctionner, souvent des données à caractère personnel. Il est donc important de préserver les droits des personnes concernées, résultant notamment du Règlement général sur la protection des données (RGPD), et cela dès la phase de développement.
Pour assurer les droits des personnes concernées, il est également important, pendant la phase de déploiement d’une IA, notamment dans le cadre des décisions automatisées pouvant être prises par les robots, qu’un « être humain garde toujours la main », c’est-à-dire qu’il y a toujours un contrôle par une personne physique sur la décision prise par l’IA. En effet, l’IA, comme tout être humain d’ailleurs, peut toujours faire des erreurs qui peuvent être liées à la conception de son système ou à ses conditions d’utilisation.
Afin de répondre à ces enjeux et de prévenir les risques pour les personnes concernées, le règlement AI a déterminé un cadre commun pour l’usage des systèmes d’AI.
Le RAI classe les outils d’IA en quatre catégories, selon les risques qu’ils peuvent potentiellement engendrés, et prévoit un régime différent pour chaque catégorie d’IA.
A côté de ces quatre catégories d’IA énumérées ci-dessus, le RIA prévoit également la nouvelle catégorie de modèles dits à « usage général », qui concerne surtout l’IA générative. Ces modèles ont la capacité de servir à un grand nombre de tâches (tels que proposés par Mistral AI ou Open AI) et qui sont donc difficiles à classer dans une des catégories précédentes.
Pour ces modèles, le RIA prévoit plusieurs niveaux d’obligations (allant de la mesure de transparence jusqu’à une évaluation approfondie du système, en passant par la documentation technique…), en fonction des risques qu’ils peuvent comporter.
Le RIA prévoit que chaque Etat membre doit désigner une autorité compétente pour contrôler le respect du règlement, et cela jusqu’au 2 août 2025.
Le règlement IA entrera en vigueur progressivement à compter du 1er août 2024, selon les étapes suivantes :