-

ETH Zurich, INSAIT et LatticeFlow AI lancent le premier cadre européen d'évaluation de la conformité à la loi sur l'IA pour l'IA générative

ZURICH--(BUSINESS WIRE)--ETH Zurich, INSAIT et LatticeFlow AI annoncent la publication du premier cadre d'évaluation de la loi européenne sur l'IA pour les modèles d'IA générative.

Le communiqué, disponible sur https://compl-ai.org, comprend la première interprétation technique de la législation de l’UE sur l’IA, qui met en correspondance les exigences réglementaires et techniques, ainsi qu’un cadre libre et open source pour évaluer les grands modèles de langage (LLM) dans le cadre de cette mise en correspondance. Le lancement comprend également la première évaluation centrée sur la conformité des modèles de fondations publiques d'organisations telles qu'OpenAI, Meta, Google, Anthropic et Alibaba par rapport à l'interprétation technique de la loi européenne sur l'IA.

Thomas Regnier, porte-parole de la Commission européenne pour l'économie numérique, la recherche et l'innovation, commente le communiqué : «La Commission européenne se félicite de cette étude et de la plateforme d’évaluation des modèles d’IA, qui constituent une première étape dans la traduction de la législation de l’UE sur l’IA en exigences techniques, aidant ainsi les fournisseurs de modèles d’IA à mettre en œuvre la législation sur l’IA. »

Première interprétation technique de la législation de l’UE sur l’IA

La législation de l’UE sur l’IA définit des exigences réglementaires de haut niveau sans fournir de lignes directrices techniques détaillées. Pour remédier à cette situation, la Commission européenne a lancé une consultation sur le code de bonnes pratiques à l’intention des fournisseurs de modèles d’IA à usage général, chargé de superviser la mise en œuvre et l’application des règles de la législation sur l’IA relatives à l’IA à usage général. COMPL-AI peut également bénéficier aux groupes de travail sur l'IA à usage général, qui peuvent l'utiliser comme point de départ pour leurs efforts.

COMPL-AI comprend également un cadre libre et open source basé sur 27 bases de référence qui peuvent être utilisées pour évaluer les LLM à l'aune de ces exigences techniques.

« Nous invitons les chercheurs, les développeurs et les régulateurs de l’IA à se joindre à nous pour faire avancer ce projet en pleine évolution », déclare Martin Vechev, professeur titulaire à l’ETH Zurich et fondateur et directeur scientifique de l’INSAIT à Sofia, en Bulgarie. « Nous encourageons d’autres groupes de recherche et praticiens à contribuer en affinant la cartographie de la législation sur l’IA, en ajoutant de nouveaux critères de référence et en élargissant ce cadre open source. La méthodologie peut également être étendue pour évaluer les modèles d’IA par rapport aux futurs actes réglementaires au-delà de la législation de l’UE sur l’IA, ce qui en fait un outil précieux pour les organisations travaillant dans différentes juridictions. »

« Grâce à ce cadre, toute entreprise peut désormais évaluer ses systèmes d’IA au regard de l’interprétation technique de la législation de l’UE sur l’IA. Notre vision est de permettre aux organisations de veiller à ce que leurs systèmes d’IA soient non seulement très performants, mais aussi pleinement alignés sur les exigences réglementaires », déclare Petar Tsankov, CEO et cofondateur, LatticeFlow AI.

Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.

Contacts

Gloria Fernandez, directrice marketing
media@latticeflow.ai
LatticeFlow AI

LatticeFlow AI



Contacts

Gloria Fernandez, directrice marketing
media@latticeflow.ai
LatticeFlow AI

More News From LatticeFlow AI

COMPL-AI identifie des lacunes de conformité critiques dans les modèles DeepSeek en vertu de la loi européenne sur l’IA

ZURICH--(BUSINESS WIRE)--COMPL-AI, le premier cadre d’évaluation des modèles d’IA générative dans le cadre de la loi européenne sur l’IA, a mis en évidence des lacunes de conformité critiques dans les modèles distillés de DeepSeek. Bien que ces modèles excellent dans la prévention de la toxicité, ils ne sont pas à la hauteur dans des domaines réglementaires clés, notamment les vulnérabilités en matière de cybersécurité et les défis liés à l’atténuation des biais, ce qui soulève des inquiétudes...

LatticeFlow AI lance sa Suite 2.0 pour améliorer les performances, la fiabilité et la conformité des systèmes d’IA

ZURICH--(BUSINESS WIRE)--LatticeFlow AI, leader des solutions de création de systèmes d’IA fiables, a présenté aujourd’hui sa Suite 2.0 qui permettra aux entreprises d’améliorer les performances, la fiabilité et la conformité des systèmes d’IA. La fiabilité et la conformité devront être au cœur de la prochaine génération de systèmes d’IA. Pour ce faire, la Suite 2.0 de LatticeFlow AI comble les écarts critiques entre les opérations d’apprentissage automatique, la validation technique et les exi...

  LatticeFlow AI annonce une innovation clé visant à accélérer le développement d’un logiciel de détection de deepfake avant les élections américaines

ZURICH--(BUSINESS WIRE)--LatticeFlow AI, la plateforme leader pour la création d’applications d’IA fiables, annonce LatticeFlow AI Audio, le premier produit conçu pour trouver et identifier les erreurs de modèle dans les applications d’IA audio. Cette version répond à la demande pressante de solutions fiables de détection des voix truquées avant les élections américaines de 2024. Dans ce contexte, LatticeFlow AI Audio, combiné aux capacités existantes de la société en matière de vision par ordi...
Back to Newsroom