Pour atteindre cette vision d’une IA éthique et conforme au règlement européen, plusieurs actions concrètes ont été mises en oeuvre dans les dernières versions des systèmes IA intégrés à la AMMON. Elles s’appuient notamment sur la méthodologie Rakam et les travaux de mise en conformité réalisés en 2025 .
✨ Documentation et traçabilité complètes des systèmes IA
Chaque fonctionnalité IA (classification des documents, extraction automatique, matching entre CV et offres pour la gestion des candidatures des CFA, analyse qualitative des enquêtes…) est accompagnée d’une documentation technique détaillée, versionnée et maintenue à jour. Les transformations, modèles utilisés, scores et logs sont conservés pour assurer la traçabilité exigée par l’IA Act.
✨ Supervision humaine systématique
Les résultats produits par l’IA ne sont jamais appliqués automatiquement sans contrôle. Les workflows prévoient des points de validation, d’édition ou d’ajustement par les utilisateurs (par exemple dans la structuration des documents ou l’analyse des enquêtes).
✨ Réduction des biais et évaluation régulière
Les systèmes IA sont évalués sur des jeux de test construits pour couvrir les différents profils d’apprenants ou types de documents. Les modèles sont ré-entraînés ou ajustés lorsque des dérives ou des déséquilibres sont identifiés. Cette logique est directement alignée avec les obligations IA Act liées aux systèmes “à haut risque”.
✨ Séparation des composants pour éviter les erreurs systémiques
Les architectures mises en place (extraction → classification → structuration → restitution) permettent d’isoler chaque étape, de l’auditer et de corriger son comportement sans impacter l’ensemble du système.
✨ Gestion souveraine et sécurisée des données
Conformément aux exigences européennes, les systèmes IA peuvent être déployés sur des infrastructures souveraines ou on-premise et ne transmettent aucune donnée sensible à des services tiers externes. Les données restent sous contrôle du client.