SAFEXPLAIN
Horizon EuropeCluster 4 - Trustworthy AIcompletedSafe and Explainable Critical Embedded Systems based on AI
HORIZON-CL4-2021-HUMAN-01-01
Période
2022 – 2025
Coordinateur
Barcelona Supercomputing Center (BSC) (ES)
Partenaires
7
Financement UE
3 891 875 €
Volet IA
SAFEXPLAIN s'attaque au verrou structurel de la certification IA pour systèmes critiques embarqués (CAIS) : trains, voitures, satellites. Comble l'écart entre exigences Functional Safety (FUSA, déterministe, traçable) et la nature stochastique du Deep Learning. Cas d'usage rail concret (avec IKERLAN, RISE, AIKO) sur l'explicabilité et la traçabilité des modèles DL.
Techniques IA mobilisées
Use cases ferroviaires
Livrables clés
- Project page CORDIS - voir cordis/horizon/101069595_SAFEXPLAIN/
Use case ferroviaire : Certification, explicabilité et sûreté fonctionnelle des systèmes IA embarqués critiques (cas d'usage rail).
Partenaires français
Aucun partenaire français explicitement référencé.
Consortium complet (6 autres entités)
| Organisation | Pays | Type | Rôle |
|---|---|---|---|
| RISE Research Institutes of Sweden | SE | RTO | participant |
| IKERLAN | ES | RTO | participant |
| AIKO | IT | SME | participant |
| BSC (Barcelona Supercomputing Center) | ES | RTO | coordinateur |
| NavInfo Europe | NL | industry | participant |
| exida development | IT | industry | participant |