SAFEXPLAIN
Horizon EuropeCluster 4 — HORIZON-CL4-2021-HUMAN-01Safe and Explainable Critical Embedded Systems Based on AI
Explicabilité du deep learning safety-critical (rail, automotive, space) — certification FUSA
Période
2022 – 2025 · completed
Coordinateur
Barcelona Supercomputing Center
Financement UE
3 891 875 € / total 3 891 875 €
Volet IA identifié
SAFEXPLAIN s'attaque au verrou structurel de la certification IA pour systèmes critiques embarqués (CAIS) : trains, voitures, satellites. Comble l'écart entre exigences Functional Safety (FUSA, déterministe, traçable) et la nature stochastique du Deep Learning. Cas d'usage rail concret (avec IKERLAN, RISE, AIKO) sur l'explicabilité et la traçabilité des modèles DL.
Techniques : explainable-AI · deep-learning-safety · FUSA-certification · verification-validation · trustworthy-AI
Partenaires français
Aucun partenaire français explicitement référencé.