rail-france-eu

SAFEXPLAIN

Horizon EuropeCluster 4 — HORIZON-CL4-2021-HUMAN-01

Safe and Explainable Critical Embedded Systems Based on AI

Explicabilité du deep learning safety-critical (rail, automotive, space) — certification FUSA

Période
20222025 · completed
Coordinateur
Barcelona Supercomputing Center
Financement UE
3 891 875 € / total 3 891 875 €

Volet IA identifié

SAFEXPLAIN s'attaque au verrou structurel de la certification IA pour systèmes critiques embarqués (CAIS) : trains, voitures, satellites. Comble l'écart entre exigences Functional Safety (FUSA, déterministe, traçable) et la nature stochastique du Deep Learning. Cas d'usage rail concret (avec IKERLAN, RISE, AIKO) sur l'explicabilité et la traçabilité des modèles DL.

Techniques : explainable-AI · deep-learning-safety · FUSA-certification · verification-validation · trustworthy-AI

Fiche IA détaillée →

Partenaires français

Aucun partenaire français explicitement référencé.

Thèmes

Source : https://cordis.europa.eu/project/id/101069595