index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Neural network Sûreté Evaluation GPU Anomaly Computer Vision and Pattern Recognition AI component evaluation methodology Neural Network Ingénierie algorithmique de l’IA Example-based Generative Models Distributed learning Computer vision Explanations Distributed Machine Learning Data Stream Deep neural network classifiers Data Stream Processing Trustworthiness Attributes Fault tolerant systems Realization theory Robustness Decision tree Bayesian inference Case-based Bayesian Optimization Fault detection Embedded AI Arcadia Method Christoffel functions Deep learning Confiance explicabilité Influence Functions Embarqué Enalty Bayesian Neural Networks Distribution based method AI-Based Systems Critical systems Semantic segmentation Branch-and-Bound algorithm Explicability Attack transferability ODD Cycle-accurate simulator Sûreté de fonctionnement Anomaly Detection Data Analysis Trustworthiness Assessment Mixed Integer Programming Concepts AI-Based Critical Systems Custom search space FOS Computer and information sciences Intelligence Articifielle Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training System Identification Neural ODEs Data Visualization Hardware Explicabilité Confiance XAI Adversarial Training Gas Distribution AI System Characterization Adversarial attacks Fiabilité Adversarial physical attack Engineering Processes Explainable AI Data-driven reachability Monitoring AI engineering Adversarial Attacks Automated vehicle Artificial intelligence Fault tolerance Long Short-Term Memory Data Quality Deep Reinforcement Learning Bias Detection Complexity Cryptography and Security Counterfactuals AI-based systems Calibration Recurrent Neural Networks Explainability Conformal Prediction Computer Vision Conformal prediction Adversarial attack Adversarial examples Anomaly detection AI Machine Learning Artificial Intelligence Contextual Evaluation Robustesse Federated Learning