index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Branch-and-Bound algorithm Anomaly Fiabilité Deep neural network classifiers Distribution based method Data Analysis Bayesian inference Adversarial Attacks Example-based Deep learning AI Adversarial attack Computer vision Anomaly detection Arcadia Method Critical systems Fault detection AI component evaluation methodology Mixed Integer Programming AI System Characterization Explicability Confiance Monitoring Complexity Neural Network Confiance explicabilité Adversarial examples Fault tolerance Contextual Evaluation Custom search space Engineering Processes Conformal Prediction Calibration Decision tree Explainable AI Christoffel functions Long Short-Term Memory Adversarial Training XAI Realization theory Computer Vision and Pattern Recognition Explicabilité AI-Based Systems Concepts Embarqué Bayesian Optimization Trustworthiness Attributes Neural network Explainability Neural ODEs Robustness Cycle-accurate simulator Semantic segmentation Sûreté de fonctionnement AI-Based Critical Systems Explanations Artificial intelligence Embedded AI Fault tolerant systems Robustesse AI-based systems System Identification Artificial Intelligence Data Stream Processing Anomaly Detection Gas Distribution Generative Models Cryptography and Security Federated Learning Adversarial physical attack Deep Reinforcement Learning Sûreté Recurrent Neural Networks Influence Functions FOS Computer and information sciences ODD AI engineering Case-based Computer Vision Intelligence Articifielle Data Visualization Machine Learning Counterfactuals Data-driven reachability Bias Detection Distributed learning Trustworthiness Assessment GPU Attack transferability Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Enalty Bayesian Neural Networks Hardware Evaluation Data Quality Conformal prediction Data Stream Ingénierie algorithmique de l’IA Automated vehicle Adversarial attacks Distributed Machine Learning