index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training AI engineering Fault tolerant systems Hardware Trustworthiness Assessment Confiance explicabilité Explanations Deep neural network classifiers Distributed Machine Learning Data Stream Processing Calibration Adversarial attacks Deep Reinforcement Learning Evaluation Artificial intelligence Data-driven reachability Adversarial attack Conformal prediction Cycle-accurate simulator Distributed learning ODD Anomaly detection Explicabilité System Identification Branch-and-Bound algorithm Fault tolerance Mixed Integer Programming Critical systems Computer vision Conformal Prediction Semantic segmentation Distribution based method Custom search space Data Analysis Case-based Computer Vision and Pattern Recognition Machine Learning Complexity Recurrent Neural Networks Example-based Embarqué Deep learning Data Stream Intelligence Articifielle Data Visualization GPU Adversarial Training AI component evaluation methodology Anomaly Detection Federated Learning Artificial Intelligence Bias Detection Explainable AI Embedded AI Trustworthiness Attributes Influence Functions Adversarial Attacks FOS Computer and information sciences Contextual Evaluation Sûreté de fonctionnement Ingénierie algorithmique de l’IA Computer Vision AI-based systems Bayesian inference Robustesse Gas Distribution XAI Fault detection Neural ODEs Enalty Bayesian Neural Networks Neural network Engineering Processes Arcadia Method Anomaly Adversarial physical attack AI-Based Systems Fiabilité Christoffel functions Explainability Confiance Cryptography and Security Robustness Sûreté Concepts AI System Characterization Bayesian Optimization Monitoring Realization theory AI-Based Critical Systems Long Short-Term Memory Generative Models Automated vehicle Attack transferability Explicability AI Adversarial examples Data Quality Counterfactuals Decision tree Neural Network