Cécile Hannotte
Cécile Hannotte , Onepoint
Ingénieure en mathématiques et en informatique, j’interviens chez Onepoint en tant Data Scientist depuis 3 ans. Passionnée par la Data, les Maths et l'IA, j’ai travaillé sur des projets utilisant les technos de Deep Learning notamment pour des problèmes de reconnaissance d’Image et de NLP.
IA-404 : Explication not found
Quand on demande à une IA :"Dessine moi un chat", elle fera potentiellement bien le job. <br> Si maintenant on lui demande :"Pourquoi l'animal que tu as dessiné est un chat ?", on risque au contraire d'avoir une réponse tout droit sortie d'un dictionnaire plutôt que d'une justification sur l'image générée.
Pourquoi ?
Cette question, qui fait trembler les IA d'aujourd'hui, permet d'obtenir une explication à un résultat donné par une IA. Enfin en théorie.
En pratique, la course aux IA a amené des IA plus rapides, avec des réseaux de neurones plus complexes, des boîtes noires qui ne donnent aucune justification et qui donnent des résultats que même les experts en IA ne comprennent pas encore entièrement.
Mais alors, est-il possible d'expliquer l'IA ou est-elle déjà hors de notre contrôle ?