Résumé :
À l’Institut EuropIA, on part du principe que c’est un changement culturel et que l’impulsion doit venir du « sommet ». On propose donc avant tout de former (PedagogIA). On
Résumé : À l’Institut EuropIA, on part du principe que c’est un changement culturel et que l’impulsion doit venir du « sommet ». On propose donc avant tout de former (PedagogIA). On ne va pas parler de deep learning ou de machine learning, mais on veut surtout faire comprendre l’importance des « data » pour générer une application effective de l’Intelligence Artificielle. Elle n’est pas une menace pour l’homme. Il faut plutôt avoir peur de l’humain qui l’utilise. De la même façon qu’un laser peut être une arme létale ou bien de guérison. L’IA ne va pas non plus se substituer à l’homme : elle est et doit rester au service de l’humanité. « Pour l’instant, nous sommes encore dans ce qu’on appelle l’IA faible. Cela signifie qu’elle n’est pas capable d’apprendre seule, c’est le datascientist qui la nourrit. Certes, on arrivera un jour à l’IA forte qui sera à même de comprendre les émotions et la gestualité mais elle n’aura jamais de conscience. En fait, je pense que c’est l’appellation “intelligence artificielle” en elle-même qui fait peur et qui cause problème. Avant, on l’appelait “système expert” et cela faisait toute la différence. ». Je prône pour une IA éthique, c’est-à-dire inclusive, soutenable et responsable. « Inclusive, cela veut dire qu’elle ne reproduit pas de stéréotypes ou de discriminations sociales ou culturelles. Pour qu’elle soit soutenable, l’algorithme développé et la machine qui le fera tourner ne devront pas être énergivores. Enfin, l’intelligence artificielle responsable doit viser le bien-être de l’humanité. » Marco Landi