Je ne fais aucune apologie.
J’utilise des IAs donc je sais ce que c’est, je connais leurs forces et leurs limites.
Je suis tout à fait d’accord que le I de IA ne réfère pas à l’intelligence humaine.
Cependant dans des cas particuliers et en environnement relativement contrôlé, elles sont en général bien plus efficace que l’humain (bien sur si elles sont dimensionnées et entrainées de manière adéquat), c’est un fait.
Et l’exemple du tee-shirt ou des panneaux de pub, problème marrant pour les Tesla, vient plutôt d’un biais de sélection que de l’IA elle-même. Les « entraineurs » n’ont pas assez insisté sur le fait que l’environnement peut tromper le système. De plus les algos de sécurité sont trop raides dans pas mal de cas, un humain n’hésite pas à faire un truc interdit, voir dangereux sans calculer le risque (dépassement d’un obstacle sans visibilité suffisante), ce que ne fait pas une IA (et à raison, qui accepterait qu’une machine prenne un risque!), qui reste donc bloquée bêtement derrière un camion en panne.
Et juste pour le fun, trouve sur le net un prog d’IA de reconnaissance d’animaux. Tu verras qu’un réseau neuronal en python hyper simple (profondeur de 2 à 3, une dizaine de neurones) reconnait au moins aussi bien que toi les chiens et les chats et avec seulement un entrainement sur 5000 échantillons. On est plus en 2005 ou on était limité par la puissance de calcul (un simple i5 ou r5 basique actuel offre des perfs honorables) et par le pré-traitement des images qui est maintenant théorisé, voir standardisé et super efficace (les images sont « normées » et permettent un traitement ultra rapide). Pour en revenir à l’enfant de 2 ans, je te rappelle qu’il n’est pas entrainé avec 4 images, mais de manière systématique à 8h par jour depuis 2 ans, les 5000 images du réseau, c’est juste pour le mettre au même niveau que le gamin! :stuck_out_tongue: