Un peu HS - plus sur le sujet des ML/réseaux de neurones/AI en général : un podcast intéressant sur le machine learning, comment des humains ont réussi à battre au go tous les programmes existants, l’historique du ML et les lacunes de l’apprentissage des machines etc. La partie la plus intéressante commence à 18:31.
-
18:31 sur comment ils ont trouvé une stratégie pour battre les programmes de Go, parce que ces derniers ne comprennent pas ce qu’est un groupe de pierres, et peuvent être bernés par des sandwichs de bords de territoires.
-
21:30 comment dès Perceptron, il était connu que les réseaux de neurones auraient des blindspots.
-
23:18 Comment ils ont créé un programme adversarial qui a trouvé cette stratégie de sacrifier un petit groupe pour attirer les programmes de Go à faire un territoire autour, et l’entourer pour le tuer, capturant des dizaines de pierres. Technique qu’ils ont testé avec succès sur les meilleurs logiciels de go.
-
30:04 Pourquoi GPT n’arrive pas à généraliser. En prenant l’exemple des multiplications puis du jeu d’échecs. Comment GPT ne comprend pas ce qu’est une personne, un objet, et ne fait qu’interpoler des « points de connaissance » proches.
-
33:46 Les « Narrow AI » (actuelles) vs « Generalized AI / Human level AI »
-
41:19 Le gros problème des réseaux de neurones : les « trous » entre les points d’entraînement.
-
47:37 Les réseaux de neurones ne suffiront probablement pas pour atteindre la GAI.
-
50:06 Comment les NN, GPTs et co n’ont pas de généralisation, ni de représentation du monde que notre cerveau est capable d’avoir.