Une IA plus intelligente que les humains ? C'est pour l'année prochaine selon Elon Musk

Stéphane Ficca
Spécialiste hardware & gaming
09 avril 2024 à 11h21
18
Grok est une IA développée par xAI, et disponible sur le réseau X.com © rafapress / Shutterstock
Grok est une IA développée par xAI, et disponible sur le réseau X.com © rafapress / Shutterstock

Pour Elon Musk, c'est incontestable, l'IA sera plus intelligente que l'homme, et ce, dès l'année prochaine (ou au pire en 2026). Rappelons que xAI a été fondé l'an dernier, en réponse à OpenAI.

Dans le cadre du récent « Great AI Debate », Elon Musk a tenu à partager son point de vue concernant les progrès réalisés par l'intelligence artificielle. L'homme aux commandes du réseau X.com a notamment indiqué que l'IA pourrait signer « la fin de l'humanité », tout en évoquant « un scénario à l'issue positive ».

L'IA plus intelligente que l'homme dès 2025 ?

Plus récemment, dans le cadre d'un appel Space avec Nicholai Tangen (fondateur d'AKO Capital), Elon Musk a évoqué la possibilité d'une IA plus intelligente que n'importe quel humain d'ici la fin de l'année prochaine. Mieux (ou pire) encore, la puissance de calcul totale de l'IA devrait dépasser celle de tous les humains d'ici cinq ans.

Quel avenir pour l'IA ?

Elon Musk a toutefois tenu à souligner les progrès effectués par l'IA maison Grok, en constante évolution, et qui devrait migrer en version 1.5 d'ici le mois de mai. Il va sans dire que le patron de X.com a confirmé que cette dernière serait supérieure à l'IA ChatGPT4 signée OpenAI.

L'homme se dit également en faveur de la création d'une division réglementaire pour surveiller la croissance rapide du secteur de l'IA. Et cela, bien qu'il affirme que la technologie progresse déjà à un rythme trop rapide pour qu'une agence de réglementation puisse le suivre. « Je pense que l'on peut obtenir des choses très dangereuses lorsqu'on programme une IA pour qu'elle soit politiquement correcte », a ajouté Elon Musk, en guise de petit tacle à Gemini IA, signée Google.

Reste à savoir quel avenir nous réserve l'intelligence artificielle, et si certains savants se montrent plutôt pessimistes, d'autres (comme Elon Musk et les géants du web) instrumentalisent cette même IA en fonction de leurs intérêts propres.

Grok
  • Intégré à l'abonnement X sans surcoût
  • Collecte des informations à jour depuis X
  • Moins biaisé politiquement que sa concurrence

Grok est une intelligence artificielle conversationnelle conçue par xAI, une start-up dirigée par Elon Musk. Elle utilise une technologie de modèle linguistique de grande taille pour fournir des réponses précises et utiles aux questions des utilisateurs. Grok est unique de par son intégration avec Twitter (maintenant appelé X), lui donnant accès à des informations en temps réel, contrairement à d'autres IA qui peuvent ne pas être à jour.

Grok est une intelligence artificielle conversationnelle conçue par xAI, une start-up dirigée par Elon Musk. Elle utilise une technologie de modèle linguistique de grande taille pour fournir des réponses précises et utiles aux questions des utilisateurs. Grok est unique de par son intégration avec Twitter (maintenant appelé X), lui donnant accès à des informations en temps réel, contrairement à d'autres IA qui peuvent ne pas être à jour.

Source : Teslarati

Stéphane Ficca

Spécialiste hardware & gaming

Spécialiste hardware & gaming

Fervent amateur de jeux vidéo et de high-tech, spécialisé en Mega Man 2 et autres joyeusetés vidéoludiques ancestrales.

Lire d'autres articles

Fervent amateur de jeux vidéo et de high-tech, spécialisé en Mega Man 2 et autres joyeusetés vidéoludiques ancestrales.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (18)

youmetooandyou
hélas ce n’est pas l’IA qui devient plus intelligente que les êtres humains, ce sont les êtres humains qui se sont abrutis.<br /> La preuve : l’IA pond un texte, une image, une video : et on applaudit sans aucun esprit critique. Comment le pourrait-on, sans un minimum culture ?<br /> Autre exemple :<br /> avant : le cosinus c’est l’abscisse d’un point qui se situe sur un cercle de rayon 1<br /> maintenant : le cosinus c’est la petite touche qui est sur ta calculette !<br />
Fathzer
Il n’a pas aussi dit que la conduite autonome serait au point l’an prochain ? Bizarre, il fatigue…
SlashDot2k19
Comme on ne pourra plus déceler le vrai du faux, Internet ne pourra plus être un média d’information. Cela sera plus simple pour les dictatures / lobbys de nous inonder de bobards que d’essayer de tout bloquer.
tfpsly
Dans un an selon Musk… Soit dans environ 10 ans en temps «&nbsp;vrai&nbsp;».
Sodium
Plus intelligente que Musk en tout cas c’est fait depuis plus de 20 ans.
OliverS
Le temps Muskien étant légèrement dilaté, comme le Melon de ce type, c’est pas près d’arriver chez xAI…<br /> Et lui qui veut une autorité de régulation alors qu’il fait tout pour ne respecter aucune loi, aucune agence gouvernementale, qu’il a viré tous les modos et équipe éthique de Twitter… Mais quelle vaste blague ce type… La décadence en temps réel…
ABC
C’est un peu comme si le Docteur Mabuse nous promettait la panacée universelle.<br /> Encore un truc qui va être top tendance sur .
baazul
L’humain est de plus en plus débile donc ça ne sera pas compliqué.<br /> Par contre l’IA a besoin de l’humain pour apprendre, il n’est pas encore capable de réfléchir.
Loposo
Si un eleve a eu son brevet il le sait<br /> Et vous donnez la definition geometrique mais a ses limites du triangle rectangle, dans la vie il y a pas que des triangles rectangle ou on utilise cos<br /> Il y a le cercle unité et autres . Donc au final cos est une fonction trigonometrique et pas votre def de triangle rectangle<br /> Et dans votre def<br /> youmetooandyou:<br /> avant : le cosinus c’est l’abscisse d’un point qui se situe sur un cercle de rayon 1<br /> L abscisse c est le côté adjacent mais pas le cos qui lui est le résultat de adjacent/hypotenus<br /> Bref ia plus intelligente a ce que je vois
Nmut
Vous dites la même chose de manière différente… <br /> Mais sa définition est bien plus claire, la vôtre un peu confuse.
Gibbons
C’est le monsieur qui nous promet la conduite autonome de niveau 5 pour l’an prochain depuis 10 ans sur ses Duracell à roulettes? Ou bien c’est celui qui veut envoyer 1 million de personnes sur Mars en 2050?
philouze
Je discute avec des fachos sur discord qui pensent aussi que le «&nbsp;politiquement correct&nbsp;» ( qui les empêche juste à eux d’exprimer librement leurs haine des autres, c’est essentiellement le problème ) est plus grave, plus terrifiant, que la mort elle même
Rainforce
philouze:<br /> Je discute avec des fachos sur discord<br /> Mdr<br /> youmetooandyou:<br /> hélas ce n’est pas l’IA qui devient plus intelligente que les êtres humains, ce sont les êtres humains qui se sont abrutis.<br /> L’un n’empêche pas l’autre.<br /> A savoir quand ? les 2 courbes se croiseront, cela s’est peut-être déjà produit, ou pas encore, selon Musk.
Drifter35
GPT-4 pourrait déjà presque être considéré comme plus «&nbsp;intelligent&nbsp;» que les humains (du moins plus que 98% d’entre eux) : il est capable de résoudre des problèmes complexes, de passer des concours de droit, de médecine, etc.<br /> Seule son incapacité à planifier (inhérente aux modèles de language) l’empêche d’être vraiment considéré comme «&nbsp;intelligent&nbsp;».
Drifter35
Perso si on peut remplacer nos dirigeants actuels par une IA, je signe tout de suite. Même GPT-4 serait probablement plus compétent et moins sociopathe…
ericmeurice
La puissance de traitement des IA est encore très loin de celle d’un cerveau Humain.<br /> 1 million de fois moins rapide avec une largeur de bus 10 millions de fois plus étroite.<br /> Par contre des systèmes expert d’aide à la décision sont et seront très utiles.<br /> Mais les IA n’ont aucune conscience, elles traitent uniquement des probabilités.<br /> Les IA choisissent un nombre, un point c’est tout.
philouze
je ne sais pas si tu peux balayer ça de cette façon.<br /> si on parle de calcul juste, déjà, c’est mort, la machine éclate le cerveau humain et là on parle pas en millions, mais en milliards de fois.<br /> Donc le fait de passer par le proxy «&nbsp;calculs&nbsp;» pour aboutir à un résultat similaire ou proche d’une pensée peut être vu comme un accélérateur.<br /> la vitesse de génération du texte semble bien plaider pour ça d’ailleurs.<br /> ( je parle bien sûr en inférence, pas en apprentissage)<br /> Aujourd’hui la plupart des tests sont tombés, idem pour Turing.<br /> La conscience générale et l’intentionnalité, qui caractérisent encore la pensée humaine par rapport aux IA n’est pas encore codée,<br /> mais Musk a raison, y’a de nouveaux algos (dont JEPA, mais pas que) qui amènent à<br /> une conscience de l’environnement<br /> une conscience ( balbutiante ) du «&nbsp;soi&nbsp;» vs «&nbsp;les autres&nbsp;», démontrée par Figure<br /> une considération et mesure de son action dans le réel pour auto-évaluation. (idem)<br /> maintenant améliore ces algos et multiplie la puissance du hardware par 10 voir 200 pour les inférences ( ce qui va être délivré pas plus tard que cette année par Nvidia et Groq LMU , et ça te donne une vague idée de ce qui va tomber d’ici 12 mois.<br /> après, c’est du doigt mouillé à la Musk dont on connait la fiabilité calendaire douteuse, mais sur le fond, si c’est pas au cours de cette année ou fin 2025, je n’ai aucun doute sur la raclée que l’IA va nous mettre dans tous les domaines d’ici même pas trois ans si les évo hardware+software continuent à cette allure
Hep
Je pense que tout comme Musk, vous faites de anthropomorphisme.<br /> Comparer les calcules d’un PC aux calcules fait par un être humain, est-ce bien pertinent? Un être humain n’a jamais résolu 1+1. Il a vu ses mains et a mis un mot dessus, il a résolu un exercice pour une raison valable, il a partagé sa bouffe avec un autre. A chaque fois il fait 1+1, mais en même temps, n’a jamais fait le moindre calcule comme vous l’entendez… Jamais une IA ne pourra faire 1+1 comme le fait l’humain. c’est aussi simple que cela. Elle pourra donner via un écran, le résultat de n’importe quel calcule, elle n’aura pourtant toujours pas fait 1+1 comme pourrait le faire un humain.<br /> «&nbsp;Une IA aussi intelligente qu’un être humain&nbsp;» est une phrase qui n’a aucun sens d’après moi (remplacer «&nbsp;être humain&nbsp;» par «&nbsp;singe&nbsp;» ou «&nbsp;chien&nbsp;» et ça marche tout aussi bien)
philouze
faut prendre du recul sur l’accusation random d’anthropomorphisme.<br /> le but même d’une IA c’est, précisément, l’imitation d’un raisonnement humain, c’est d’être «&nbsp;antropomorphe&nbsp;» dans son interaction.<br /> au final on se fiche bien de la façon dont il y parvient, d’il compte sur ses doigts ou chie des électrons,<br /> ce qui compte c’est qu’à la fin il échange avec toi, te réponde, te trouves des solutions «&nbsp;à la manière d’un humain&nbsp;» mais plus vite voir plus juste que toi.
codeartemis37
plus inteligente que lui, il voulait dire.<br /> il s’est planté, c’est deja le cas!!!
Blackalf
Elon Musk a du être chien dans une vie antérieure, c’est pour ça que pour lui, une année correspond à 7 années humaines.
Nmut
Le 1+1 n’a pas de sens dans ta comparaison. Une IA LLM ne «&nbsp;sait pas&nbsp;» mais elle s’est «&nbsp;aperçu&nbsp;» que souvent ses données d’entrainements avaient des «&nbsp;1 + 1&nbsp;» qui étaient suivis par «&nbsp;2&nbsp;».<br /> Par contre une IA orienté mathématiques va «&nbsp;deviner&nbsp;» (parce que c’est au final plus ça) qu’il y a 4 types d’opérateurs binaires avec des résultats qu’elle va «&nbsp;inventer&nbsp;». Si on lui met à disposition une calculette, il y a même des chances pour qu’elle devienne particulièrement efficace rapidement, mais qu’elle fasse aussi quelques erreurs, comme si c’était des résultats «&nbsp;à la louche&nbsp;». C’est un peu plus compliqué que ça mais ce sont les grandes lignes.<br /> Comme le dit @philouze, une IA est justement une imitation de raisonnement humain: une somme d’expériences (l’apprentissage) qui génère un réflexe (la sortie) plus ou moins fiable.<br /> Les IAs sont pour le moment de très jeunes enfants sans connaissances globales et des biais importants. Bon, c’est sûr que les biais, comme pour les humains, risquent d’être amplifiés par la vitesse de circulation des informations, mais c’est un autre sujet…<br /> Quand on pourra connecter au monde réel une IA suffisamment puissante (et on en est pas loin, la puissance de calcul très supérieure au cerveau humain compense en partie les profondeurs de réseau neuronaux plus faible par exemple), avec suffisamment de temps, elle sera aussi intelligente qu’un humain. Après, Musk aime bien donner des dates de la même façon qu’un LLM «&nbsp;par ça sonne bien&nbsp;»!
Hep
«&nbsp;le but même d’une IA c’est, précisément, l’imitation d’un raisonnement humain, c’est d’être « antropomorphe » dans son interaction.&nbsp;»<br /> Non, non, vraiment pas. Une IA est conçue pour faire croire a un humain quelle a eu un raisonnement proche de lui, mais elle ne fonctionne pas du tout comme cela, c’est la votre erreur.<br /> Par exemple, les réseaux de neurones artificiels, qui sont couramment utilisés dans de nombreuses applications d’IA, fonctionnent en traitant de grandes quantités de données pour identifier des modèles, ce qui est très différent de la façon dont fonctionne le cerveau humain.
Hep
Hep:<br /> Comparer les calcules d’un PC aux calcules fait par un être humain<br /> Je me suis mal exprimé, mais comme j’avais débuté mon post, je parle bien de calcule par le processeur, c’était ça la comparaison de Philouze. Mais je n’ai pas été claire sur la suite.<br /> Pour la suite, vous ne faites que répeter les idées de Philouze. Voici ce qu’une IA en pense :<br /> " 1. Conscience et compréhension : Lorsque vous dites qu’une IA «&nbsp;s’est aperçu&nbsp;» de certaines relations dans ses données d’entraînement, cela implique une conscience ou une compréhension qui ne correspond pas à la réalité des IA actuelles. Les IA n’ont pas de conscience ni de compréhension des concepts comme le font les humains.<br /> 2. «&nbsp;Deviner&nbsp;» et «&nbsp;inventer&nbsp;» : Ces termes suggèrent une capacité créative et un processus de réflexion similaires à ceux des humains, ce qui ne correspond pas à la façon dont les IA fonctionnent. Les IA ne «&nbsp;devinent&nbsp;» pas ou n’«&nbsp;inventent&nbsp;» pas au sens humain, mais plutôt appliquent des algorithmes basés sur des modèles et des données.<br /> 3. Imitation du raisonnement humain : Bien que les IA puissent être conçues pour interagir avec les humains de manière intuitive, cela ne signifie pas qu’elles imitent véritablement le raisonnement humain. Leur fonctionnement est basé sur des algorithmes et des calculs qui peuvent produire des résultats utiles pour les humains, mais qui diffèrent fondamentalement du raisonnement humain.<br /> 4. Limites actuelles des IA : Les IA actuelles sont encore loin d’avoir la capacité d’une intelligence humaine générale. Elles sont limitées par leur manque de conscience, de compréhension et de capacité à raisonner de manière abstraite."<br /> L’IA semble plutôt d’accord avec moi, l’IA vous fait croire quelle raisonne, mais son fonctionnement est très systématique et loin de ce que vous imaginez.<br /> L’IA a propos de votre conclusion :<br /> «&nbsp;En résumé, bien que les progrès en intelligence artificielle soient impressionnants, il est important de rester réaliste quant aux limites actuelles et futures de cette technologie. Les IA peuvent être très utiles dans de nombreux domaines, mais il est peu probable qu’elles deviennent des répliques exactes de l’intelligence humaine dans un avenir proche.&nbsp;»<br /> Solution de facilité, j’avoue, mais c’est amusant avec le contexte. D’autant que je partage l’avis de l’IA (chatgpt) qui me semble plus réaliste. J’ai même l’impression qu’elle m’a fait un clin d’œil après avoir répondu
Palou
Hep:<br /> Hep:<br /> Comparer les calcules d’un PC aux calcules fait par un être humain<br /> Je me suis mal exprimé, mais comme j’avais débuté mon post, je parle bien de calcule<br /> En effet, tu me fera 100 lignes «&nbsp;on ne met pas de e à calcul&nbsp;»
Nmut
Hep:<br /> vous ne faites que répeter les idées de Philouze.<br /> Oui, on a surement une idée assez proche de comment fonctionne un IA et de ce qu’elle peut faire. Peut-être que @philouze travaille aussi dans un domaine ou il utilise l’IA.<br /> Hep:<br /> une IA « s’est aperçu »<br /> Les guillemets ont un sens ici, c’est une approximation, un raccourcis. C’est une corrélation détectée, mais j’essaye de ne pas trop utiliser le jargon pour me faire comprendre. Sur un forum, on ne connait pas les connaissances des gens avec les quels on discute. Effectivement il n’y a pas de conscience ou de compréhension. Mais encore une fois on parle plus d’automate apprenant que de véritable IA comme elles pourrait être.<br /> Hep:<br /> Ces termes suggèrent une capacité créative et un processus de réflexion similaires à ceux des humains<br /> Effectivement, ce n’est pas comparable aux capacités humaine, ici les IAs sont bien supérieures. En fait, attendu qu’elles sont entrainées dans un but précis, la créativité dans une domaine particulier, elles sont bien meilleures que nous pour cette tâche, elles n’ont pas les limitations (connaissances limitées, capacité à traiter des quantité des données, compréhension des grands / petits nombres) et les barrières (conventions, habitudes, pressions diverses, …) de l’esprit humain. En recherche, les IAs sont des outils particulièrement efficaces et productifs.<br /> Hep:<br /> Leur fonctionnement est basé sur des algorithmes et des calculs<br /> Je ne suis pas d’accord du tout. Éventuellement on peut parler de statistiques mais c’est réducteur. On ne parle pas d’IA si les résultats sont basés sur des algorithmes et/ou de la gestion de base de données. C’est au plus un système expert mais on ne peut obtenir autre chose que ce que fait la programmation initiale.En cela s’approche du fonctionnement d’un cerveau: on ne sait pas ce qui va «&nbsp;sortir&nbsp;» de la boite noire (IA ou cerveau) par rapport aux informations données.<br /> Hep:<br /> Les IA actuelles sont encore loin d’avoir la capacité d’une intelligence humaine générale. Elles sont limitées par leur manque de conscience, de compréhension et de capacité à raisonner de manière abstraite.<br /> Totalement d’accord ici. Mais ce n’est absolument pas ce qu’on leur demande. On recherche juste des beaux parleurs (LLM), à résoudre des problèmes trop complexes pour les humains (trop de données en entrée) ou en informatique classique (explosion combinatoire de certains problèmes par exemple), ou encore de sortir des idées neuves (recherche…).<br /> Hep:<br /> L’IA a propos de votre conclusion<br /> […]<br /> Elles sont limitées par leur manque de conscience, de compréhension et de capacité à raisonner de manière abstraite.<br /> C’est assez vrai. Mais vous avez ici l’«&nbsp;opinion&nbsp;» que d’une machine perroquet qui aligne des mots de manière efficace pour convaincre, mais sans réelle analyse ni compréhension du problème! <br /> Pour moi, ce n’est qu’un question de temps pour que les IAs se dé-spécialisent, s’auto-entrainent (on utilise déjà des dialogues entre IA et les résultats sont ébouriffants), augmentent leurs capacités (étendue et profondeur des réseaux de neurones) et deviennent alors proches des esprits humains.<br /> Cependant, j’admets que ma vision est très scientifique, et je reste fermé aux approchent plus philosophiques et surtout théologiques de l’intelligence humaine!
Hep
Déjà merci pour la discussion, j’aime bien le sujet et j’aime bien confronter mes connaissances et ma compréhension sur le sujet. Je n’en suis pas expert, et quand bien même, le nombre de médecins qui ont dit des bêtises sur le covid… Bref.<br /> Je pense qu’on ne sera pas d’accord sur ce détails, qui n’est peut-être qu’une interprétation, mais quand vous dites «&nbsp;la créativité dans un domaine particulier, elles sont bien meilleures que nous pour cette tâche&nbsp;» ça me fait tiquer.<br /> Bon je vais tourner en rond, mais je ne vois pas de créativité chez une IA. Elle peut au mieux sortir le meilleur des résultats au millieu de million de possibilités très rapidement grâce à son entrainement, mais la réponse est écrite en dur quelque part, c’est le fait de lui poser la question qui va faire ressortir ces données figées quelque part dans son réseau de neurone. «&nbsp;on ne sait pas ce qui va « sortir »&nbsp;» car c’est trop volumineux, mais rien n’empercherait de suivre tout le cheminement neurone par neurone et de prédire la réponse de l’IA. Ce n’est pas mystérieux ou subjectif, c’est juste super, super, super complexe.<br /> Pour qu’elle puisse donner une réponse nouvelle, il faudra la ré-entrainer en lu donnant de nouvelle données qu’il faudra qu’un homme lui choisisse lui-même, elle n’aura aucune créativité pour sortir de nouvelle réponses.<br /> Pouvoir trouver une réponse à une question trop complexe pour l’être humain ne fait pas l’intelligence, sinon une calculatrice est plus intelligente que nous pour le calcule, et ce n’est pas le cas, c’est juste une bête machine avec des «&nbsp;leviers et des roues dentées virtuelles&nbsp;».<br /> Alors avec plusieurs IA qui se corrigent qui se valident, qui s’échangent des données entre elle, on aura des système qui résoudront des problèmes avec des complexités inatteignables par l’humain, mais de la à les voir intelligentes, je ne suis pas convaincu. Je pense que le mot «&nbsp;intelligence&nbsp;» artificiel est mal choisi, il induit en erreur.<br /> Mais bon je pense que je tourne en rond.<br /> Bon week-end!
Nmut
Non je ne pense pas que l’on tourne en rond. Je comprends petit à petit votre raisonnement. bien sûr cela ne me fait pas changer d’avis mais je pense que mes arguments sont plus afutés.<br /> Avant saturation , voici mes derniers arguments:<br /> Hep:<br /> la réponse est écrite en dur quelque part<br /> Je vais rester sur les réseaux de neurone parce que je connais un peu mieux que les autres techniques d’IA.<br /> Si on parle de la configuration / des poids du réseau, oui c’est figé tant qu’un nouvel entrainement n’aura eu lieu ou qu’une nouvelle question n’aura pas été posée (ce qui peut faire partie de l’entrainement). Mais cela ne me semble pas à un argument pour différencier l’humain de la machine.<br /> Pour moi, la principale différence est l’aléa du cerveau humain (la complexité, le fonctionnement analogique et chimique, les sens introduisent un chaos dans le traitement), mais c’est aussi simulable (mais probablement pas souhaitable ou utile…).<br /> Hep:<br /> Pour qu’elle puisse donner une réponse nouvelle, il faudra la ré-entrainer en lu donnant de nouvelle données<br /> Tout à fait.<br /> Hep:<br /> u’il faudra qu’un homme lui choisisse lui-même<br /> Pas forcément. Vous pouvez fournir une calculatrice à une IA, ou en faire «&nbsp;converser&nbsp;» plusieurs (comme dit plus haut les résultats sont exceptionnels)…<br /> Hep:<br /> elle n’aura aucune créativité pour sortir de nouvelle réponses.<br /> Effectivement que le prompt est la graine d’intelligence de base. Mais les résultats sont «&nbsp;créatifs&nbsp;» car souvent totalement inattendus, inaccessible à l’esprit humain et même à l’informatique classique, souvent très intéressants même si il y a pas mal de déchets et que cela demande une validation par l’informatique classique. Pour moi c’est créatif, mais peut-être qu’il faudrait s’entendre ici sur la définition du terme «&nbsp;créativité&nbsp;»!<br /> Hep:<br /> mais de la à les voir intelligentes<br /> Là aussi, je pense que l’on surtout sur un problème sémantique! <br /> Bon week end à vous aussi!
philouze
Hep:<br /> Bon je vais tourner en rond, mais je ne vois pas de créativité chez une IA. Elle peut au mieux sortir le meilleur des résultats au millieu de million de possibilités très rapidement grâce à son entrainement, mais la réponse est écrite en dur quelque part, c’est le fait de lui poser la question qui va faire ressortir ces données figées quelque part dans son réseau de neurone. « on ne sait pas ce qui va « sortir » » car c’est trop volumineux, mais rien n’empercherait de suivre tout le cheminement neurone par neurone et de prédire la réponse de l’IA. Ce n’est pas mystérieux ou subjectif, c’est juste super, super, super complexe.<br /> Deux problèmes de fond dans l’échange :<br /> ce n’est pas parce que le système est différent dans sa structure et son mode de fonctionnement, que le résultat diffère. Et en matière «&nbsp;d’anthropomorphisme&nbsp;» , c’est le résultat qui compte, pas la méthode<br /> «&nbsp;l’IA ( actuelle ) n’a pas de créativité&nbsp;»<br /> oui, si tu restreins la définition de créativité.<br /> D’un point de vue combinatoire / esthétique dite «&nbsp;collagiste&nbsp;», l’IA actuelle, pourtant très limitée, est même extrêmement créative.<br /> non si tu imposes que l’IA ait une volonté propre, qu’elle «&nbsp;choisisse&nbsp;» seule des prompts, ex-nihilo. Or cette fonction n’est pas (encore) à l’ordre du jour parce que l’intérêt même du projet est douteux<br /> non aussi si tu inclues que créativité impose apprentissage automatique, hors les IA actuelles sont massivement dyssimétrique : apprentissage intensif puis inférence exclusive. Mais c’est uniquement parce que ce réglage est le plus économique matériellement et énergétiquement.<br /> Pas sûr qu’à l’avenir ce soit la règle<br /> Enfin il reste un dernier problème de fond, face à une IA «&nbsp;auto-apprenante&nbsp;» doué d’un système d’objectifs/regret, comme pourrait le devenir JEPA, nous penses-tu si «&nbsp;créatifs&nbsp;» ?<br /> Quand est-ce que ta création est pure et ex-nihilo, quand est-ce qu’elle ne serait pas un choix pondéré par rapport à des mesures de conséquences d’expériences déjà vécues ?<br /> Quand est-ce qu’en cas de situations totalement vierges, tu ne ferais pas appel à des «&nbsp;souvenirs de situations éloignées&nbsp;» ou à de simples "essais random / validations / invalidations / corrections " soit exactement ce que fais un deep learning ?<br /> nous nous pensons plus que ce que nous sommes, parce que notre cerveau n’est pas conçu pour comprendre comment il fonctionne. Nous n’en voyons que la sortie
Voir tous les messages sur le forum
Haut de page

Sur le même sujet