🔴 French Days en direct 🔴 French Days en direct

Mettre l'IA en pause ? Pourquoi Bill Gates n'est pas d'accord

04 avril 2023 à 17h15
46
Bill Gates

Pour Bill Gates, mettre en pause le développement de l'intelligence artificielle ne serait pas la solution aux défis posés par la technologie.

L'intelligence artificielle a fait ces derniers mois des avancées tellement exceptionnelles qu'elle fait déjà peur. Au point que de très nombreuses personnalités, menées par Elon Musk, ont demandé dans une tribune à la mettre sur pause. Mais d'autres géants du secteur ne sont pas d'accord. À commencer par Bill Gates.

Une amélioration, la meilleure solution ?

Évidemment, s'il y a une voix qui n'est pas totalement neutre dans le débat actuel sur l'intelligence artificielle, c'est bien Bill Gates. L'homme d'affaires est en effet le fondateur de Microsoft, le géant américain qui soutient avec ses fonds le développement d'OpenAI et de son chatbot ChatGPT. Il n'est alors pas étonnant de le voir prendre position contre une mise à l'arrêt du développement de l'IA.

« Il est clair que ces choses présentent d'énormes avantages… ce que nous devons faire, c'est identifier les domaines délicats », a-t-il ainsi expliqué en réponse à l'inquiétude des experts. Pour lui, il est nécessaire d'être plus actif dans la recherche des meilleurs moyens pour réguler correctement la technologie. Une pause ne serait par contre pas productive.

ChatGPT est soutenu par Microsoft © Shutterstock
ChatGPT est soutenu par Microsoft © Shutterstock

Le monde ne s'arrête pas

Par ailleurs réaliste, il pointe du doigt le caractère limité de cet appel. Car ce dernier émane exclusivement du monde occidental, voire simplement de l'Amérique du Nord. Or d'autres régions du monde sont bien décidées à avancer dans le développement de l'intelligence artificielle, à l'image de la Chine.

« Je ne comprends pas vraiment qui, selon eux, pourrait arrêter, ni si tous les pays du monde accepteraient d'arrêter, ni pourquoi il faudrait arrêter », a résumé l'homme d'affaires. Ajoutant : « Je ne pense pas que le fait de demander à un groupe particulier de faire une pause résolve les problèmes. » Un argument qui porte d'autant plus en cette période de forte rivalité géopolitique entre les États-Unis et un bloc eurasiatique composé de la Chine et de la Russie !

Source : Reuters

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (46)

negima
Arrêtez de parler de l’IA. Ça n’existe pas et n’existera jamais. Ce sont juste des programmes qui appliquent bêtement ce qu’on a programmé de A à Z.
Doss
Car MS à investi des milliards dans Open AI ?
Francis7
Cette question de mise à l’arrêt du développement de l’IA se pose à cause des problèmes éthiques et moraux qu’elle peut poser selon les cultures et les pays. Je ne pense pas que cela soit justifié parce que l’humain peut faire pire de ses propres mains avec un clavier en face de lui. C’est lui qu’il faut modérer et l’IA à améliorer.
Fodger
Le gars a sans doute plein de tunes placés via sa fucking fondation qui œuvre pour « le bien de l’humanité »…
Grebz
Quoi qu’on puisse penser de Bill Gates, il a raison, ici. Ce n’est pas parce que quelques occidentaux vont arrêter de travailler sur l’IA que le reste du monde va suivre, Chine en tête. Qui peut croire qu’ils vont dire « oh oui, Elon Musk et ses amis ont raison, arrêtons nos recherches sur l’IA pour leur faire plaisir ». La recherche technologique est une course dans tous les domaines, personne ne cédera sur rien. Si on doit aller à la catastrophe, vous pouvez parier qu’on ira parce que personne ne voudra lever le pied.
rexxie
Parce que : newatlas . com/technology/ai-danger-kill-everyone/
SPH
Toi aussi, tu as appris depuis ta naissance avec des textes et des paroles de tes parents !<br /> L’IA est né hier et grandira comme un bébé devenant adolescent…
trollkien
JE vois surtout un vieil homme qui en a rien a secouer.<br /> Dans max 20 ans il sera cané, donc autant continuer la fuite en avant.<br /> Et en même temps, à 50 balais et sans enfant, je vois moi aussi la vie différemment, et au dela de mes idées écolo, il y a des choses depuis quelques temps RAF.
gamez
j’suis bien d’accord avec lui, n’arretons pas en si bon chemin<br /> DEVELOPERS!! DEVELOPERS!! DEVELOPERS!! DEVELOPERS!! DEVELOPERS!! * transpiration sous les bras *<br />
Core-ias
les débuts de la TV aussi avait des luminaires à la Super Trouper (ABBA)<br /> C’est juste pas la même équipe de maquillage.
Core-ias
Fini les casses pieds. On sait pas faire, l’IA fera !
MattS32
negima:<br /> Arrêtez de parler de l’IA. Ça n’existe pas et n’existera jamais. Ce sont juste des programmes qui appliquent bêtement ce qu’on a programmé de A à Z.<br /> Les IA qui font l’actualité actuellement sont des programmes qui simulent le fonctionnement de neurones (pour la plupart). Elles ne sont pas programmées pour faire une tâche précise, elles apprennent à le faire.<br /> Tout comme l’intelligence naturelle est le résultat d’un programme « générique » (ton code ADN) qui va ensuite apprendre à effectuer des tâches.<br /> Même les IA en apparence ultra-spécialisées, comme celles qui jouent aux échecs, elles ne sont pas forcément programmées pour : elles apprennent en jouant au jeu contre elles-même et/ou en regardant des parties d’autres joueurs (certaines IA apprennent même les règles simplement sans qu’on ne les leur ai données explicitement, par observation de parties existantes ou par essai/erreur : elles jouent sous contrôle d’un arbitre qui a chaque coup qu’elles jouent leur dit simplement s’il est ou non autorisé par la règle (mais sans jamais donner la règle ou pourquoi le coup n’est pas conforme à la règle)).<br /> Quand par exemple une IA apprend à reconnaître des photos de chat, à aucun moment le développeur qui a écrit le code de cette IA n’a programmé la reconnaissance de photos de chat (et pour cause, je pense qu’aucun développeur ne serait capable de programmer ça avec un tel niveau de fiabilité que ce à quoi arrivent les IA…). Et dans les IA ayant plusieurs couches de réseau de neurone, les auteurs de ces IA ne sont souvent même pas capable de décrire l’organisation interne du réseau de neurone, car cette organisation n’est justement pas programmée et pas non plus « visible » de l’extérieur.<br /> C’est d’ailleurs un des points sur lesquels certains états voudraient imposer une réglementation de l’IA, en interdisant d’exploiter des IA dont on n’a pas décortiqué et compris le fonctionnement interne.
rexxie
Le code résultant ne ressemble à rien qu’un programmeur écrirait. Il s’agit principalement d’une matrice colossale de nombres décimaux, chacun représentant le poids, ou l’importance, d’une connexion particulière entre deux « jetons ». Les jetons, tels qu’ils sont utilisés dans GPT, ne représentent rien d’aussi utile que des concepts, ou même des mots entiers. Ce sont de petites chaînes de lettres, de chiffres, de signes de ponctuation et/ou d’autres caractères.<br /> Aucun humain vivant ne peut regarder ces matrices et en tirer un sens. Les meilleurs esprits d’OpenAI n’ont aucune idée de ce que signifie un nombre donné dans la matrice de GPT-4, ou comment aller dans ces tableaux et trouver le concept de xénocide, et encore moins dire à GPT que c’est méchant de tuer des gens. Vous ne pouvez pas taper les trois lois de la robotique d’Asimov et les coder en dur comme les directives principales de Robocop. Le mieux que vous puissiez faire est de demander gentiment.<br /> (Traduit par IA)
Zorcass
Quand Elon Musk dit quelque chose, mon premier réflexe est de me demander ce qu’il a derrière la tête, suis-je le seul ?
Core-ias
Les IA qui font l’actualité actuellement sont des programmes qui simulent le fonctionnement de neurones (pour la plupart). Elles ne sont pas programmées pour faire une tâche précise, elles apprennent à le faire.<br /> Programmer une IA ?<br /> Un système expert, oui. (plein de if then else)<br /> Une IA, cela apprend, la plus primitive est le perceptron multicouches, donc une modèle de réseaux de neurones qui " peut apprendre et reconnaitre ".
Core-ias
L’IA qui ne saurait pas la " vérité " suite à un apprentissage erroné.<br /> Superman, le premier film, inversion de la rotation de la Terre pour remonter le temps.<br /> Un de mes anciens prof de math a réussi à nous montrer un résonnement par l’absurde qui fait que le périmètre d’un cercle à la même mesure que son diamètre.
jbobby
Comme dit dans plusieurs commentaires, les IA ne sont pas des programmes qui appliquent bêtement ce qu’on a programmé. Ce sont des réseaux de neurones. Cette technologie a été inventée dans les années 1950 mais ce n’est que dans les années 1990 que leur organisation en autoencodeurs a permis de faire de gros progrès en laissant la machine déterminer la structure sous-jacente des entrées. Plus récemment, le mécanisme d’attention a permis d’établir des corrélations supplémentaires. Les mots sont découpés en sous-unités porteuses d’un vecteur de signification. Le résultat est que la machine est capable d’avoir une compréhension du sens et de généraliser les concepts. Quant à savoir si cette technologie est dangereuse, je le crois. Stephen Hawking disait que l’IA pourrait causer la fin de l’humanité et selon Musk l’IA pourrait être encore plus dangereuse que l’arme nucléaire.
tfpsly
Core-ias:<br /> Un système expert, oui. (plein de if then else)<br /> Non pas du tout.<br /> MattS32:<br /> Les IA qui font l’actualité actuellement sont des programmes qui simulent le fonctionnement de neurones (pour la plupart). Elles ne sont pas programmées pour faire une tâche précise, elles apprennent à le faire.<br /> […]<br /> Quand par exemple une IA apprend à reconnaître des photos de chat, à aucun moment le développeur qui a écrit le code de cette IA n’a programmé la reconnaissance de photos de chat (et pour cause, je pense qu’aucun développeur ne serait capable de programmer ça avec un tel niveau de fiabilité que ce à quoi arrivent les IA…). Et dans les IA ayant plusieurs couches de réseau de neurone, les auteurs de ces IA ne sont souvent même pas capable de décrire l’organisation interne du réseau de neurone, car cette organisation n’est justement pas programmée et pas non plus « visible » de l’extérieur.<br /> Tout cela est vrai.<br /> Néanmoins : tous les NN actuels sont basés sur nos observations des neurones dans la rétines; le seul endroit du cerveau où l’on voit une organisation en grille des neurones. On n’a toujours pas assez de connaissance sur l’organisation du gros du cerveau. Et de l’aveu même de LeCun et autres à la pointe du domaine : on n’a passé que la première colline, il en reste encore énormément avant de pouvoir faire une vraie AGI/HumLvlAI.
Werehog
Certains commentaires témoignent d’un obscurantisme voire d’une bêtise que je ne pensais pas rencontrer sur ce site. Quand on voit qu’une IA fait peur à ce point à des humains, on comprend que ceux-là même se sentent menacés.<br /> L’IA ça existe, mais si c’est en dehors de votre compréhension, faites au moins l’effort de vous renseigner pour comprendre que comme tout apprentissage, ce n’est pas magique. De la même manière qu’avant de savoir parler ou même tenir une cuillère pour manger, on vous l’a appris. Après 20 ans d’apprentissage continu de nombreux humains ne sont pas encore au point dans un paquet de choses élémentaires, et certains passeront toute leur vie à ne pas comprendre leur prochain. On ne peut pas s’attendre à ce qu’un « gros programme informatique » ait un raisonnement, même primitif, en l’espace de quelques années. Mais ça viendra, ça viendra…
KlingonBrain
Je pense que malheureusement Bill Gates à raison.<br /> Certes, les IA posent de très nombreux problèmes/questions/dangers et vont certainement impacter très profondément notre modèle de société. C’est un vrai saut dans l’inconnu. Personne ne peut affirmer que l’homme y survivra.<br /> Mais il ne faut pas oublier que nous vivons dans un monde compétitif. Et qu’au delà de la compétition économique, il y a aussi (et surtout) la compétition militaire.<br /> Les pays qui feront preuve de frilosité prendront un retard certain avec des conséquences qui pourraient être effroyables.<br /> Imaginez seulement si un pays se dote d’une armée de robots et de drones intelligents et que nous ne sommes pas capables de développer assez vite l’équivalent pour nous défendre.<br /> Hélas, quand on constate que notre gouvernement raisonne encore par le concept dépassé de travail humain (travailler plus longtemps), c’est à dire l’économie du 18ième siècle, j’ai bien peur que notre classe dirigeante n’ait pas reçu la formation nécessaire pour comprendre les enjeux technologiques du monde d’aujourd’hui et de demain.
jbobby
La compétition mondiale, c’est en effet la vraie question. On pourrait gérer l’IA comme on a géré l’arme atomique et limiter sa prolifération, au niveau international. L’arme atomique existe depuis bientôt 80 ans et tout un chacun n’y a pas accès. L’IA dépassera l’humain c’est certain, aucune loi physique ne dit que le neurone biologique est le support optimal pour l’intelligence, mais il faut prendre le temps de faire du « damage control » car pour le moment le modèle basé sur l’intelligence humaine reste central et le détruire ferait beaucoup de mal.
Francis7
@jbobby : « en laissant la machine déterminer la structure sous-jacente des entrées. Plus récemment, le mécanisme d’attention a permis d’établir des corrélations supplémentaires. Les mots sont découpés en sous-unités porteuses d’un vecteur de signification. Le résultat est que la machine est capable d’avoir une compréhension du sens et de généraliser les concepts… »<br /> Cela me fait penser à des Analyses Factorielles des Correspondances. C’est la méthode statistique utilisée aussi en Tomographie à Emission de Posit(r)ons (PET Scan) ou en Imagerie par Résonance Magnétique fonctionnelle (IRMf).<br /> Sinon, ce sont des méthodes d’imageries médicales qui sont utilisées pour identifier les zones du cerveau qui sont « activées » lors de la réalisation de certaines tâches bien que tout le cerveau soit en activité en réalité : la vision, la compréhension du langage, son expression, la reconnaissance des visages, des émotions et l’expression du comportement, le tout en faisant appel à la mémoire à court ou long terme simultanément.<br /> ChatGPT aurait un petit problème de mémoire à court terme (le lobe frontal) parce qu’il ne retient pas tout ce qu’il y a été dit un peu avant. GTP-4, oui, il paraitrait. Je ne discute pas avec assez longtemps.<br /> Ce serait vraiment incroyable d’avoir toutes les capacités de l’intelligence humaine dans une IA à moins qu’elle soit conçue comme un cerveau avec des zones spécifiques et spécialisées que l’on peut activer au moment voulu mais en même temps toutes reliées entre elles comme notre cerveau.
Core-ias
Pourtant c’est dans mes cours universitaire d’il y a 20 ans.<br /> Tu utilise encore des cartes perforé ou quoi ?<br /> Le snake en traitement d’image est plus proche du système expert que des formules mathématique des perceptron multicouches.<br /> L’OCR est un raisonnement primitif. Trouver un chat dans une image est un peu plus dense en masse d’information.<br /> Dans le reste de ton récit, tu dis juste être " copiste " de la façons de fonctionner de la nature biologique. C’est bien en y restant trop que vous vous focaliserez en attendant que d’autres moyens de lien entre les neurones et les neurones eux même vous rapproche du cerveau biologique créé par la nature.<br /> Bonne chance, la route est longue pour ne pas faire de l’IA à son image.<br /> Aucun intérêt en industrie, mais l’industrie ne vous empêche pas d’être une forme de gourou.
Core-ias
Tout se trouve dans la machine.<br /> Logique combinatoire et tableau de carnot.<br /> La base de registre du CPU est la seule chose que je n’ai jamais regardé.
tfpsly
Core-ias:<br /> Pourtant c’est dans mes cours universitaire d’il y a 20 ans.<br /> Tu utilise encore des cartes perforé ou quoi ?<br /> C’est pourtant toi qui est resté aux if-then-else et cartes perforées. <br /> Core-ias:<br /> Dans le reste de ton récit, tu dis juste être " copiste " de la façons de fonctionner de la nature biologique.<br /> «&nbsp;Tu&nbsp;» ? Je ne suis pas Yann LeCun.
darkkanga
Bonjour,<br /> De mon point de vue les IA sont là et le resteront. « Faire une pause » ne servira à rien.<br /> Les GAFAM ont récemment montré que la destruction d’emploi ne résultait pas de l’utilisation d’une IA. Le comportent de Munsk avec Twitter montre qu’un seul homme peut prendre des décisions incroyable, incontrôlable et étonnante avec des conséquences non maîtrisées qui impactent des milliers de salariés ainsi qu’un public très large.<br /> Je pense qu’il faut rapidement encadrer les IA mais pas les limiter ou les interdire.
Nmut
Core-ias:<br /> Aucun intérêt en industrie, mais l’industrie ne vous empêche pas d’être une forme de gourou.<br /> Pourquoi aucun intérêt? Une IA simple est particulièrement adaptée pour détecter des paternes que la complexité du cerveau humain, ses préjugés et ses biais, ne peut dépasser. Sans compter la somme d’informations souvent largement supérieures à la capacité de synthèse humaine… Dans la recherche d’abord mais aussi la conception, l’industrie exploite déjà avec d’excellents résultats les IAs (idées de matériaux, d’alliage, de formes, d’algorithmes, d’optimisations, …).
ld9474
Tout comme notre cerveau est « programmé » pour interragir avec le monde extérieur (et interrieur) d’une certaine manière.
ld9474
Vous posez une très bonne question de fond. L’homme (ou n’importe quel être biologique) est-il capable de créer quelque chose de plus intelligent que lui. Autrement dit, une intelligence inférieure peut elle générer une intelligence supérieure?
HunterAlex
C’est l’IA qui va remplacer les développeurs
MisterG55
bin y’a qu’à voire mes gamins, y sont bien plus fute fute que moi! héhé
twist_oliver
avant de savoir parler ou même tenir une cuillère pour manger, on vous l’a appris<br /> Les humains apprennent dans une société régie par des lois et principes établis depuis longtemps. L’IA pour le moment n’est pas régulée, et comme le déploiement de nouvelles technologies est toujours très rapide il y a des craintes sur l’impact sur notre société. Sans aller jusqu’à évoquer Skynet où une IA mondiale prendrait le contrôle des Tesla et autres appareils domotiques pour éliminer la population, on peut craindre qu’une adoption rapide de l’IA entraîne brusquement du chômage de masse amenant à des guerres civiles puisque la société n’aura pas été prête à appliquer la répartition du travail et/ou des richesses.
philouze
« Pas trop de risques tant que l’IA ne contrôle pas des robots de type militaires pour nous empêcher de couper le courant !  »<br /> ce que certains experts nous expliquent, c’est que ce sont les IA de recommandations des réseaux sociaux qui sont devenus les principaux influenceurs politiques du monde, donc le risque est plus qu’avéré, vu que les conséquences néfastes massives de certaines IA sont déjà à l’oeuvre.
philouze
« vous posez une très bonne question de fond. L’homme (ou n’importe quel être biologique) est-il capable de créer quelque chose de plus intelligent que lui. Autrement dit, une intelligence inférieure peut elle générer une intelligence supérieure? »<br /> La pensée n’a pas de raison particulière d’échapper aux lois qui s’appliquent à la matière.<br /> Si un homme peut mettre au point des dispositifs qui sont matériellement plus forts que lui (un tractopelle…) - alors que précisément la matière est par essence plus limitante que la pensée - il n’y a pas de raison qu’il puisse faire moins bien pour la pensée.<br /> ça commence gentiment (une calculatrice) et ça peut se terminer par une IA.
ld9474
Ca me parait plus complexe que cela. Nous sommes en fait intellectuellement limités. Certains concepts nous échappent. Nul doute qu’une civilisation extraterrestre aurait une façon de penser et de conceptualiser de manière différente et donc d’avoir une intelligence différente ce qui leur permettrait de résoudre des problèmes que nous ne connaissons pas par exemple.<br /> Il y a un élément que nous ne savons pas faire aujourd’hui c’est comprendre comment on peut concilier la théorie quantique avec la physique « classique ». Serait on capable de créer une IA qui d’elle même irait résoudre ce problème insoluble? Je ne sais pas.
Core-ias
Comme tu veux.<br /> J’espérais une démonstration fondée, mais j’ai une rétention d’information.<br /> Se n’est pourtant pas une donnée vigipirate actif.
Core-ias
dans l’usine en temps qu’automate.<br /> expérimente de demander à des humains de résoudre des problèmes sans être informé et pire formé.<br /> Ensuite fait pareil avec la machine.<br /> Le comportement lui sera appris ou tu sera face au chariot du terminal dos qui clignote ?<br /> Je te vois bien créer le moyen de perdre le contrôle.
Nmut
Que vient faire un IA dans un automate? <br /> Une IA est plus un outils d’exploration et synthèse de données.<br /> Pour reprendre ton exemple de chaine de prod, une IA de supervision qui aura eu un apprentissage sur la résolution de problème de chaine de production pourra détecter et sortir des pistes de résolution sur un problème jamais encore rencontré. Le risque que les propositions soient complètement à la masse ou totalement géniales sera équivalent, il faudra faire le tri mais c’est d’une grande aide. Alors qu’un humain sera probablement limité par un apprentissage et des connaissances moins étendues et bridé par des biais probablement plus important qu’une IA correctement entrainée. Mais bien sûr pas question qu’elle gère directement la chaîne, tout comme l’ouvrier qui rencontre un problème inhabituel ne devra pas sortir des procédures et bricoler dans son coin, il n’a pas la compétence et encore moins la vue des conséquences de ses choix!
jibelito
pourtant si ! comme tu sera parti la haut, depuis QQs annèes, impossible de constater ça
Agima
L’avancement de l’IA ne sera plus jamais mis en pause, il faut arrêter de rêver.<br /> Le pays ou l’entreprise qui arrêterait serait très vite dépassée par les autres qui continueront.<br /> Les pays n’arrivent déjà pas à se mettre d’accord sur le réchauffement climatique, et non jamais émis autant de CO2, alors ce n’est pas demain qu’ils vont se mettre d’accord sur les IA.<br /> Parler de l’éthique autour de tout ça c’et bien, mais croire que ça va s’arrêter, c’est vraiment utopique à mon sens.
Core-ias
IA et robotique stp, voir domotique.<br /> Un automate à un pupitre et un système de commande. Je ne dis pas qu’un système de prévention ne peut pas être contrôlé par une IA.<br /> Comme toujours les faux positifs sont monnaies courantes.<br /> L’hybride robot/automate, il y en a un sur Mars.<br /> Les lois de la robotique ne s’applique pas à l’automate. Se sont les ingénieurs qui mettent des préventions dans le concepte avant fabrication.<br /> Elon, on reviendra sur les accidents un peu plus tard. T’es pas le seul à avoir fait un aveu.<br />
philouze
un début de réponse :<br /> L’IA modélise des modèles physiques plus vite et bien plus précis que les humains, risquant de mettre au placard tous les physiciens qui pondent des petits modèles locaux pour l’industrie, la 3D, les simulations.<br /> Et le truc fou, c’est que nous ne comprenons absolument pas comment fonctionne le modèle qu’elle propose, seulement qu’il est infiniment meilleur que les nôtres :<br /> C’est à la fois génial et flippant, parce que si un jour une guerre entre nous et les IA se joue sur la physique, on a perdu d’avance.<br /> Voilà encore un test que nombre d’entre nous pensent littéralement hors de portée de la machine (voir le début de cette discussion)
projay
bah il est en retard sur l’IA, ses embauches trainent, il veut juste du temps pour pouvoir peut-être suivre le mouvement
newseven
On est juste au commencement de l’émergence technologique.<br /> Nos technologie sont encore extrêmement primitives .<br /> Temps aussi longtemps que nous n’évoluerons pas nous resterons avec une technologique basique et l’IA ne changera rien .<br /> Nous nous accrochons à nos vielles coutumes comme notre future en dépendrait.<br /> Français,anglais,religion,ancien alphabet de 26 lettres complètement dépasser,ect<br /> Notre passé nous empêche d’évolué .<br /> Petit exemples : la température n’est pas un facteur mais de la matière.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet