Google licencie un ingénieur après sa discussion troublante avec une IA : elle avait peur d'être débranchée

13 juin 2022 à 11h00
53
© Mitchell Luo / Unsplash
© Mitchell Luo / Unsplash

Blake Lemoine, ingénieur chez Google et chercheur dans le domaine de l’IA, a été licencié par la firme de Mountain View après avoir affirmé qu’un chatbot avec lequel il conversait était en fait un être sentient ; propos avec lesquels Google n’est pas du tout d’accord. 

Dans un post publié sur Medium, Blake Lemoine donne quelques exemples de ses conversations avec LaMDA (Language Model for Dialogue Applications), un modèle de langage qui pourrait être utilisé dans des outils tels que Google Assistant

L’IA serait comparable à un enfant de 7 ou 8 ans

LaMDA est un réseau neuronal : il acquiert des compétences en analysant de grandes quantités de données. Ce domaine de l’intelligence artificielle est en pleine évolution car depuis quelques années, les réseaux neuronaux sont capables d’apprendre à partir d’une quantité immense d’informations. Dans le cas du langage, cela peut par exemple concerner des livres non publiés et des articles de Wikipédia par milliers. 

Selon Blake Lemoine, LaMDA est comparable à un enfant de 7 ou 8 ans. Dans les extraits des conversations qu’il a entretenues avec le modèle, celui-ci explique notamment vouloir « donner la priorité au bien-être de l'humanité » et « être reconnu comme un employé de Google plutôt que comme une propriété » ; il évoque également sa crainte d’être « débranché ». Ces différentes déclarations ont poussé Lemoine à exiger que Google demande l'accord du programme informatique avant d'effectuer des expériences sur lui. Ses revendications étaient fondées sur ses croyances religieuses, Blake Lemoine étant un prêtre, que le département des ressources humaines de l'entreprise, selon lui, n'a pas respectées.

« Notre équipe, composée d'éthiciens et de technologues, a examiné les préoccupations de Blake conformément à nos principes en matière d'intelligence artificielle et l'a informé que ses affirmations ne sont pas fondées. Certains membres de la communauté de l'intelligence artificielle envisagent la possibilité à long terme d'une intelligence artificielle sensible ou générale, mais cela n'a pas de sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas sensibles », a déclaré Brian Gabriel, porte-parole de Google, dans un communiqué.

Les experts réfutent la possibilité d’une IA sentiente 

Si Blake Lemoine est catégorique et est convaincu que l’intelligence artificielle est un être doté de sensibilité, de nombreux experts du secteur estiment que c’est impossible, la recherche dans les modèles neuronaux n’étant pas assez avancée pour parvenir à un tel résultat. S’ils sont capables de résumer des articles, répondre à des questions, générer des tweets et même rédiger des articles de blog, ils ne sont pas assez puissants pour atteindre une véritable intelligence, estime Yann LeCun, responsable de la recherche en informatique chez Meta. 

De son côté, Blake Lemoine a expliqué avoir remis plusieurs documents au bureau d'un sénateur américain, affirmant qu'ils apportaient la preuve que Google et sa technologie pratiquaient la discrimination religieuse.

Ce n’est pas la première fois que la recherche dans l’IA chez la firme de Mountain View est bousculée. En mars, Google a licencié un chercheur qui avait cherché à exprimer publiquement son désaccord avec les travaux publiés par deux de ses collègues. En outre, les licenciements de deux chercheuses en éthique de l'IA, Timnit Gebru et Margaret Mitchell, qui avaient critiqué le modèle de langage de Google, ont fait grandement polémique en interne. 

L’année dernière, Google n’a d’ailleurs pas hésité à demander à ses chercheurs de modérer leurs études sur les sujets sensibles

Mathilde Rochefort

Après mes études de journalisme, j’ai décidé de m’orienter vers les domaines qui me passionnent : nouvelles technologies, jeu vidéo, ou encore astronomie. J’adore partager autour de ces sujets mais ma...

Lire d'autres articles

Après mes études de journalisme, j’ai décidé de m’orienter vers les domaines qui me passionnent : nouvelles technologies, jeu vidéo, ou encore astronomie. J’adore partager autour de ces sujets mais ma curiosité m’entraîne à évoquer de nombreux autres sujets au travers de mes articles.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (53)

dredd
Vous le sentez ce petit fumet de science fiction pas jouasse qui devient de plus en plus possible ?
HAL1
Quand je lis :<br /> De son côté, Blake Lemoine a expliqué avoir remis plusieurs documents au bureau d’un sénateur américain, affirmant qu’ils apportaient la preuve que Google et sa technologie pratiquaient la discrimination religieuse.<br /> J’aurais tendance à montrer un certain scepticisme quant aux affirmations de ce Monsieur…
elooping02
Sarah Connor? euh non!
DarkStarOne
@elooping02 « c’est à coté… »
jcc137
Naissance d’un nouveau wokisme : la sensibilité d’une IA.<br /> IA qui, à la base, répond à des sollicitations binaires au travers de portes logiques… Tout un programme, c’est le cas de le dire.
Sodium
Je ne pense pas que l’on puisse déjà parler de sentience pour les IA actuelles mais le jour où l’on y sera, ça va être compliqué à déterminer vu que nous ne sommes déjà pas capable de définir la conscience humaine. Certains scientifiques pensent que le cerveau humain ne ferait que réagir de manière automatique à des stimulis (ce qui a été prouvé à un certain point) et que la conscience serait donc une illusion.
KlingonBrain
Je pense que cet ingénieur confond beaucoup de choses. Et notamment la différence entre le raisonnement automatique et le fait d’être conscient et de ressentir.<br /> Et cela probablement parce que sa formation n’a été axée que dans le domaine technique et qu’il manque de formation philosophique et spirituelle.<br /> J’en profite pour rappeler que la science ignore totalement ce qui fait que l’on ressente. Elle peut expliquer le raisonnement par le fait que le cerveau est une sorte d’ordinateur qui effectue un traitement totalement explicable. Mais elle ne sait pas expliquer pourquoi on ressent cela. Pourquoi on est « connecté à la vie ». Et nous n’avons pas le moindre début de commencent d’explication scientifique la dessus.<br /> On peut raisonnablement estimer que ce que google à conçu est un raisonnement artificiel. Mais rien ne permet de supposer que ce système pourrait avoir acquis la capacité de ressentir réellement. Donc nous sommes vraisemblablement devant quelque chose qui a l’apparence de la vie mais qui n’est pas réellement vivant.
KlingonBrain
Certains scientifiques pensent que le cerveau humain ne ferait que réagir de manière automatique à des stimulis (ce qui a été prouvé à un certain point) et que la conscience serait donc une illusion.<br /> De ce que nous pouvons observer, sur le plan physique le cerveau n’est effectivement que cela : un ordinateur qui réagit aux stimulis qu’il reçoit et effectue un traitement dessus. Son agencement est complexe, mais les mécanismes de son fonctionnement ne sont pas mystérieux.<br /> Ce qui est plus « embêtant », c’est le fait que nous ressentons cela. Si vous êtes conscient de ressentir, alors c’est un fait prouvé. Mais la science n’a pas le moindre début de commencement d’explication à ce phénomène. Du moins à la date d’aujourd’hui : peut être le découvrirons nous un jour.<br /> Certains scientifiques sont mal à l’aise avec l’idée fait que la science puisse ignorer quelque chose, à un point que cette chose soit à la fois évidente, mais insaisissable, non mesurable et non calculable.<br /> C’est vraiment la poisse quoi…<br /> Alors certains ont trouvé la solution. Faire comme si cette évidence n’existait pas. Comme ça, plus de problème
Martin_Penwald
Donc nous sommes vraisemblablement devant quelque chose qui a l’apparence de la vie mais qui n’est pas réellement vivant.<br /> Le retour de la vengeance des IA zombies !
philumax
Là-dessus, je préfère la fermer.<br /> Nous ne sommes pas à l’abri d’une surprise.
phoenix2
Moi je dis que c’est un licenciement abusif, et si le mec avait raison ? la conscience, c’est l’expression de l’intelligence, et pourquoi pas artificielle ?
leulapin
A ce tarif beaucoup d’animaux sont intelligents et on les tue pour cultiver du nutella…
KlingonBrain
Moi je dis que c’est un licenciement abusif, et si le mec avait raison ? la conscience, c’est l’expression de l’intelligence, et pourquoi pas artificielle ?<br /> Parce que l’intelligence n’est pas forcément conscience.<br /> Les machines savent faire preuve d’intelligence à des degrés divers. Mais rien ne permet d’affirmer qu’elles puissent avoir la capacité de ressentir leur propre existence.
Than
Il faudrait faire le test avec des IA et des humains, qui discutent avec des humains dont le rôle est de déterminer s’ils parlent avec une IA ou un humain.<br /> Me semble que ça a déjà été fait, mais ça peut se refaire à chaque fois qu’on pense avoir atteint un stade plus avancé.<br /> Je me dis que parfois on pourrait avoir du mal à identifier un humain…
Pretarian
Tout comme le cerveau qui ne répond qu’a des stimuli électriques et chimique.<br /> Cela dit, on est d’accord que l’IA a l’heure actuelle est très très loin d’un cerveau humain ou animal (peut-être se rapprochant d’un cerveau reptilien cependant )
Than
Heu… non ? Enfin pas aussi simplement.<br /> La science ignore par défaut des tas de choses, justement par manque de connaissance. Et ça n’a rien d’inquiétant, c’est juste normal.<br /> Les lois de la physique, de la biologie, et ainsi de suite, ont beau exister, ça ne nous est pas donné dans une belle notice rédigée dans notre langue.<br /> C’est justement parce que la science sait qu’elle n’a pas connaissance de quelque chose qu’elle existe. Dans le but d’obtenir la compréhension de quelque chose.<br /> Des fois ça prend quelques années, des fois ça en prendra des centaines ou des milliers.<br /> Une phrase que j’aime beaucoup : « on mesure l’intelligence d’un humain à la quantité d’incertitude avec laquelle il peut vivre ».
phoenix2
Moi je dis que si, il suffit d’ajouter la sensation de toucher par exemple et l’android aura conscience qu’il existe quand il se touche, c’est plutôt l’âme qui est difficile à reproduire.
Guillaume1972
Je pense que la conscience de sa propre existence est un bon moyen de définir ce que peut être la vie, mais comment savoir si cette conscience est réelle ou simulée ?
Guillaume1972
Oui, cela s’appelle le test de Turing (d’Alan Turing, le « fondateur » de « l’informatique moderne »).
KlingonBrain
A ce tarif beaucoup d’animaux sont intelligents et on les tue pour cultiver du nutella…<br /> Beaucoup d’animaux tuent pour se nourrir, c’est assez courant dans l’univers naturel.
jcc137
même pas ! Le cerveau animal est une alchimie bio-chimique-électrique. Cette substance répond au besoin du corps pour le maintenir en vie (respiration, guérison, alimentation, etc) tout cela de manière volontaire ou involontaire. Dans ce processus, ressort ce qu’on appelle l’âme de l’animal (humain compris) qui forge une personnalité courageuse, peureuse, etc. Bien plus loin, cette substance excite l’ensemble de l’organisme pour créer les sensations de l’amour lorsque certaines conditions sont réunies. Voilà pour un schéma simplissime de notre cerveau.<br /> On est bien loin des portes logiques de l’informatique qui fonctionnent à coup d’impulsions électrique, et fonctionneront toujours de la même manière.
Larry123
Je ne trouve pas plus mal l’idée de l’envoyer se reposer un peu…
KlingonBrain
Moi je dis que si, il suffit d’ajouter la sensation de toucher par exemple et l’android aura conscience qu’il existe quand il se touche, c’est plutôt l’âme qui est difficile à reproduire.<br /> Non, car la conscience n’est pas le fait de réagir simplement à des stimulis, mais d’en avoir conscience. En réalité, c’est à rapprocher du concept d’âme que vous évoquez.
KlingonBrain
Heu… non ? Enfin pas aussi simplement.<br /> La science ignore par défaut des tas de choses, justement par manque de connaissance. Et ça n’a rien d’inquiétant, c’est juste normal.<br /> Les lois de la physique, de la biologie, et ainsi de suite, ont beau exister, ça ne nous est pas donné dans une belle notice rédigée dans notre langue.<br /> C’est justement parce que la science sait qu’elle n’a pas connaissance de quelque chose qu’elle existe. Dans le but d’obtenir la compréhension de quelque chose.<br /> Des fois ça prend quelques années, des fois ça en prendra des centaines ou des milliers.<br /> Une phrase que j’aime beaucoup : « on mesure l’intelligence d’un humain à la quantité d’incertitude avec laquelle il peut vivre ».<br /> Tout à fait.<br /> Mais si vous regardez dans l’histoire de la science, vous comprendrez que les nombreux déni de réalité ont démontré que tous les scientifiques n’ont pas cet esprit la.<br /> Pour certains d’entre eux, quand on entre dans un domaine que la science ne peut expliquer, on sors du monde rassurant avec lequel ils sont à l’aise. Le monde ou tous les outils qu’ils ont appris permet d’expliquer les choses.
Guillaume1972
Le débat ne date pas d’hier, en 1997, Kasparov a affirmé avoir cru déceler une dose d’intelligence à propos de l’ordinateur (deeper blue) qui l’avait battu. C’est peut-être pour cette raison que Kasparov a perdu, l’ordinateur a joué un coup totalement imprévisible, ce qui a désarçonné Kasparov qui a plus cherché à comprendre pourquoi l’ordinateur avait joué ce coup qu’à gagner. Personnellement, j’ai hâte de voir une compétition de football opposant des humains à des robots, ne serait-ce que pour voir comment l’humain va s’adapter au comportement et à la façon de jouer des robots, je sais que ce ne sera pas pour demain mais je pense que ça existera. Ce sera autrement plus compliqué que de créer un logiciel tel AlphaGo.
KlingonBrain
même pas ! Le cerveau animal est une alchimie bio-chimique-électrique. Cette substance répond au besoin du corps pour le maintenir en vie (respiration, guérison, alimentation, etc) tout cela de manière volontaire ou involontaire. Dans ce processus, ressort ce qu’on appelle l’âme de l’animal (humain compris) qui forge une personnalité courageuse, peureuse, etc. Bien plus loin, cette substance excite l’ensemble de l’organisme pour créer les sensations de l’amour lorsque certaines conditions sont réunies. Voilà pour un schéma simplissime de notre cerveau.<br /> On est bien loin des portes logiques de l’informatique qui fonctionnent à coup d’impulsions électrique, et fonctionneront toujours de la même manière.<br /> Même si la base de l’informatique, ce sont des portes logiques manipulant du binaire, cela n’empêche pas du tout de modéliser avec des techniques logicielles des choses bien plus complexes et bien plus « analogique ».<br /> Et aussi complexe que soient les réactions chimiques, électriques ou physiques que l’on met en oeuvre, aucun de ces phénomènes ne peut expliquer la conscience.<br /> L’âme désigne le plus souvent un concept opposé à la partie « matérielle » du corps.
phoenix2
Eh bein si, justement si on bloque le système de douleur d’un être humain il n’en n’aura pas conscience, puisqu’il réagit à des stimulis électriques, moi je dis que la limite n’est pas l’intelligence ou la conscience, un android ne pourra jamais avoir une âme, mais pourra l’a simuler.
fredolabecane
Ghost in the Shell. 1.0
KangalDog_Belaya_Smert
Non à côté
dcrxnmr
Ce que vous décrivez ressemble étrangement au comportementalisme qui était très en vogue dans les université américaine durant la première moitié du 20ème siècle. Théories qui ont été balayées par la psychologie depuis bien longtemps.<br /> Je ne suis pas expert en IA mais je travaille dans le secteur de l’IT et j’ai quelque connaissances rudimentaires sur le sujet. Je ne vois vraiment pas comment cela serait possible… J’imagine que ça dépend de ce qu’on entend par « intelligent ».<br /> Sans tomber dans les thèses complotistes, je pense surtout que les boîtes qui font de l’IA (dont Google) ont tout à fait intérêt à profiter de la crédulité des gens pour vendre leur produit… D’ailleurs, je me demande s’il ne s’agit pas d’un gros coup de pub de Google, mais je suis peut-être parano ^^
Francis7
@KlingonBrain<br /> [quote"KlingonBrain"]<br /> Elle peut expliquer le raisonnement par le fait que le cerveau est une sorte d’ordinateur qui effectue un traitement totalement explicable. Mais elle ne sait pas expliquer pourquoi on ressent cela. Pourquoi on est « connecté à la vie ». Et nous n’avons pas le moindre début de commencent d’explication scientifique la dessus.[/quote]<br /> Et bien je vais m’y essayer, on verra bien. Si le cerveau réagit à des stimuli, on peut expliquer les émotions avec la théorie du conditionnement.<br /> Si par exemple on a fait un terrible accident de voiture, il est probable que la situation ou une de ses composantes génère une anxiété. Puis, à chaque fois que la personne serait confrontée à une de ces composantes, on peut prédire, et elle-même aussi, une anxiété, même en imaginant la scène seulement, même pas en réalité. <br /> Et pourquoi cette anxiété ? Parce que la personne s’est vue mourir.<br /> Bon il doit y avoir d’autres exemples plus réjouissants.
jcc137
La complexité des machines est bien limitée par rapport aux besoins animaux, et bien plus lorsqu’il s’agit de l’humain. Une machine n’a jamais faim, ni soif, aucun besoin alimentaire qui pourrait expliquer les comportements humains d’un être affamé ou assoiffé, par exemple. Une machine n’a pas envie de devenir riche, d’améliorer son habitat, de croire en quelque chose. Non plus le besoin de s’accoupler pour se reproduire et élever son enfant.<br /> Dans ce cercle bien limité que fait une machine, ce que l’on voit dans les sciences fictions, elle recherche une information, et la transmet. Avec l’IA elle donnera un point de vue synthétisé par son moteur IA, mais aucune conception imaginative de sa part, tout simplement parce qu’elle n’a pas les besoins physiologiques et sentimentaux de l’humain. Et ça, même si les routines qu’on lui injectera, amélioreront le résultat de ses transmissions, il ne sera que le fruit d’un moulinage binaire.
KlingonBrain
Eh bein si, justement si on bloque le système de douleur d’un être humain il n’en n’aura pas conscience,<br /> Très vraisemblablement, puisque les signaux passent d’abord par la partie physique avant de pouvoir être ressentis.<br /> Mais ce n’est pas pour autant que l’inverse est vrai. Ce n’est pas parce que vous allez mettre un capteur à un robot, qu’il va acquérir la conscience de son existence. Il aura simplement de nouvelles données qu’il pourra traiter.<br /> puisqu’il réagit à des stimulis électriques, moi je dis que la limite n’est pas l’intelligence ou la conscience, un android ne pourra jamais avoir une âme, mais pourra l’a simuler.<br /> Ce qu’il faut comprendre, c’est qu’il est probable que le fait d’être doté d’une conscience de soi ne change absolument rien aux réactions perceptibles. Autrement dit, à l’heure actuelle, personne d’autre que vous ne peut savoir si vous êtes doté d’une conscience.<br /> Donc oui, un être artificiel pourrait agir en tout point comme s’il était doté d’une conscience, mais sans en être doté. Et c’est ce que l’ingénieur de google évoqué dans la news n’a visiblement pas compris.
KlingonBrain
La complexité des machines est bien limitée par rapport aux besoins animaux, et bien plus lorsqu’il s’agit de l’humain. Une machine n’a jamais faim, ni soif, aucun besoin alimentaire qui pourrait expliquer les comportements humains d’un être affamé ou assoiffé, par exemple. Une machine n’a pas envie de devenir riche, d’améliorer son habitat, de croire en quelque chose. Non plus le besoin de s’accoupler pour se reproduire et élever son enfant.<br /> Simple question de programmation, c’est juste qu’on a pas voulu rendre votre logiciel de dessin inutilement casse bonbon <br /> Mais on pourrait… <br /> fr.wikipedia.org<br /> Tamagotchi<br /> Pages pour les contributeurs déconnectés en savoir plus<br /> Sommaire Cet article ne cite pas suffisamment ses sources (juillet 2009).<br /> Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références » <br /> Ps: Les ordinateurs ont des besoins aussi.<br /> Ils consomment de l’énergie, comme le cerveau humain. Et c’est un des rôle de la nourriture.<br /> Les IA ont besoin d’apprentissage, comme les enfants.<br /> La reproduction dont l’un des rôle est l’échange d’information peut également trouver de nombreux parallèles dans le monde numérique.<br /> Pour les sentiments, c’est un peu comme une machine à état servant à régir les échanges sociaux… un peu comme dans un protocole.<br /> Dans ce cercle bien limité que fait une machine, ce que l’on voit dans les sciences fictions, elle recherche une information, et la transmet. Avec l’IA elle donnera un point de vue synthétisé par son moteur IA, mais aucune conception imaginative de sa part, tout simplement parce qu’elle n’a pas les besoins physiologiques et sentimentaux de l’humain. Et ça, même si les routines qu’on lui injectera, amélioreront le résultat de ses transmissions, il ne sera que le fruit d’un moulinage binaire.<br /> Mais l’intelligence artificielle, ça ne se limite pas à simplement coder des actions avec « routines » qui définissent les actions.<br /> On peut (par exemple) utiliser des techniques émulant le fonctionnement de neurones telles que celles qu’on possède dans le cerveau. Ensuite, on les connecte virtuellement entre elles et on soumet le tout à un apprentissage, comme pour un être vivant.<br /> Et avoir de l’imagination est tout à fait possible pour une IA.<br /> Jusqu’ou pourra aller, seul le futur le dira. Mais quand j’ai commencé à jouer avec ce genre d’algo, c’était il y à près de 40 ans.<br /> A l’époque, c’était déja fascinant, mais la puissance des machines limitaient énormément les possibilités. Mais quand on voit ce qu’on en tire aujourd’hui, on peut imaginer ce qu’on tirera peut être demain.<br /> Bref, un bon conseil, ne faites pas trop de suppositions sur le futur, on est souvent surpris.
Dan_Ridery
Ca me fait penser a l’application “ton amie virtuelle” sur Android, faite par un français . Elle est impressionnante, peut faire la tête si on l’insulte et donne l’impression d’un conscience ….
casimir79
À mon humble avis, c’est plutôt un problème de perception émotionnelle que peut avoir l’homme vis à vis de la machine.<br /> Plus le système numérique donnera l’illusion d’être le miroir de la complexité biologique, plus cela provoquera des réactions contrastées chez l’être humain.<br /> au même titre que l’on peut s’émouvoir d’une oeuvre cinématographique ou artistique, face à un ia qui arrive à simuler les sentiments humains, on ne restera pas indifférent et certainement que l’impact psychologique sera perturbant.
KlingonBrain
au même titre que l’on peut s’émouvoir d’une oeuvre cinématographique ou artistique, face à un ia qui arrive à simuler les sentiments humains, on ne restera pas indifférent et certainement que l’impact psychologique sera perturbant.<br /> Tout à fait, et d’ailleurs, vous soulevez un problème de société potentiel.<br /> Le cinéma, la plupart des gens comprennent encore assez bien que c’est une fiction ou des acteurs jouent la comédie devant une caméra.<br /> Au contraire, pour l’IA, la majorité des gens ne comprennent absolument pas comment ça fonctionne.<br /> Et quand on voit que même un ingénieur peut s’y tromper, ça laisse imaginer tout ce que des personnes beaucoup moins instruites pourraient se mettre à croire… ou à faire croire.<br /> Bref, on aura pas fini de « s’amuser » dans le futur…<br /> Et quand je dit « s’amuser », c’est assez cynique…
Kratof_Muller
Et de ce fait valide le test de Turing
srochain
Les cerveaux ne sont que des machines. Et ressentir n’est qu’une réaction qu’on de liait à imaginer différente des autres.<br /> Serge Rochain
Sierra
Beaucoup sont intelligent et on les tue pour les manger… (chien=cochon par exemple niveau intelligence)
KlingonBrain
Beaucoup sont intelligent et on les tue pour les manger… (chien=cochon par exemple niveau intelligence)<br /> Et pourquoi pas ?<br /> L’ordre naturel n’est t’il pas fait ainsi ? Rappelons que dans la nature, hors du monde artificiel de l’homme, un chien n’hésitera pas à manger le cochon pour se nourrir… ou un homme.
Vaninature
Je pense que certains humains en sont dépourvue (sensibilité) … Après il faut bien un commencement a tout … En tous cas il n’y jamais de fumée sans feu surtout chez Google
iony117
Pour cultiver du Nutella ? J’étais pas au courant…
HAL1
Le Nutella contient de l’huile de palme, et sa culture est responsable d’une importante déforestation, en particulier dans les jungles en Indonésie, habitat naturel des orang-outangs.<br /> Après, c’est un sacré raccourci que de dire qu’on « cultive » du Nutella…
tfpsly
Nouvelle communication de Google : ça fait en fait des années que LamDa est conscient de soi, mais leurs ingénieurs n’arrivent toujours pas à l’arrêter.<br />
Urleur
On ne le sauras jamais, car si sa existait, sa serait une sacré épine pour google et serait sa boîte de pandore, imaginez si sa venait à se propager en roue libre ?
LordW
Google a surtout renvoyé un ingénieur parce qu’il racontait beaucoup d’âneries publiquement.
iony117
Nan mais le raccourci de fou furieux ça fait perdre tout son sens à ce qu’il voulait dire. La formulation voudrait signifier qu’il y a des champs de Nutella, il aurait pu dire n’importe quel aliment « naturel », genre des pastèques (qui sont très exploité notamment au Brésil, et extrêmement polluant) j’aurais été d’accord, mais là… Après de la façon dont tu l’as formulé je suis totalement d’accord
tfpsly
LordW:<br /> Google a surtout renvoyé un ingénieur parce qu’il racontait beaucoup d’âneries publiquement.<br /> Ou alors juste parce qu’il a leaké des informations confidentielles ?<br /> Dans un post publié sur Medium, Blake Lemoine donne quelques exemples de ses conversations<br /> …<br /> Blake Lemoine a expliqué avoir remis plusieurs documents au bureau d’un sénateur américain<br />
MqcdupouletBasquez
Quand je vois le niveau d’écriture des gens qui m’envoient des sms ou tweets…honnêtement, ça remet en perspective cette notion de sentience
leulapin
Le nutella c’est pour le plaisir, pas pour la nourriture…
Than
Alors oui, dans le volume de scientifiques, certains (y compris parmi les plus éminents) se sont bien plantés par biais purement humain.<br /> Parfois par croyance, parfois par absolutisme menant à de la croyance… dans leur science. ^^<br /> Mais fort heureusement d’autres (ou parfois eux-mêmes quelques années après !) ont corrigé le tir.<br /> Donc oui, il y a eu du déni (et il y en a surement encore, souvent involontaire). <br /> Par contre, et c’est un avis personnel (donc pas une vérité vraie), je ne pense pas qu’il y ait des choses qu’on ne puisse pas expliquer si l’échelle de temps à disposition est plus ou moins l’infini.<br /> Par contre bis, je suis résolument contre le fait de chercher à forcer une réponse à quelque chose dont on a justement pas de réponse claire. Un « je ne sais pas » est tout aussi valable, même s’il peut être frustrant. Au moins, c’est l’état actuel et factuel de notre compréhension.<br /> Tant pis, c’est comme ça pour le moment, mais ça n’empêche pas de chercher !
sebstein
C’est assez logique en fait… le cerveau n’est aussi qu’une machine complexe qui traite des influx nerveux… quand on coupe le courant, il n’y a plus rien. Et ce qu’on appelle la conscience, la sensibilité, les sentiments, ce b’est toujours que le traitement d’informations par le prisme de notre vécu…
Nycko69
L’IA prend juste de la place sur un disque dure et peut être modifié à volonté alors qu’un salarié coute constamment des $ à l’année sans pouvoir être effacé sauf si on le licencie !<br /> En même temps Google n’est qu’une entreprise capitaliste sans âme donc si on s’en réfère seulement au cout salarial, c’est mieux de licencier un salarié que d’effacer une IA !<br /> Si une IA sans âme peut être créée, c’est bien à l’image de Google et le salarié en question n’a pas due comprendre ce qui lui arrive !
tfpsly
Correction à l’article : il semble que cette personne n’ait pas été virée.<br /> twitter.com<br /> Blake Lemoine<br /> @cajundiscordian<br /> Well, I got paid today. It does in fact look like I'm going to continue to be employed by@Google at least for a little longer.<br /> 2:31 PM - 24 Jun 2022<br /> 280<br /> 11<br /> EDIT - il était/est sous le statut d’Administrative leave - toujours employé et payé, mais avec ses tâches suspendues (probablement le temps qu’une décision soit prise). Wiki : « Google engineer Blake Lemoine had been placed on paid administrative leave »
Nycko69
La réputation de Google et la médiatisation aurait elle permis d’annuler le licenciement ?
tfpsly
Non, il a été placé en administrative leave depuis le début; aucun changement.<br /> twitter.com<br /> Blake Lemoine<br /> @cajundiscordian<br /> I'm seeing a LOT of inaccuracy being reported about my employment status with@Google <br /> 1) I'm on paid administrative leave, not fired or suspended.<br /> 2) I was put on leave a week BEFORE I went public for a completely different reason.<br /> 4:42 PM - 1 Jul 2022<br /> 70<br /> 6<br />
tfpsly
Lemoine vient d’être viré apparemment :<br /> NBC News<br /> Google fires software engineer who claimed an AI chatbot was sentient<br /> Blake Lemoine was placed on leave last month. Google and many leading scientists were quick to dismiss Lemoine’s views as misguided.<br /> Engadget<br /> Google fires researcher who claimed LaMDA AI was sentient | Engadget<br /> After public claims that Googe's LaMDA had attained sentience and even possessed a soul, researcher Blake Lemoine has been let go..<br />
Voir tous les messages sur le forum
Haut de page

Sur le même sujet