Quand l'IA s’incruste dans nos SMS, elle provoque souvent une réaction négative. L’authenticité et la confiance entre amis ou proches risquent de s’effriter quand on découvre que l’on ne parle plus directement à une personne, mais à un texto généré.

Un SMS rédigé par ChatGPT peut vous frustrer - ©Bits And Splits / Shutterstock
Un SMS rédigé par ChatGPT peut vous frustrer - ©Bits And Splits / Shutterstock
L'info en 3 points
  • L'IA dans les SMS peut altérer l'authenticité des échanges, créant des doutes sur l'implication personnelle.
  • Les utilisateurs perçoivent souvent les messages IA comme moins personnels, affectant la confiance et la spontanéité.
  • L'IA peut aider à gérer des conversations délicates, mais l'implication humaine reste cruciale pour maintenir la confiance.

Depuis le premier envoyé en décembre 1992, il s'est échangé en France, chaque trimestre, la bagatelle de 30 milliards de SMS selon l'Arcep. Sans vraiment le savoir, aujourd'hui, de nombreux utilisateurs échangent avec des chatbots, au point de les considérer parfois comme des compagnons proches. Et lorsque l'IA intervient dans la rédaction de textos, on peut y laisser son amitié.

Plusieurs études récentes indiquent que les messages manifestement assistés par une IA altèrent la perception qu’on a de l’autre. Une recherche menée par l’Université de Cornell montre que les réponses générées par l’IA paraissent plus efficaces, mais elles conduisent à juger plus sévèrement la personne qui les utilise. Le lien humain semble s’effacer au profit d’un texte calibré.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
9 / 10

Quand l’IA remplace le conseil de l’ami, la confiance vacille

Business Insider a recueilli des témoignages, comme celui de Sarah Chiappetta, responsable marketing à San Francisco. Elle s'est récemment interrogée après avoir reçu un message trop parfait d’une amie. Le texte, dégoulinant d'empathie et ponctué d’un tiret cadratin inhabituel, l’a alertée. Elle s’est demandée si son amie avait eu recours à ChatGPT pour répondre. Cette sensation de lire un texte préfabriqué laissait une impression étrange, même si elle n’en a pas tenu rigueur. Ce type d’expérience est fréquent. Sur les réseaux sociaux, les réactions fusent quand quelqu’un découvre que ses proches utilisent l’IA pour écrire à leur place. Certains parlent de messages qui ressemblent à une corvée ou de lettres qu’on ne considère plus comme personnelles.

Un sondage récent de Hily, une application de rencontres, indique que 45 % des jeunes de la génération Z jugent que l’emploi d’IA dans les échanges réduit l’authenticité. Le problème concerne le message lui-même, mais aussi ce qu’il signifie. Le lien humain semble moins clair quand une machine intervient. Quinn White, professeur de philosophie à Harvard, explique que la différence est profonde. L’IA propose une suite de mots cohérente, mais un ami répond selon ce qu’il pense. Dans une conversation, on attend un retour personnel, pas une probabilité statistique.

Les études universitaires confirment la tendance. Une expérience menée à Cornell a montré que, même si l’IA rend les réponses plus efficaces, les utilisateurs évaluent plus sévèrement leurs interlocuteurs qui s’en servent. En parallèle, une enquête à l’Université d’Ohio a montré que les participants percevaient une distance plus grande avec un ami fictif qui utilisait l’intelligence artificielle pour écrire. Les messages semblaient moins adaptés et la relation, plus distante.

Cette fracture a des conséquences durables. Les échanges perdent en spontanéité et en naturel. La confiance s’érode quand on ignore si la personne derrière le message s’implique réellement. Jess Hohenstein, ancienne chercheuse en IA à Cornell, évoque le risque d’un repli vers les échanges en face à face. Difficile d’accorder du crédit à une réponse quand on doute de son origine.

Pour rassurer ou consoler un ami, rien ne vaut le SMS que l'on rédige soi-même - ©Kostiantyn Batylchuk / Shutterstock

L’IA sert aussi à mieux gérer des échanges difficiles

Heureusement, dans certains cas, ChatGPT peut aider certains utilisateurs à apaiser des conversations délicates. Sarah, en pleine procédure de divorce, utilise l’IA pour reformuler ses messages à son ex-mari. Elle rédige ses frustrations, puis demande à ChatGPT de transformer le tout en un texte respectueux, mais ferme. Ce travail l’aide à exprimer le fond sans provoquer d’escalade.

Dans certains cas, cette aide reste compatible avec une relation de confiance. Sarah a demandé à son amie si elle avait utilisé ChatGPT dans un message. L’échange s’est arrêté là. Elle continue à lui faire confiance, même si une partie de ses réponses passe par un assistant. D’autres, comme David Deal, consultant à Washington, y voient un moyen de mieux se faire comprendre. Il a utilisé ChatGPT pour formuler un message destiné à une jeune collègue, en évitant tout ton condescendant. L’IA lui a suggéré d’ouvrir la réponse avec plus d’empathie et de reformuler les inquiétudes de son interlocutrice. Il estime qu’il n’aurait pas pensé à le faire ainsi de lui-même.

Cette nuance fait toute la différence. Marisa T. Cohen, spécialiste des relations chez Hily, souligne que la vraie question porte sur le degré d’implication. Quand quelqu’un délègue l’intégralité d’un message à une IA, l’échange devient impersonnel. En revanche, demander un appui pour reformuler un propos ou arrondir les angles ressemble davantage à un coup de pouce, comme on en trouve dans un livre ou auprès d’un proche.

Dans un groupe de discussion, ChatGPT peut résumer des échanges si l’on a manqué plusieurs heures de messages. Le résultat est souvent clair et utile, mais il passe à côté des détails subtils et des blagues internes. Lors d’un test, l’IA a interprété une simple boutade sur la journée du sandwich comme une fête culturelle. La reformulation proposée avait loupé le ton du groupe. Pour organiser un week-end entre amis, ChatGPT avait proposé une phrase censée être drôle, mais qui sonnait faux. Ce type de maladresse rappelle que l’écriture reste aussi affaire d’intonation. Quand on veut conserver l’esprit d’un échange, mieux vaut taper ses propres mots ceux que l'on a au fond du cœur et au bout des doigts.

Source : France Bleu, Business Insider (accès payant)