Sam Altman a récemment confié ses propres craintes face à la prochaine version de son modèle de langage. Des propos chocs qui interrogent, alors que GPT-5 est attendu comme une rupture dans le domaine de l'intelligence artificielle.

- Sam Altman, créateur de GPT-5, exprime ses craintes face à la puissance inédite de son modèle d'IA.
- GPT-5 promet des capacités de raisonnement et une fiabilité surpassant ses prédécesseurs, suscitant des inquiétudes.
- La régulation peine à suivre l'évolution rapide de l'IA, posant des risques de désinformation et de fraude.
L'écosystème tech retient son souffle en attendant l'arrivée de GPT-5. Annoncé comme bien plus performant que son prédécesseur, ce modèle alimente les conversations depuis des mois, notamment suite aux dernières rumeurs sur ses capacités. C'est dans ce climat d'effervescence que son propre créateur, Sam Altman, a jeté un pavé dans la mare en exprimant une inquiétude profonde, suggérant que sa créature pourrait lui échapper.

- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
Une puissance qui effraie jusqu'à son concepteur
Le témoignage a de quoi glacer le sang. Invité d'un podcast, Sam Altman ne se contente pas de présenter sa technologie ; il confesse une peur bien réelle. Il raconte avoir été personnellement « effrayé » lors de certains tests de GPT-5. Pour donner le poids de son angoisse, il convoque l'histoire et se compare aux scientifiques du projet Manhattan découvrant la bombe atomique, allant jusqu'à se poser la question fatidique : « Qu'avons-nous fait ? ».
Cette anxiété n'est pas un simple effet de manche. Elle prend racine dans les performances brutes du nouveau modèle, décrit comme « matériellement meilleur » par les rares personnes y ayant eu accès. Alors qu'OpenAI n'est plus très loin de sortir GPT-5, on lui prête des capacités de raisonnement et une fiabilité qui dépassent largement ses aînés. C'est bien ce saut qualitatif, cette puissance décuplée, qui semble nourrir les tourments de son concepteur.
Au-delà de la performance, les risques systémiques
Plus troublant encore est l'aveu d'impuissance qui accompagne ces craintes. Pour Altman, il n'y a « pas d'adultes dans la pièce », une façon crue de dire que les instances de régulation et les garde-fous sont dépassés par la fulgurance des progrès de l'IA. Cette critique acerbe de la gouvernance du secteur résonne comme un avertissement : la technologie avance plus vite que notre capacité à la maîtriser, ouvrant la voie à des dangers bien concrets comme la désinformation ou une « crise de la fraude » à grande échelle.
Le paradoxe est que cette technologie si redoutable a connu une gestation difficile. Le projet, nommé en interne Orion, a fait face à d'importants obstacles pendant plus d'un an et demi, entre des coûts de développement exorbitants et des résultats initiaux jugés décevants. OpenAI a même dû ruser, créant des données synthétiques pour compenser le manque de matériel d'entraînement. C'est donc d'un processus semé d'embûches qu'est née une intelligence artificielle dont la puissance potentielle inquiète jusqu'à son créateur.
Les déclarations de Sam Altman déplacent le débat. La question n'est plus seulement de savoir quand GPT-5 sera disponible, mais plutôt comment la société peut se préparer à une technologie dont même le créateur semble redouter le potentiel. Entre les promesses de performance et les risques systémiques, l'arrivée de ce nouveau large language model (LLM) s'annonce comme un test majeur pour l'industrie de l'IA, la forçant à confronter ses responsabilités éthiques face à la course effrénée au progrès.
Source : Tech Radar