Unity va présenter en mars, au GDC, une version bêta de son outil d'IA capable de générer des jeux occasionnels complets à partir d'instructions en langage naturel. Zéro ligne de code. Intégré directement dans l'éditeur.

©Bangla press / Shutterstock
©Bangla press / Shutterstock

Vous ne connaissez peut-être pas Matthew Bromberg, mais il est le P-DG d'Unity, l'un des moteurs de jeu les plus utilisés au monde. Et ce qu'il a lâché pendant la présentation des résultats financiers de son entreprise a fait l'effet d'une petite bombe. « La création de jeux pilotée par l'IA est notre deuxième axe de développement majeur pour 2026. » En mars, au Game Developpers Conference, Unity dévoilera une nouvelle version bêta de Unity AI, son assistant intégré à l'éditeur. Pour faire simple, on décrira un jeu en texte et l'outil génèrera la logique, les ressources visuelles et la structure — du prototype au produit fini, sans toucher au code.

Le P-DG cible pour l'instant les jeux dits occasionnels, ces petits formats courts et accessibles. Mais Matt Bromberg a aussi avancé un chiffre autrement plus ambitieux.

Des dizaines de millions de créateurs qui n'ont jamais ouvert Unity

« Des dizaines de millions » de nouvelles personnes pourraient créer des divertissements interactifs grâce à ces outils, selon le dirigeant. Pas des développeurs qui cherchent à aller plus vite — des gens qui n'ont jamais touché à un moteur de jeu. Un vidéaste avec une idée de jeu narratif. Un enseignant qui veut un quiz jouable pour ses élèves. Un auteur dont l'univers pourrait devenir interactif.

Jusqu'ici, « démocratiser le développement de jeux » était surtout une formule. Si l'on tape une phrase et qu'un prototype jouable en sort, la barrière technique tombe pour de bon — du moins sur le papier.

Unity joue le rôle d'assembleur et d'interface, pas de modèle propriétaire - ©rafapress / Shutterstock
Unity joue le rôle d'assembleur et d'interface, pas de modèle propriétaire - ©rafapress / Shutterstock

Unity assemble, elle n'invente pas

Ce que Matt Bromberg ne met pas en avant dans ses annonces, c'est l'architecture réelle de l'outil. Pour la génération de code, Unity utilise GPT d'OpenAI et Llama de Meta. Pour les visuels, Scenario et Layer AI, eux-mêmes construits sur Stable Diffusion, FLUX ou GPT-Image. Unity joue le rôle d'assembleur et d'interface, pas de modèle propriétaire.

Pour lui, c'est cohérent. L'assistant aura « une connaissance approfondie du contexte du projet et de l'environnement d'exécution », ce qui devrait produire de meilleurs résultats que ChatGPT utilisé seul pour coder un jeu. Unity connaît son moteur mieux que n'importe quel modèle généraliste. Mais si OpenAI ou Meta modifient leurs conditions d'accès, Unity en absorbe le choc directement, et ses utilisateurs aussi.

Matt Bromberg prévoit la bêta pour mars. Le PDG avait déjà essuyé des critiques publiques sur certaines annonces IA par le passé.