Le Conseil d'État vient de stopper net le système de vidéosurveillance algorithmique de Nice. La justice administrative refuse d'autoriser l'analyse automatisée des caméras de surveillance sans texte de loi explicite.

La justice bloque l'intelligence artificielle dans la vidéosurveillance publique française. © Zuyeu Uladzimir / Shutterstock
La justice bloque l'intelligence artificielle dans la vidéosurveillance publique française. © Zuyeu Uladzimir / Shutterstock

Des caméras qui repèrent automatiquement les voitures mal garées, et des algorithmes qui alertent la police en temps réel, voilà ce que Nice voulait installer devant ses écoles. Mais ce vendredi 30 janvier, le Conseil d'État a coupé court aux ambitions technologiques de la commune dirigée par Christian Estrosi. La plus haute juridiction administrative française estime que ce genre de traitement automatisé des images de vidéosurveillance dépasse ce que la loi autorise. Et cela pourrait changer la donne au niveau national.

Le code de la sécurité intérieure ne suffit pas pour autoriser les algorithmes

En avril 2023, la CNIL débarquait à la mairie de Nice pour procéder à un contrôle. Ce qu'elle a découvert fut le début d'une bataille juridique, avec comme acteur principal le dispositif baptisé « zone d'intrusion entrées des écoles ». Concrètement, il s'agit d'algorithmes qui scrutent en continu les flux vidéo des caméras municipales, détectent les véhicules en stationnement irrégulier pendant les heures d'ouverture, et déclenchent automatiquement une alerte pour la police.

L'escalade administrative a débuté en novembre 2024, avec une mise en demeure de la CNIL. Six mois plus tard, le couperet tombe et le système niçois est jugé non conforme. La municipalité ne l'entend pas de cette oreille et contre-attaque en juillet devant le Conseil d'État. Son raisonnement, sur le papier, a du sens. Si la loi autorise les caméras, pourquoi bloquer l'analyse automatisée de leurs images ?

Sauf que le Conseil d'État ne suit pas ce raisonnement. Pour les juges, il y a un gouffre entre filmer la rue et laisser une machine analyser automatiquement ces images. L'article L. 251-2 du code de la sécurité intérieure dit clairement « oui » aux caméras. Mais il ne dit rien sur les algorithmes. Et ce silence ne peut pas être interprété comme une permission. Il faudrait une loi spécifique pour cela.

Même sans être à haut risque, l'IA reste interdite dans les caméras publiques

La décision du Conseil d'État rendu publique ce vendredi 30 janvier 2026 trace une sorte de ligne nette entre deux mondes. Dans le premier, une caméra filme, et un humain regarde l'écran si besoin. Dans le second, la caméra filme, un algorithme scanne tout en permanence, repère des situations et déclenche des actions. C'est ce basculement vers la surveillance automatisée qui franchit le seuil de l'acceptable pour les juges.

Nice a donc tenté une dernière parade, en indiquant que son système n'était même pas classé comme IA à « haut risque » selon les critères européens. L'argument vient d'être balayé d'un revers de main par le Conseil d'État. Peu importe l'étiquette technique, aucune disposition législative française n'autorise aujourd'hui ce type de traitement automatisé dans l'espace public. La balle est désormais dans le camp du législateur.

Cette jurisprudence tombe comme un pavé dans la mare des villes connectées. Combien de communes ont déjà budgété des systèmes similaires pour gérer le stationnement sauvage, fluidifier la circulation ou sécuriser leurs établissements ? Toutes vont devoir mettre leurs projets en suspens. En attendant une éventuelle loi, l'intelligence artificielle ne regardera pas par-dessus l'épaule des caméras françaises.