L'IA est en plein essor et ses évolutions deviennent de plus en plus imprévisibles. S'étant récemment penché sur la question, Google a publié un nouveau cadre de sécurité. Mais encore faut-il qu'il soit pris en compte par d'autres entreprises…

On le sait, l'intelligence artificielle est un domaine en plein boom et ses acteurs tirent régulièrement la sonnette d'alarme à son sujet. L'an passé, Anthropic, à qui l'on doit Claude AI, avait alerté les gouvernements sur les risques catastrophiques liés à cette technologie. En février dernier, Meta s'était engagé à cesser tout développement si les systèmes devenaient trop dangereux. Les dernières recherches d'OpenAI, quant à elles, avaient montré que l'IA était capable de mentir pour arriver à ses fins.
Conscient des nombreux risques induits par l'évolution des modèles IA, Google vient de publier un rapport des plus intéressants. On vous explique.
La plateforme 1minAI propose en ce moment son offre Pro Lifetime à seulement 29,97 $ (environ 26 €) au lieu de 234 $, soit un accès à GPT-5 et aux autres IA majeures comme Gemini, Claude 3 ou Midjourney
Offre partenaire
Un cadre nécessaire pour prévenir les dangers de l'IA
Google a publié cette semaine la troisième version de son Frontier Safety Framework ( « cadre de sécurité Frontier » en français). L'objectif de ce document ? Définir, en l'absence de législation contraignante dans le domaine, des seuils critiques au-delà desquels l'IA pourrait échapper au contrôle humain.
Le géant de la Tech identifie trois risques principaux :
- L'utilisation de l'IA par des humains à des fins malveillantes ;
- La création, par des IA spécialisées, de systèmes IA si complexes que l'homme ne pourrait plus les comprendre ;
- Le développement d'une IA si intelligente qu'elle pourrait manipuler ses utilisateurs à loisir. Ce dernier risque nécessiterait la mise en place d'outils de surveillance capable de détecter « l'utilisation illicite des capacités de raisonnement instrumental. »
Les évolutions de l'IA présentent de nombreux risques
Avec l'essor de l'IA agentique, les risques de mensonges et de menaces contre les utilisateurs ont nettement augmenté. Cette forme d'IA peut, en effet, raisonner sans surveillance, ce qui peut, à plus ou moins long terme poser problème. C'est pourquoi Google préconise à ce sujet la mise en place de « mesures d'atténuation supplémentaires », qui ne sont malheureusement pas encore fonctionnelles.
Le problème évident est que le développement de l'IA va plus vite que les législateurs. Il appartient donc, pour le moment du moins, aux entreprises spécialisées dans le domaine de mettre en place des mesures de sécurité et des garde-fous. Cela est d'autant plus urgent que de plus en plus de chatbots réalistes arrivent sur le marché, à destination, notamment, du jeune public.
L'émergence des compagnons IA pourraient avoir des impacts négatifs considérables. On observe, par exemple, une multiplication de cas de « psychoses IA ». Des législations émergent au niveau local, comme en Californie par exemple, où un projet de loi est à l'étude. Toujours aux États-Unis, une enquête a été lancée par la Federal Trade Commission pour évaluer l'impact des compagnons IA sur les enfants.
Dans son rapport, l'équipe Google a insisté sur le fait qu'on ne pourrait « atténuer efficacement les risques pour la société que si toutes les organisations concernées offrent des niveaux de protection similaires. » Hélas, en pleine ruée vers l'or, la plupart des entreprises IA privilégient surtout des objectifs purement mercantiles.
Source : ZDNET