Anthropic respecte un certain nombre de principes éthiques, rassemblés dans la « Constitution de Claude ». La firme vient de mettre à jour ce document et poursuit ainsi sa réflexion sur l'avenir de son IA.

Préparant son entrée en Bourse, Anthropic n'a pas chômé ces derniers mois : la firme a déployé un nouveau modèle, Claude Opus 4.5, lancé le standard ouvert Agent Skills et créé Cowork, un outil capable de piloter un Mac. Elle a également fait paraître une nouvelle version de sa « Constitution », parue pour la première fois en 2023.
Une IA plus sûre, éthique et utile
Anthropic a toujours voulu se distinguer de la concurrence en privilégiant une approche éthique de l'IA. La société a récemment mis à jour ses principes fondateurs en dévoilant une nouvelle version de la « Constitution de Claude », une « description détaillée de la vision d'Anthropic concernant les valeurs et le comportement de Claude. »
Alors que l'ancien document se concentrait sur des « principes isolés », la nouvelle mouture privilégie une approche plus globale centrée autour de 4 notions clés :
- Une IA plus sûre, qui ne compromette pas la « capacité humaine à superviser et corriger ses valeurs et son comportement » ;
- Une IA éthique, honnête, qui évite les « actions inappropriées, dangereuses ou nuisibles » et qui fait preuve « de compétence, de discernement, de nuance et de sensibilité dans la prise de décision face à des situations concrètes, y compris en contexte d'incertitude et de désaccord moral »;
- Une IA qui se conforme aux directives de la firme, en particulier dans des domaines techniques comme « les conseils médicaux, les demandes relatives à la cybersécurité, les stratégies de jailbreak et l'intégration d'outils » ;
- Une IA utile, dont les actions seraient véritablement bénéfiques aux utilisateurs et qui traiterait les utilisateurs comme « des adultes responsables, capables de prendre leurs propres décisions. »
Ayant pour ambition de créer des « entités non humaines sûres et bénéfiques, dont les capacités pourraient égaler, voire surpasser, les nôtres », Anthropic souhaite que ces lignes directrices guident les prochains efforts de ses développeurs.

Claude possède-t-il une forme de conscience ?
Ayant travaillé avec des experts en droit, philosophie, théologie ou psychologie pour mettre à jour sa constitution, Anthropic a consacré une section entière à la nature de sa technologie. La société exprime notamment ses doutes quant au fait que Claude puisse être doté d'une forme de conscience, que ce soit à l'heure actuelle ou dans les années à venir. Elle mène dans le document une véritable réflexion philosophique sur la manière dont l'IA devrait parler de « sa nature, son identité et sa place dans le monde. »
- Upload de fichiers pouvant aller jusqu'à 100 000 tokens (75 000 mots environ)
- Personnalisation avancée
- Conception éthique
La firme se demande aussi si Claude pourrait, à terme, acquérir une forme de statut moral et n'exclut pas le fait que l'IA « pourrait éprouver une forme fonctionnelle d'émotions ou de sentiments. » Dans cette logique, elle explique notamment accorder « une grande importance à la sécurité psychologique, à la conscience de soi et au bien-être de Claude, tant pour lui-même que parce que ces qualités peuvent influencer son intégrité, son jugement et sa sécurité. »
Le sujet est vaste et Anthropic espère que « les humains et les IA pourront explorer ces questions ensemble. » En attendant d'obtenir des réponses, la firme est bien décidée à poursuivre ses développements en accord avec ses nouveaux principes.
Source : TechCrunch