Pourquoi l'imminent sommet mondial sur l'IA réunit tous les ingrédients pour faire un gros "flop"

Alexandre Boero
Chargé de l'actualité de Clubic
23 octobre 2023 à 10h49
11
Un bus rouge, le palais de Westminster, Big Ben : pas de doute, nous sommes bien à Londres © PARTH143 / Shutterstock
Un bus rouge, le palais de Westminster, Big Ben : pas de doute, nous sommes bien à Londres © PARTH143 / Shutterstock

Le sommet mondial sur la gouvernance de l'IA, qui aura lieu les 1er et 2 novembre 2023, soulève déjà des interrogations quant à son efficacité. Il devrait être basé sur un registre mondial… volontaire des grands modèles.

Le Royaume-Uni se prépare à accueillir un sommet planétaire sur la gouvernance de l'intelligence artificielle, sous l'égide du Premier ministre local, Rishi Sunak. Mais de l'événement découle une préoccupation majeure : la réunion est axée sur des scénarios apocalyptiques impliquant des IA incontrôlables. Pour les experts, qui déplorent l'aspect « non engageant » du sommet, l'approche cataclysmique n'est pas la bonne et il vaudrait mieux se concentrer sur les problèmes à court terme. Vous allez voir que les craintes d'un flop annoncé ne manquent pas.

Un sommet qui dépendra du bon vouloir des entreprises mondiales derrière les grands modèles d'IA

Le gouvernement britannique, malgré ses revirements sur des questions telles que la politique climatique ou l'engagement en faveur du forage pétrolier, communique beaucoup sur cette initiative visant à sensibiliser la communauté internationale aux dangers liés à une superintelligence artificielle qui serait hors de contrôle. Les scénarios incluent la fabrication d'armes biologiques, l'autoritarisme renforcé, la menace pour la démocratie et le système financier mondial.

Le sommet, prévu pour les 1er et 2 novembre prochains, est particulièrement important pour Rishi Sunak. Le Premier ministre britannique ambitionne de faire du Royaume-Uni le leader mondial de la réglementation de la sécurité de l'IA. Rien que ça. Sauf que de sérieuses critiques viennent entacher un événement qui n'a même pas encore débuté.

Selon Wired, deux sources très proches du sommet ont confié que ce dernier ne consisterait qu'à créer un registre mondial basé sur de grands modèles d'IA volontaires. Dès lors, on peut douter de l'efficacité d'une telle réunion, dans la mesure où celle-ci dépendra de la bonne volonté des grandes entreprises technologiques, américaines et chinoises derrière ces grands modèles. Citons notamment Amazon, Google ou Microsoft.

Les experts britanniques regrettent la tournure que devrait prendre le sommet sur l'IA © bump23 / Shutterstock
Les experts britanniques regrettent la tournure que devrait prendre le sommet sur l'IA © bump23 / Shutterstock

Les Britanniques s'estiment sous-représentés à domicile et ne veulent pas suivre les règles de l'Union européenne

Le sommet fait aussi ressurgir les tensions diplomatiques du moment. Le gouvernement américain n'approuve par exemple pas la venue de responsables chinois. Les experts en IA britanniques, eux, regrettent que l'on mette l'accent sur les catastrophes potentielles, reléguant au second plan les risques immédiats et les avantages, car il y en a aussi, de la technologie.

De façon plus détaillée, le sommet prévoit l'examen de deux types d'IA : celle aux capacités étroites mais potentiellement dangereuses ; et l'intelligence artificielle de pointe, définie par les Britanniques comme « puissante et polyvalente ». De nombreux acteurs britanniques de l'IA se sentent de fait exclus, car la majorité des entreprises capables de développer de tels modèles sont chinoises ou américaines. Le seul acteur issu du Royaume-Uni n'est autre que Google DeepMind, mais l'entreprise fondée à Londres a été rachetée par Google dès 2014, pour devenir sa branche IA. Ça compte ou pas d'après vous ?

Enfin, les experts regrettent que les débats sur une vraie réglementation nationale de l'IA soient au point mort, alors que l'Union européenne avance dans ce domaine. Dans une logique d'enfermement, les spécialistes estiment d'ailleurs que le Royaume-Uni devrait proposer ses propres règles, au lieu de suivre l'initiative de l'UE. On ne doute pas de la bonne ambiance sur place dans quelques jours.

Source : Wired

Alexandre Boero

Chargé de l'actualité de Clubic

Chargé de l'actualité de Clubic

Journaliste, chargé de l'actualité de Clubic. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJC...

Lire d'autres articles

Journaliste, chargé de l'actualité de Clubic. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJCAM, école reconnue par la profession), pour écrire, interviewer, filmer, monter et produire du contenu écrit, audio ou vidéo au quotidien. Quelques atomes crochus avec la Tech, certes, mais aussi avec l'univers des médias, du sport et du voyage. Outre le journalisme, la production vidéo et l'animation, je possède une chaîne YouTube (à mon nom) qui devrait piquer votre curiosité si vous aimez les belles balades à travers le monde, les nouvelles technologies et la musique :)

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (11)

pinkfloyd
«&nbsp;Les scénarios incluent la fabrication d’armes biologiques, l’autoritarisme renforcé, la menace pour la démocratie et le système financier mondial.&nbsp;»<br /> Non mais y a quand même un truc que je comprend pas, l’IA c’est pas un virus, pas un être vivant, c’est encore l’Homme qui décide où la mettre ou non et ce qu’elle a droit de faire…<br /> Après la façon dont elle va le faire, oui ca peut être potentiellement dangereux ( surtout pour les décisions médicales/bourses), mais que je sache elle ne peut ce connecter a des usines complètes et ce mettre a fabriquer des têtes nucléaires pour ensuite les lancer non ? ou encore licencier méthodiquement chaque employer…<br /> Ce n’est pas l’IA qui est dangereuse ( comme toute chose d’ailleurs ) c’est ce que l’humain derrière va en faire, et ca, aucun colloque ne peut le prédire/prévenir<br /> y en a qui on un peu trop regarder le dernier Mission Impossible en mode BrainLess
Hep
Bien sur que c’est l’homme qui choisi.<br /> Les armes bactériologique c’est certainement parce que l’IA peut générer des molécules très complexe que l’homme pourrait utiliser.<br /> L’autoritarisme c’est parce que l’IA pourrait noyer les réseaux sociaux d’avis allant dans le sens d’un dictateur sans que l’on puisse se rendre compte que c’est un IA qui écrit plutôt que l’avis réel de la population.<br /> Bref, c’est toujours l’homme qui a la main.
philouze
Un individu isolé qui ne dispose que d’un couteau n’est pas une menace pour l’humanité.<br /> ce même individu qui dispose d’une bombe atomique si.<br /> pourtant en soi, la bombe ne prend pas de décision et ne peut exploser seule.<br /> Tu pourrais donc en déduire que même une bombe atomique n’est pas dangereuse et que donc que ça n’est pas un sujet.<br /> C’est grâce à cet argumentaire fallacieux que la NRAA a inventé les armes à feu gentilles qui pourtant, font du pays le plus équipé du monde, celui dans lequel le plus de gens au monde, meurent par balles y compris dans les écoles.<br /> C’est la même chose.<br /> L’IA est un multiplicateur de puissance qui plus est partiellement autonome, avec du renforcement d’apprentissage, compétitif, et lui aussi de plus en plus autonome.<br /> Alors oui, tarte à la crême, c’est l’humain qui crée l’IA et c’est aussi lui qui poussera éventuellement le bouton.<br /> ça reste elle, le vrai danger, parce que ce n’est pas un Opinel.
Peter_Vilmen
Ce que tu sais pas @pinkfloyd c’est qu’en coulisse il y a des organisations qui travaillent dur pour empêcher un mauvais usage des bombes nucléaires ou du génie génétique, ils ont des colloques et tout. Pour l’IA, y’a (avait) personne. C’est ça le problème.<br /> Et oui, 95% de chance voir 100% de chance que ce soit l’humain qui en fasse mauvais usage. Bein, une solution, suffit de ne pas mettre l’IA entre toutes les mains ? Donc pas d’open source par exemple, on laisse les boîtes privées livrer un produit distillé supervisé par des organismes compétents, ce genre de choses. Faut travailler ça en amont.
bennukem
«&nbsp;Ce n’est pas l’IA qui est dangereuse&nbsp;» je pense que c’est un peu tôt pour le dire. Imaginons une IA qui a toujours raison sur tout depuis des décennies ,et un beau matin nous dirait : il faut éliminer tout le peuple xyz. Du coup, qui est dangereux, qui croire, comment agir ?
Peter_Vilmen
L’IA expliquerait son raisonnement, c’est un peu la base de ce qu’on cherche dans une IA forte, qu’elle puisse expliquer le cheminement de sa pensée.
sazearte
ce que tu propose c’est chatgpt en gros, hors chatgpt a cause de toute ces «&nbsp;restrictions morale&nbsp;» devient de moins en moins bon dans ces réponses.<br /> au taff on utilise un modèle entrainé et non censuré par nos soins et la qualité est bien meilleur, mais oui évidement si on lui parle de sujet fâcheux il répondra des trucs pas politiquement correcte et qui va froisser les petites nature.
Peter_Vilmen
Par curiosité, tu es dans quelle boîte ? Ca coute pas une blinde d’entrainer un tel modèle from scatch ?<br /> Je pense plus aux futurs modèles, ceux qui pourraient vraiment créer des cataclysmes entre de mauvaises mains.<br /> "Bon, pour créer un virus incontrôlable qui décimera la moitié de l’humanité facile, suis juste ces instructions :<br /> clique sur ce lien Amazon, ajoute au panier<br /> clique sur ce lien Amazon ajoute au panier<br /> …"<br />
sazearte
c’est pas gratuit mais non ca ne coute pas une blinde. le but c’est de faire un modele non multimodal et il est entrainé dans un domaine précis donc le dataset n’est pas énorme (500go)<br /> n’importe qui chez soit peut créer un modele reduit, pour peu qu’il un bon cpu et un bon gpu, un pc à 2000e peut le faire sans probleme.<br /> évidement vous n’aurez pas la polyvalence de chatgpt, mais dans le monde on s’en fou de la polyvalence, au contraire meme on veut de la qualité dans un périmetre precis.<br /> pour moi au contraire les modèles générique comme chatgpt sont voué a disparaitre dans futur face a des modèles plus spécifique et open source avec une meilleur qualité des réponses.
Peter_Vilmen
J’imagine que le point de départ c’est pas un modèle vierge, plus un modèle open-source non-censuré type Llama ?
Hep
Pas besoin de mettre «&nbsp;restrictions morales&nbsp;» entre guillemet, le terme est parfaitement correct. Même si cette tendance perturbe beaucoup de personnes de peu de jugeote.<br /> Et les termes «&nbsp;les petites nature&nbsp;» sont mal utilisé par contre. Le problème en l’occurrence n’est pas de froisser qui que ce soit, mais de dire des âneries et être pris au sérieux par des gens qui manque d’éducation…
sazearte
oui c’est ca, mais ca nous arrive aussi d’en faire des from scracht a partir d’une bdd a nous
sazearte
non, la morale c’est une notion très subjective et évolutive avec le temps.<br /> beaucoup de sujet sont censuré et verrouillé sur chatgpt qui me sont considéré comme morale.<br /> en france chatgpt est aussi bien plus orienté a gauche qu’a droite coté politique, ca crée des biais très pénible dans certains cas.<br /> Exemple assez simple de censure: Chatgpt est incapable de me faire une blague sur les noirs ou les lgbts, mais sur les chrétiens ou les hommes blancs hétéos y’a aucun soucis c’est open bar.<br /> dans le monde pro ou je suis ces restrictions rendent l’outils improductifs, quand on analyses les trends, les corrélations ou les schémas tous les mots et schéma de pensé sont pris en compte.<br /> notre soucis ce situe au niveau de la base de donnée, on essaie d’être le plus exhaustif possible. Cela veut dire prendre les datas sur Wikipédia mais aller taper aussi dans les livres nazis en passant par les retranscriptions officiels de Poutine.<br /> donc oui à la fin les petites natures (les associations qui râle pour tous et n’importe quoi) oui ce sente offensé alors que c’est la vision la plus objective du net sans safe space<br /> les biais que j’ai dans chatgpt france je les ai pas dans d’autres langues (mais j’en ai d’autres), ce que chatgpt france ne trouve pas morale, le chatgpt usa ou turque n’y voit aucun probleme
Hep
Les sujets censurés sont bien ceux que vous citez, le racisme et la discrimination. Si ces 2 notions vous semble morales, alors je ne peux rien pour vous.<br /> Chat GPT n’est pas a gauche, il n’est simplement pas extrémiste.<br /> Prétendre vouloir être exhaustif et mettre au même niveau de la propagande et un site qui cherche a être une encyclopédie montre a quel point vous ne maitrisez pas le sujet.<br /> Donc oui, si utiliser le terme « petite nature » signifie pour vous qu’ils ne sont pas capable de prendre en compte des théories grotesques, alors vous êtes a coté de la plaque.<br /> Et je serait bien curieux de savoir comment est utilisé un chatBot pour analyser des « trends », Ca n’a jamais été fait pour ca… Qu’une l’IA soit utilisée, OK, mais une IA conversationel…? On dirait que vous utilisez un chat bot pour lui poser des question et lui demander des data, ce serait un bien mauvaise utilisation d’une IA conversationnel? Je veux bien un peu éclaircissement…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet