IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les défis de l'IA responsable : les outils d'IA tiers seraient la cause de 55 % des échecs de l'IA dans les entreprises
Selon une étude du MIT Sloan Management Review et le Boston Consulting Group

Le , par Mathis Lucas

30PARTAGES

3  0 
Connor Leahy, expert en sécurité de l'IA, demande à la Chambre des Lords de plafonner la puissance de calcul
pour prévenir la création d'une IA qui menacerait la survie de l'espèce humaine

Connor Leahy, expert en IA et PDG de la startup d'IA Conjecture, a fait des propositions qualifiées de surprenantes pour prévenir la menace existentielle que l'IA fait planer sur l'humanité. L'une de ses recommandations politiques consiste à plafonner la puissance de calcul à laquelle les entreprises et les startups d'IA peuvent avoir accès pour créer et entraîner des systèmes d'IA. Il explique que cela devrait empêcher la naissance d'un système d'IA de type Skynet qui pourrait échapper au contrôle de ses créateurs et menacer la survie de l'humanité. Cependant, sa proposition est controversée, certains l'accusant de vouloir nuire à l'innovation et consolider la position des grandes entreprises d'IA.

Dans un post sur X.com la semaine dernière, Leahy a déclaré avoir récemment été invité à la Chambre des Lords du Royaume-Uni pour discuter de la question. Leahy fait partie de ceux-là qui pensent que l'IA représente une menace existentielle pour l'humanité et que l'apparition d'une intelligence générale artificielle (IGA) pourrait signifier la fin de l'histoire humaine. D'autres PDG influents de la sphère technologique - dont Sam Altman d'OpenAI, Mustafa Suleyman d'InflectionAI, qui développent les systèmes d'IA les plus perfectionnés - se disent également préoccupés par les progrès rapides dans le domaine de l'IA. Ils appellent à une réglementation stricte.

« J'ai eu beaucoup de plaisir à m'adresser à la Chambre des Lords au sujet du risque d'extinction lié à l'IA. Ils ont été attentifs et ont établi des parallèles entre notre situation actuelle et les efforts de non-prolifération nucléaire déployés pendant la guerre froide. Cela m'a certainement donné matière à réflexion et à espoir », a écrit Leahy dans un long message sur X.com. Bien que Leahy, cofondateur et PDG de la startup d'IA Conjecture, appartienne au même bord que les dirigeants susmentionnés, ses propos semblent beaucoup plus alarmants et ses propositions à la Chambre des Lords vont bien au-delà d'une simple réglementation. Leahy a notamment écrit :

« L'IA est en phase exponentielle, les choses évoluent très, très rapidement. Comme nous l'avons appris avec la Covid, il n'y a que deux moments pour réagir dans une exponentielle : trop tôt ou trop tard. Je pense qu'il devrait y avoir un moratoire complet sur le développement de l'IA utilisant des niveaux de puissance de calcul sans précédent. Chaque fois que l'on teste une nouvelle IA, on ne sait pas ce qui va surgir de l'autre côté. Un jour, ce sera la roulette russe, et si vous vous retrouvez à jouer à la roulette russe, j'ai une recommandation à vous faire : arrêtez. Mais les entreprises de l'IGA ne s'arrêtent pas. Et c'est là que le gouvernement entre en jeu ».



Leahy a déclaré que ses collaborateurs et lui se tiennent prêts à collaborer avec la Chambre des Lords du Royaume-Uni pour élaborer un cadre idéal au développement de l'IA et qui éliminerait les risques existentiels pour l'humanité. Lorsque l'auditoire lui a demandé à quoi ressembleraient exactement ses recommandations pour faire face aux risques de l'IA, Leahy a répondu en énumérant les points suivants :

  1. responsabilité des développeurs et des utilisateurs : responsabilité stricte pour les dommages causés par les systèmes d'IA qui s'applique non seulement à l'utilisateur, mais aussi au développeur. Si vous développez un système de clonage de la voix et qu'il est utilisé par des criminels pour commettre des délits, vous devriez également être responsable ;
  2. plafonnement de la puissance de calcul : les entreprises ne peuvent pas dépasser une quantité prédéterminée de puissance de calcul lorsqu'elles entraînent leurs IA. Plus la puissance de calcul utilisée pour alimenter ces systèmes d'IA est importante, plus ils deviennent performants et dangereux. Nous recommandons de fixer ce plafond à un yottaFLOPS (1024 FLOP, soit environ la taille de ChatGPT) ;
  3. un "Kill Switch" mondial pour l'IA: cette proposition vise la mise en place d'un cadre où les gouvernements construisent l'infrastructure pour pouvoir arrêter les déploiements de systèmes d'IA puissants et les entraînements si nécessaire, et la testent régulièrement avec des scénarios critiques.


Les propositions de Leahy ont été vivement critiquées dans la communauté. Il est accusé de vouloir nuire à l'innovation et à la concurrence, mais également de vouloir restreindre l'accès à certains types de composants informatiques. « Ce type veut littéralement rendre illégale la possession d'une GPU de jeu. Qu'est-ce que c'est que ce cirque ? Il avait l'air raisonnable jusqu'à il y a environ six mois, maintenant il a juste l'air complètement fou », a écrit un critique. D'autres affirment que l'idée selon laquelle la responsabilité des développeurs sera engagée si leurs systèmes d'IA sont utilisés à mauvais escient est une "erreur" qu'il ne faut surtout pas commettre.

« C'est une erreur monumentale. Et je suis pour une réglementation aussi stricte que possible. C'est comme si quelqu'un s’était tué avec un couteau et que la justice affirme que l'entreprise qui a fabriqué le couteau a une part de responsabilité dans l'affaire. Un tel jugement est un non-sens complet et personne n'aurait plus rien inventé depuis fort longtemps », peut-on lire dans les commentaires. Un autre critique a écrit : « des normes absurdes. Nous devons faire honte à l'homme des cavernes qui a découvert le feu pour tout le mal qu'il a fait. Ces propositions relèvent plus des travaux d'un gourou que d'un soi-disant expert en IA ».

« Pour paraphraser, nous devrions laisser d'autres pays, comme la Russie et la Chine, dominer ce qui deviendra la technologie la plus importante de notre époque et peut-être même la plus importante de tous les temps. Si vous n'aimez pas la vitesse à laquelle tout le monde court, le fait de vous ralentir signifie que vous perdez, cela ne ralentit pas la course. La dangerosité de ses propositions réside dans le fait que cela donne du zèle à des législateurs qui ne comprennent rien à la technologie dont ils parlent. Dans ces conditions, nous verrons bientôt des "crédits de calcul", à l'instar des crédits de carbone de l'escroquerie verte », a écrit un critique.

Par ailleurs, l'on considère que la limitation de la puissance de calcul proposée par Leahy est un problème qui pourrait se résoudre tout seul à long terme. Des initiatives ont révélé que des petits modèles de langages peuvent afficher des performances qui égalent parfois celles des grands modèles de langage. Selon certains rapports, les petits modèles peuvent donner de bons résultats s'ils sont entraînés à l'aide de données provenant de grands modèles. Selon certains critiques, une fois que nous aurons de grands modèles, libres ou non, il sera beaucoup moins coûteux de faire de la recherche et de ne pas avoir besoin d'autant de puissance de calculs.

« Ils ne sont pas du tout bien intentionnés. Comme Altman, il veut créer des obstacles réglementaires trop importants pour les nouveaux venus. Si les dispositions de Leahy sont adoptées, en particulier le partage de la responsabilité entre le développeur de l'IA et les criminels qui utilisent l'IA à des fins criminelles, le Royaume-Uni sera tout simplement exclu de la course à la technologie. Les entreprises qui souhaitent utiliser l'IA iront tout simplement voir ailleurs, et un autre pays reprendra la technologie. Cela ne contribuera pas du tout à limiter l'IA à l'échelle mondiale, mais cela contribuera grandement à limiter l'économie », a écrit un critique.

En ce qui concerne l'interrupteur d'arrêt d'urgence, Leahy a déclaré : « le problème fondamental de l'IGA n'est pas qu'elle soit maléfique ou qu'elle présente un aspect spécifiquement dangereux qu'il faut éliminer. C'est le fait qu'elle soit compétente. Si vous ne pouvez pas contrôler une IA compétente, de niveau humain, alors elle est par définition dangereuse ». Altman a proposé de créer un organisme international chargé de contrôler les projets d'IA à l'instar de l'Agence internationale de l'énergie atomique qui régit l'énergie nucléaire. Cette nouvelle entité serait chargée d'évaluer et de restreindre tout effort d'IA au-delà d'une certaine capacité.

Les législateurs britanniques craignent que la prochaine itération des modèles d'IA, en dessous du niveau de l'IGA, puisse être manipulée par des acteurs malhonnêtes pour produire des menaces sérieuses telles que des armes biologiques. L'IA open source, où les modèles qui sous-tendent la technologie sont librement accessibles et modifiables, est une préoccupation connexe. Ils affirment qu'ils travaillent également à la lutte contre les risques à plus court terme, tels que la désinformation et les violations des droits d'auteur. Mais des critiques, comme Yann LeCun, responsable de l'IA chez Meta, estiment que la clameur autour de l'IA est exagérée.

Selon l'un de ces contre-arguments, le bruit est un stratagème cynique pour réglementer et cloisonner le marché et consolider la position des grands acteurs comme le développeur OpenAI de ChatGPT, Google et Microsoft. D'autres affirment que le fait de se concentrer sur les risques existentiels ne tient pas compte des conséquences immédiates des systèmes d'IA, comme l'utilisation sans autorisation des œuvres protégées par le droit d'auteur pour construire des modèles d'IA et le recours à des travailleurs faiblement rémunérés pour effectuer certaines des tâches de construction des modèles. Selon eux, ces problèmes sont plus urgents à régler.

Source : Connor Leahy

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des propositions de Connor Leahy ?
Ses propositions permettront de résoudre les problèmes qu'il évoque ?
Sont-elles réalistes ? Que pensez-vous des critiques à l'égard des propositions ?
Quels pourraient être les impacts des propositions de Leahy sur l'IA si elles étaient adoptées ?
Que pensez-vous des appels à la mise en place d'un moratoire dans le développement de l'IA ?
Quelle en serait l'utilité ? Pensez-vous que l'IA ou l'IGA représente une menace existentielle pour l'humanité ?
Faut-il réglementer l'IA ? Si oui, quelles pourraient être les dispositions importantes de cette réglementation ?

Voir aussi

Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

Le responsable de l'IA chez Meta affirme que l'intelligence artificielle n'est pas encore aussi intelligente qu'un chien et rejette l'idée selon laquelle les robots allaient s'emparer du monde
Vous avez lu gratuitement 3 420 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/10/2025 à 0:05
Belle hypocrisie ou naïveté de ces 800 "bien-pensants", c'est selon!

1. Parmi les 800 signataires, il y a de nombreux "chercheurs" qui ont été à l'origine de l'IA. Si il y avait des risques, il ne fallait pas commencer ce genre de développement!

2. Une fois qu'une découverte arrive dans les mains des financiers, plus rien ne l'arrête... C'est la fuite en avant... L'appel de l'argent balaie tout: L'éthique, la morale, la moindre précaution

3. Il ira de l'IA comme des armes de guerre: Il n'y a pas un seul exemple dans l'histoire d'une arme qui aurait été inventée et qui n'a pas fini par être utilisée pour tuer son prochain.
2  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 23/10/2025 à 5:40
C'est donc 800 personnes qui ne savent même pas ce qu'est l'IA, car jusqu'à preuve du contraire, l'IA n'est en rien intelligente et les modèles actuels n'arriveront jamais à cet état.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 23/10/2025 à 8:44
Citation Envoyé par jnspunk Voir le message
C'est donc 800 personnes qui ne savent même pas ce qu'est l'IA, car jusqu'à preuve du contraire, l'IA n'est en rien intelligente et les modèles actuels n'arriveront jamais à cet état.
Ils le savent très bien, ne t'en fais pas.

C'est juste que si la hype descend, la bulle éclate. Alors il faut faire du bruit et agiter les bras très fort pour que les gens continuent d'investir: "ouuuuuuuh!!! L'IA est intelligente et dangereuse!!!"
2  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 23/10/2025 à 22:27
Je ne doute pas que certains y croient réellement. Pour ceux-là, je penche pour le défaut de conception : ce n'est pas avec les technos actuelles que ça arrivera, et croire le contraire c'est encore se bercer de "si" plutôt que de regarder la pratique de manière objective (i.e. sans biais de sélection dans les arguments).

Pour d'autres, c'est peut-être l'occasion de se donner une excuse de ne pas réussir à faire mieux : on entrevoit l'échec futur des promesses, et pour éviter le backlash on met en place une limite artificielle pour qu'on puisse dire ensuite "je n'ai pas échoué, j'ai suivi les recommandations de ne pas le faire".

Pour d'autres encore, comme le mentionne kain_tn, c'est pour jouer sur les marchés, mais j'y touche pas donc je serais bien incapable de dire plus là-dessus, surtout pas pour les faire aller dans quel sens.

Ce que je retiens, c'est qu'on parle de 800 signataires dont des parrains de l'IA, ça fait très important comme ça, mais in fine on site 2-3 personnes qu'on entend toujours pour ça... Ce n'est pas comme si certains disaient le contraire auparavant et avaient "ouvert les yeux" pour se joindre au mouvement. Là il y aurait du neuf.

Au final on nous reparle de gens dont on a déjà parlé pour les même choses, il s'agit juste de leur nouvelle action dans ce sens. Rien de nouveau sous le soleil... Et y voir la royauté ne donne que du poids médiatique, certainement pas argumentaire.
1  0 
Avatar de doublex
Membre confirmé https://www.developpez.com
Le 23/10/2025 à 21:11
https://www.developpez.net/forums/d1...e/#post7820383
0  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/10/2025 à 10:29
Citation Envoyé par Matthieu Vergne Voir le message
[...]Pour d'autres, c'est peut-être l'occasion de se donner une excuse de ne pas réussir à faire mieux : on entrevoit l'échec futur des promesses, et pour éviter le backlash on met en place une limite artificielle pour qu'on puisse dire ensuite "je n'ai pas échoué, j'ai suivi les recommandations de ne pas le faire".[...]
Je n'avais pas envisagé ce point. C'est une véritable possibilité, surtout si on prend OpenAI qui fait des pieds et des mains pour se sortir des promesses faites aux actionnaires.

Au final, je pense que c'est sans doute une combinaison des trois points que tu as cité: on a les pigeons, la mauvaise foi, et les spéculateurs (on est vendredi, donc j'ai le droit)
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 24/10/2025 à 10:51
Citation Envoyé par Stéphane le calme Voir le message
Peut-on réellement freiner une technologie mondiale sans créer de clandestinité scientifique ?
Non on ne peut pas empêcher le développement d'une technologie qui peut donner un avantage lors d'une guerre.
Des grands pays (comme les USA par exemple) vont développer la technologie en secret.
Si la Chine interdisait aux entreprises chinoises d'essayer de créer une super-intelligence, ça motiverait encore plus des entreprises US ainsi que l'état US d'y arriver.

Citation Envoyé par Stéphane le calme Voir le message
Les États ont-ils encore le pouvoir de contrôler des entreprises privées capables de rivaliser avec eux sur le plan technologique ?
En principe oui, il faut juste mettre en place des lois pour limiter les entreprises.
Par contre à l'échelle mondiale c'est compliqué.

Citation Envoyé par Stéphane le calme Voir le message
Les « pères de l’IA » sont-ils les mieux placés pour définir les limites de ce qu’ils ont eux-mêmes créé ?
Les pères de l'IA ne sont pas spéciaux, si ils n'avaient pas travaillé dans l'IA, d'autres l'auraient fait et on en serait au même point.

Citation Envoyé par Stéphane le calme Voir le message
Le risque existentiel de l’IA est-il plus urgent que les risques déjà visibles : désinformation, chômage, dépendance numérique ?
Sans l'IA il y aurait autant de désinformation, autant de chômage, autant de dépendance numérique.
Enfin, la différence ne serait pas radicale.

Citation Envoyé par Stéphane le calme Voir le message
Meghan Markle
Ils ont sûrement peur d'un scénario à la Terminator.
Ça ne coûte rien de dire "on devrait interdire le développement d’une intelligence artificielle super-intelligente", comme ça si jamais une entité y arrive et que ça a des conséquences catastrophiques sur le monde, les acteurs du début pourront dire "On vous l'avait dit !".
0  0 
Avatar de pierre.E
Membre confirmé https://www.developpez.com
Le 30/10/2025 à 19:39
"La présence de figures publiques comme Prince Harry et Meghan Markle"

flipper le dauphin et oui-oui auraient eu plus de poids
0  0