Des employés, anciens et actuels, de Google DeepMind et OpenAI ont partagé une lettre alertant sur la rapidité de développement des modèles d’intelligence artificielle générative. Selon eux, les motivations financières des fournisseurs empêchent un contrôle approprié pour mitiger les risques de la technologie.
Depuis le lancement de ChatGPT fin 2022, l’industrie technologique s’est lancée dans une course effrénée à l’IA, chacun redoublant d’efforts pour déployer la technologie et ne pas se faire devancer. C’est cette précipitation que dénoncent les auteurs de la lettre ouverte, qui demandent, entre autres, une meilleure protection des lanceurs d’alerte dans le contexte de l’IA.
Parmi les 11 signataires, on retrouve notamment Geoffrey Hinton, chercheur éminent dans les réseaux neuronaux, qui a décidé de quitter Google en 2023 pour alerter sur les conséquences d’un développement incontrôlé de l’intelligence artificielle.
Les signataires réclament une meilleure protection des lanceurs d’alerte
Ils s’inquiètent des « faibles obligations » reposant sur les entreprises pour partager des informations avec les gouvernements sur les capacités et les limites de leurs systèmes. D’après eux, cacher ces informations revêt un intérêt financier certain, tandis que les systèmes sécuritaires mis en place au sein des sociétés ne sont pas suffisants. Il y a quelques jours, OpenAI formait un comité de sécurité dans lequel le P.-D.G. Sam Altman siège.
Les chercheurs citent de nombreux risques liés à l’IA, allant de la désinformation à l’aggravation des inégalités existantes. « L’extinction de l’humanité » est mentionnée dans la missive.
Outre la réluctance des entreprises à faire part des dangers de leurs modèles, les signataires regrettent l’absence de protection pour les lanceurs d’alerte souhaitant s’exprimer. « De larges accords de confidentialité nous empêchent d’exprimer nos préoccupations, sauf auprès des entreprises qui ne s’attaquent peut-être pas à ces problèmes. Les protections ordinaires des dénonciateurs sont insuffisantes, parce qu’elles se concentrent sur les activités illégales, alors que de nombreux risques qui nous préoccupent ne sont pas encore réglementés », écrivent-ils.
Ces propos sont tenus malgré l’engagement récent d’OpenAI de supprimer les clauses de non-dénigrement que l’entreprise faisait signer à ses employés, leur faisant courir le risque de perdre leurs actions s’ils critiquaient la start-up.
Les signataires appellent les entreprises d’IA à s’engager sur divers points : ne pas conclure ou appliquer des accords interdisant la critique des risques, mettre en place une procédure anonyme permettant aux employés actuels et anciens de faire part de leurs préoccupations, soutenir une culture de la critique et promettre de ne pas exercer de représailles à l’encontre de ceux qui partagent des informations confidentielles pour lancer des alertes « après que d’autres procédures ont échoué ».
Beaucoup d’inquiétudes, mais peu d’actes
La publication de cette lettre intervient après le départ récent de plusieurs cadres d’OpenAI. Ilya Sutskever et Jan Leike supervisaient le « super-alignement » des modèles de l’entreprise, une discipline dont l’objectif est de garantir qu’ils agissent dans l’intérêt de l’humanité.
« Nous convenons qu’un débat rigoureux est crucial compte tenu de l’importance de cette technologie, et nous continuerons de nous engager auprès des gouvernements, de la société civile et d’autres communautés dans le monde entier », a sobrement réagi OpenAI à la publication de la lettre.
Ce n’est pas la première fois que des chercheurs alertent sur les dangers de l’IA. Dès mars 2023, des milliers d’experts, dont Elon Musk, appelaient à une interruption de 6 mois de la recherche dans l’IA générative. Quelques mois plus tard, des têtes éminentes de la Silicon Valley, dont Sam Altman, estimaient que l’IA serait potentiellement aussi destructrice qu’une guerre nucléaire…
Source : Clubic