OpenAI piraté – Une intrusion qui révèle les défis de sécurité de l’IA Début 2023, un pirate informatique a accédé aux systèmes de messagerie interne de l’entreprise et a volé des informations sur la conception de ses technologies d’IA. Selon deux sources familières avec l’incident, le pirate a obtenu des détails provenant de discussions sur un forum en ligne où les employés parlaient des dernières technologies d’OpenAI. Cependant, les systèmes où l’entreprise héberge et développe son intelligence artificielle n’ont pas été compromis. Les dirigeants ont révélé l’affaire au personnel lors d’une réunion générale dans les bureaux de la société à San Francisco en avril 2023. Ils ont décidé de ne pas partager la nouvelle publiquement, car aucune information sur les clients ou les partenaires n’avait été dérobée. Ils ont estimé que l’incident ne constituait pas une menace pour la sécurité nationale, pensant que le pirate était un individu privé sans liens connus avec un gouvernement étranger. OpenAI n’a informé ni le FBI ni aucune autre autorité locale. Inquiétudes et fractures internes Pour certains employés, cette nouvelle a suscité des craintes que des adversaires étrangers comme la Chine puissent voler des technologies. Cette situation a également conduit à des questions sur la manière dont l’entreprise prenait la sécurité au sérieux, révélant des fractures internes concernant les risques de l’intelligence artificielle. Après l’événement, Leopold Aschenbrenner, un responsable technique de programme chez OpenAI, a envoyé une note au conseil d’administration, arguant que la société ne faisait pas assez pour empêcher le gouvernement chinois et d’autres adversaires étrangers de voler ses secrets. Il a déclaré qu’il avait été licencié pour avoir divulgué d’autres informations en externe, soutenant que sa perte de poste était motivée politiquement. Il a évoqué l’affaire lors d’un récent podcast, soulignant que la sécurité d’OpenAI n’était pas suffisamment solide pour protéger contre le vol de secrets clés. Réponse officielle Liz Bourgeois, porte-parole d’OpenAI, a déclaré: « Nous apprécions les préoccupations soulevées par Leopold pendant son temps chez nous, et cela n’a pas conduit à son renvoi. » Elle a ajouté que, bien que l’entreprise partage l’engagement de l’intéressé à construire une AGI sûre, ils ne sont pas d’accord avec bon nombre de ses affirmations concernant leur travail. Les craintes d’un piratage lié à la Chine ne sont pas infondées. Brad Smith, président de Microsoft, a récemment témoigné sur la manière dont des pirates chinois ont utilisé les systèmes de l’entreprise pour lancer une attaque à grande échelle sur les réseaux du gouvernement américain. Selon les lois fédérales et californiennes, OpenAI ne peut cependant pas empêcher les gens de travailler pour la société en raison de leur nationalité. Matt Knight, responsable de la sécurité, a souligné l’importance d’avoir les esprits les plus brillants pour travailler sur cette technologie, malgré certains risques. Défis à venir OpenAI, comme d’autres entreprises, ajoute des garde-fous à ses applications d’IA pour empêcher leur utilisation abusive. Malgré tout, il n’y a pas beaucoup de preuves que les technologies actuelles du secteur constituent un risque significatif pour la sécurité américaine. Les entreprises comme OpenAI et ses concurrents Anthropic et Google travaillent activement à renforcer leurs mesures de protection. La société dirigée par Sam Altman a récemment créé un comité de sécurité et de sûreté pour explorer comment gérer les risques posés par les technologies futures. Les responsables fédéraux et les législateurs poussent également vers des réglementations pour encadrer l’IA. Bien que les dangers de ces technologies soient encore en grande partie théoriques, la vigilance reste de mise. Les chercheurs et les dirigeants du secteur continuent de surveiller les développements pour anticiper et atténuer les risques potentiels. Source : ActuTech |