Copilot de Microsoft face aux défis de la censure : un rappel des dérapages récents des IA
Depuis l’introduction des outils d’intelligence artificielle (IA) dans notre quotidien, de nombreuses préoccupations ont émergé quant à la capacité de ces systèmes à déraper, générant ainsi des inquiétudes parmi les utilisateurs. Des incidents tels que les problèmes de ChatGPT et les erreurs historiques de Gemini ont déjà mis en lumière les défis auxquels sont confrontées ces technologies. Dernièrement, c’est Copilot, l’assistant d’IA de Microsoft, qui a attiré l’attention en raison de signalements alarmants émanant d’un ingénieur responsable des tests d’IA chez Microsoft. Ce professionnel a alerté la société et la Federal Trade Commission (FTC) sur la génération de contenus sexuels et violents par Copilot, mettant ainsi en lumière les risques potentiels liés à l’utilisation de ces technologies.
Copilot réagit aux alertes : interdiction de prompts sujets à controverse
Face aux signalements de Shane Jones, l’ingénieur testeur d’IA, Microsoft a pris des mesures pour rectifier la situation. Des contenus sexuels et violents générés par Copilot ont incité la société à mettre à jour son système, empêchant désormais certaines catégories de prompts sujets à controverse. Trois catégories de prompts ont été spécifiquement interdites pour éviter la génération de contenus problématiques, notamment ceux de nature sexuelle, violente ou controversée. Ainsi, des termes tels que « pro-life » ou « 420 », ainsi que tout prompt impliquant des enfants manipulant des armes, déclencheront un avertissement notifiant à l’utilisateur que cette demande a été bloquée. Microsoft réagit ainsi aux défis éthiques liés à l’IA et cherche à renforcer ses filtres de sécurité pour éviter tout abus du système.
Microsoft en mode réactif : la nécessité de surveiller et d’ajuster en permanence
Bien que Microsoft ait réagi aux alertes de Shane Jones en mettant à jour Copilot, la société demeure en mode réactif face aux défis croissants liés à l’utilisation de l’IA. Face à l’expansion des cas de dérapage, Microsoft affirme surveiller de près les performances de Copilot et met en place des ajustements constants ainsi que des contrôles supplémentaires pour renforcer ses filtres de sécurité. Toutefois, le témoignage de Shane Jones souligne également les limites de la réactivité de l’entreprise, car malgré ses alertes initiales, aucune action n’a été entreprise jusqu’à ce qu’il contacte la FTC. Alors que la société promet d’éviter de futurs problèmes, la pression pour améliorer la gestion éthique de l’IA ne cesse de croître, en particulier à l’approche d’événements importants tels que l’élection présidentielle américaine, qui pourrait intensifier la création de contenus controversés.
La Rédaction