OpenAI ouvre un programme de primes de bogues pour ChatGPT
OpenAI ouvre un programme de primes de bogues pour ChatGPT avec une prime de 200 $ à 20 000 $.
OpenAI a décidé d’appeler le public à trouver des bugs dans ChatGPT en annonçant un « Bug Bounty Program » visant à récompenser les personnes qui signalent des failles de sécurité, des vulnérabilités ou d’autres problèmes avec le système d’intelligence artificielle (IA).
OpenAI ouvre un programme de primes de bogues pour ChatGPT
Ce programme est ouvert à tous, des chercheurs et développeurs aux personnes ordinaires qui souhaitent en savoir plus sur cette technologie. Les récompenses sont accordées en espèces allant de 200 $ pour des « résultats insignifiants » à 20 000 $ pour des « résultats exceptionnels ». Il s’agit d’une plateforme Bugcrowd dédiée qui gère les soumissions et les paiements.
Google et Apple font partie des entreprises technologiques qui ont déjà mis en place des programmes de primes de bogues. En 2019, la firme de Mountain View a versé au moins 6,5 millions de dollars à ceux qui ont trouvé et signalé des bugs, jusqu’à la signature d’un chèque de 201 337 dollars pour une seule récompense. La société basée à Cupertino va encore plus loin, facturant jusqu’à 2 millions de dollars à quiconque trouve des moyens de « contourner les protections spéciales de verrouillage ».
Avec des récompenses allant de 200 $ à 20 000 $.
Au cours des dernières semaines, ChatGPT a rencontré un certain nombre de bugs. Le mois dernier, l’ensemble du système a dû être arrêté après que des utilisateurs ont signalé avoir vu les titres de conversation de quelqu’un d’autre. Quelques jours plus tard, un utilisateur de Twitter a affirmé avoir découvert plus de 80 plugins secrets en piratant ChatGPT.
Tout bogue signalé à OpenAI ne sera pas éligible pour des récompenses financières, y compris pour un jailbreak, ou même pour que le modèle dise quelque chose de négatif. Cette annonce de ce programme de primes aux bogues tente également de montrer que l’entreprise se soucie de la confidentialité et de la sécurité, mais ajoute également que « même si nous travaillons dur pour limiter les risques, nous ne pouvons pas prédire toutes les façons dont les utilisateurs utiliseront [cette] technologie dans le monde réel. » Le temps nous dira si cette initiative portera ses fruits.
Laisser un commentaire