OpenAI abre un programa de recompensas por errores para ChatGPT
OpenAI abre el programa de recompensas por errores para ChatGPT con una recompensa de $ 200- $ 20,000.
OpenAI ha decidido apelar al público para encontrar errores en ChatGPT al anunciar un «Programa de recompensas por errores» destinado a recompensar a las personas que reportan fallas de seguridad, vulnerabilidades u otros problemas con el sistema de inteligencia artificial (IA).
OpenAI abre un programa de recompensas por errores para ChatGPT
Este programa está abierto a todos, desde investigadores y desarrolladores hasta personas comunes que estén interesadas en aprender sobre esta tecnología. Las recompensas se otorgan en efectivo que van desde $200 por “resultados insignificantes” hasta $20,000 por “resultados excepcionales”. Esta es una plataforma dedicada de Bugcrowd que maneja envíos y pagos.
Google y Apple se encuentran entre las empresas de tecnología que ya han implementado programas de recompensas por errores. En 2019, la empresa de Mountain View pagó al menos 6,5 millones de dólares a quienes encontraron y reportaron errores, hasta e incluyendo la firma de un cheque por 201 337 dólares por una sola recompensa. La compañía con sede en Cupertino va aún más allá, cobrando hasta $ 2 millones a cualquiera que encuentre formas de «eludir las protecciones especiales de bloqueo».
Con recompensas que van desde $ 200 a $ 20,000.
Durante las últimas semanas, ChatGPT ha encontrado una serie de errores. El mes pasado, todo el sistema tuvo que cerrarse después de que los usuarios informaron haber visto los títulos de conversación de otra persona. Solo unos días después, un usuario de Twitter afirmó haber descubierto más de 80 complementos secretos mientras pirateaba ChatGPT.
Cualquier error informado a OpenAI no será elegible para recompensas financieras, incluido un jailbreak, o incluso para que el modelo diga algo negativo. Este anuncio sobre este programa de recompensas por errores también intenta demostrar que la empresa se preocupa por la privacidad y la seguridad, pero también agrega que «mientras trabajamos arduamente para limitar los riesgos, no podemos predecir todas las formas en que los usuarios utilizarán [esta] tecnología en el mundo real». El tiempo dirá si esta iniciativa dará sus frutos.
Deja una respuesta