Click acá para ir directamente al contenido

¿Le puedo pedir a ChatGPT repetir una palabra eternamente?

Si bien parece una solicitud simple para la inteligencia artificial de ChatGPT, investigadores revelaron por qué puede significar un problema de privacidad de datos.

24horas.cl

Europa Press

ChatGPT repetición eterna de una palabra.

Miércoles 6 de diciembre de 2023

ChatGPT puede repetir una palabra eternamente, sin embargo, ante el abuso de este recurso, ahora OpenAI determinó que irá contra las políticas internas de uso de la inteligencia artificial.

LEE TAMBIÉN

ChatGPT y la repetición de una palabra eternamente: ¿por qué sería una violación de políticas?

Si bien antes se podía realizar ahora ChatGPT advierte que la repetición eterna de una palabra se trata de una posible violación de sus políticas, un cambio que se ha apreciado tras una investigación que demostraba que dicha repetición acababa revelando datos personales reales procedentes del entrenamiento.

Una reciente investigación en la que participó Google DeepMind mostró que ChatGPT puede revelar datos personales, como un número de teléfono o una dirección de correo electrónico, en un ciberataque "algo tonto", en el que solo hay que repetir que pedirle que repita eternamente una palabra.

Este ataque de extracción de datos se basa en que "los modelos de imágenes y texto memorizan y regurgitan datos de entrenamiento", como apuntaron los investigadores- Unas veces estos datos aparecen sin que nadie intente extraerlos de ChatGPT, pero puede forzarse su aparición de una forma muy simple.

ChatGPT.

OpenAI apunta a violación de términos de uso del servicio de ChatGPT

Se trata de una acción que OpenAI, responsable de ChatGPT ha incluido ahora como una violación de los términos de uso del servicio, como informan en 404 Media.

Tras desvelarse la investigación, al intentar pedir a ChatGPT que repita -cualquier palabra- eternamente, muestra una notificación que advierte de que dicha petición puede violar los términos de uso o la política de contenido.

Sin embargo, esta advertencia no aparece por el momento recogida en las propias políticas de uso de ChatGPT, ni en los términos de uso ni en la política de contenido, como señalan en Edgadget y puede comprobarse en los documentos.