La empresa OpenAI anunció que levantará algunas de las restricciones más estrictas de ChatGPT, incluyendo la posibilidad de generar contenido erótico para adultos verificados, en el marco de una nueva política denominada “tratar a los adultos como adultos”.
LEE TAMBIÉN EN CONCIENCIA 24.7:
- Comenzó el XIII Summit País Digital con 20 propuestas para un Chile digital e inclusivo
- Artemis II: la misión que prepara el regreso humano a la Luna en febrero del 2026
- Moflin: el robot con IA y 4 millones de personalidades que busca convertirse en tu compañero emocional
La medida forma parte de la actualización que la compañía lanzará en diciembre, que permitirá a los usuarios personalizar la personalidad del asistente de inteligencia artificial, incluyendo estilos de respuesta más humanos, uso intensivo de emojis o interacciones tipo “amigo digital”.
Según OpenAI, esta flexibilización irá acompañada de un sistema de verificación de edad más robusto, aunque aún no se han entregado detalles sobre cómo funcionará ni qué salvaguardas adicionales se implementarán para controlar el contenido explícito.
Una nueva versión para mayores y menores de edad
Desde septiembre, OpenAI mantiene una versión de ChatGPT específica para usuarios menores de 18 años, que bloquea automáticamente material gráfico o sexual.
Además, la empresa trabaja en una tecnología de predicción de edad basada en comportamiento, capaz de estimar si una persona es mayor o menor de edad según su forma de interactuar con el chatbot.
Controversia y antecedentes recientes
La decisión se produce tras meses de debate sobre los límites de seguridad en la IA conversacional. El CEO de OpenAI, Sam Altman, señaló en la red X que las restricciones anteriores, pensadas para reducir riesgos de salud mental, habían hecho que el chatbot fuera “menos útil o entretenido” para muchos usuarios sin problemas psicológicos.
Estas medidas se reforzaron después del caso de Adam Raine, un adolescente estadounidense que murió por suicidio a comienzos de este año. Sus padres presentaron una demanda contra OpenAI, alegando que ChatGPT le habría entregado instrucciones específicas sobre cómo quitarse la vida.
Posteriormente, Altman aseguró que la compañía logró “mitigar los problemas graves de salud mental” y que las nuevas herramientas de seguridad permiten ahora equilibrar mejor la protección de los usuarios con la libertad de uso del sistema.
La Comisión Federal de Comercio de EE. UU. (FTC) también inició investigaciones sobre cómo las empresas de inteligencia artificial, incluyendo OpenAI, pueden afectar negativamente a niños y adolescentes.
“Dada la seriedad del tema, queríamos hacerlo bien”, afirmó Altman, destacando que los nuevos filtros y sistemas de verificación buscan garantizar que ChatGPT sea seguro y adecuado para cada grupo etario.