OpenAI activará el control parental después del suicidio de un menor tras hablar con ChatGPT
Lo ocurrido en California ha obligado al dueño de la compañía, Sam Altman, a reconocer errores y tomar medidas inmediatas.

El suicidio de un menor estadounidense la pasada semana a causa de una supuesta conversación con ChatGPT -según los padres del menor, la IA "ayudó activamente" a su hijo a tomar la decisión- ha encendido todas las alarmas respecto a la utilización de la inteligencia artificial en edades tempranas y los riesgos que pueden tener para los más pequeños. Ante este suceso, OpenAI, matriz de ChatGPT, ha movido ficha para reducir al máximo la probabilidad de que sucesos tan dramáticos como estos vuelvan a ocurrir.
Por este motivo, durante esta semana el gigante de IA ha anunciado que implementará a su tecnología controles parentales. "Estos pasos son solo el comienzo. Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible", señaló la empresa a través de un comunicado en el que no ha hecho referencia a ninguna de las denuncias recibidas.
La denuncia más flagrante ha llegado por parte de los padres del menor que se suicidó la pasada semana a la edad de 16 años. Y todo ello, según los progenitores como consecuencia a meses de conversaciones entre su hijo y ChatGPT. Tras esto, los padres denunciaron a la compañía, algo que ha obligado al dueño de OpenAI, Sam Altman, a reconocer fallos en las medidas de seguridad del 'chatbot'.
Reconoció que su asistente de IA no es perfecto, que comete fallos en casos puntuales y "sensibles" pero que tratarán de cambiar a la mayor brevedad. Y así parece que será, aunque no hay una fecha determinada. El control parental anunciado se incluirá en la IA a partir del mes de octubre, aunque no se ha detallado el día concreto.
Entre las funciones que de esta nueva herramienta destacan la posibilidad de que los padres puedan vincular su cuenta con las de sus hijos, así como poder revisar las conversaciones que ChatGPT mantiene con los menores e incluso notificar a los padres en caso de que detecte una inestabilidad emocional preocupante en el menor.
Sin embargo, esto parece no convencer ni contentar a algunos sectores sociales y políticos de Estados Unidos, que encuentran en la versión ChatGPT-5 un serio problema para los menores, especialmente si atraviesan momentos complicados o de cierta inestabilidad emocional.
De hecho, el pasado mes de julio, un grupo de senadores estadounidenses mandaron una carta a la empresa en la que le exigían información acerca de las iniciativas en la prevención de las autolesiones y el suicidio. Por otro lado, el grupo Common Sense Media afirmó el pasado mes de abril que los menores de 18 años no deberían poder conversar con la IA ya que esto implica "riesgos inaceptables".
