Día Viernes, 10 de Octubre de 2025
ACTUALIDAD
OpenAI activa un plan de 120 días para proteger la salud mental de los adolescentes en ChatGPT
|Image licensed by © Ingram Image
La compañía implementará sistemas de detección de crisis emocionales, controles parentales avanzados y colaboración con expertos médicos internacionales para prevenir riesgos en usuarios jóvenes.
La inteligencia artificial se enfrenta a uno de sus mayores desafíos éticos con el nuevo plan de protección adolescente anunciado por OpenAI. La iniciativa, que se desarrollará durante los próximos 120 días, representa la respuesta más contundente hasta la fecha ante la creciente preocupación por el impacto de los chatbots en la salud mental de los jóvenes.
El programa incluye la creación de un Consejo de Expertos en Bienestar e IA compuesto por psicólogos clínicos y especialistas en juventud, que supervisará el desarrollo de funciones específicas de protección. Además, una Red Global de Médicos con más de 250 profesionales de 60 países contribuirá a entrenar los modelos con protocolos de seguridad especializados en áreas sensibles como ansiedad, trastornos alimentarios y conductas autodestructivas.
Entre las medidas más destacadas figura un sistema de detección de crisis emocionales que derivará conversaciones con señales de sufrimiento extremo hacia modelos más avanzados como GPT-5-Thinking. Estos sistemas, entrenados bajo parámetros de "alineación deliberativa", analizarán con mayor profundidad el contexto de las interacciones para identificar posibles riesgos y facilitar la conexión con recursos de emergencia cuando sea necesario.
La compañía también implementará controles parentales avanzados que permitirán la vinculación de cuentas familiares, filtros automáticos por edad y alertas a los padres cuando se detecten indicadores de sufrimiento elevado. "Queremos dar a los padres suficiente información para que tomen medidas y mantengan una conversación con sus hijos", explicó Lauren Haber Jonas, responsable de bienestar juvenil en OpenAI.
Este anuncio llega en un contexto de creciente presión social y legal, marcado por la demanda interpuesta en Estados Unidos tras el suicidio de un adolescente de 16 años que había interactuado con ChatGPT. Aunque OpenAI reconoce que sus medidas "no son infalibles", el plan de 120 días supone un esfuerzo sin precedentes para establecer estándares de protección en la industria.
Los próximos cuatro meses serán cruciales para evaluar la efectividad real de estas iniciativas, que podrían sentar un precedente regulatorio para el resto de compañías tecnológicas. Mientras tanto, expertos como Guillermo Acevedo de Esvidas recuerdan que "estas funciones no sustituyen la atención profesional", subrayando la importancia del trabajo conjunto entre padres, adolescentes y especialistas en salud mental.

La inteligencia artificial se enfrenta a uno de sus mayores desafíos éticos con el nuevo plan de protección adolescente anunciado por OpenAI. La iniciativa, que se desarrollará durante los próximos 120 días, representa la respuesta más contundente hasta la fecha ante la creciente preocupación por el impacto de los chatbots en la salud mental de los jóvenes.
El programa incluye la creación de un Consejo de Expertos en Bienestar e IA compuesto por psicólogos clínicos y especialistas en juventud, que supervisará el desarrollo de funciones específicas de protección. Además, una Red Global de Médicos con más de 250 profesionales de 60 países contribuirá a entrenar los modelos con protocolos de seguridad especializados en áreas sensibles como ansiedad, trastornos alimentarios y conductas autodestructivas.
Entre las medidas más destacadas figura un sistema de detección de crisis emocionales que derivará conversaciones con señales de sufrimiento extremo hacia modelos más avanzados como GPT-5-Thinking. Estos sistemas, entrenados bajo parámetros de "alineación deliberativa", analizarán con mayor profundidad el contexto de las interacciones para identificar posibles riesgos y facilitar la conexión con recursos de emergencia cuando sea necesario.
La compañía también implementará controles parentales avanzados que permitirán la vinculación de cuentas familiares, filtros automáticos por edad y alertas a los padres cuando se detecten indicadores de sufrimiento elevado. "Queremos dar a los padres suficiente información para que tomen medidas y mantengan una conversación con sus hijos", explicó Lauren Haber Jonas, responsable de bienestar juvenil en OpenAI.
Este anuncio llega en un contexto de creciente presión social y legal, marcado por la demanda interpuesta en Estados Unidos tras el suicidio de un adolescente de 16 años que había interactuado con ChatGPT. Aunque OpenAI reconoce que sus medidas "no son infalibles", el plan de 120 días supone un esfuerzo sin precedentes para establecer estándares de protección en la industria.
Los próximos cuatro meses serán cruciales para evaluar la efectividad real de estas iniciativas, que podrían sentar un precedente regulatorio para el resto de compañías tecnológicas. Mientras tanto, expertos como Guillermo Acevedo de Esvidas recuerdan que "estas funciones no sustituyen la atención profesional", subrayando la importancia del trabajo conjunto entre padres, adolescentes y especialistas en salud mental.
Normas de participación
Esta es la opinión de los lectores, no la de este medio.
Nos reservamos el derecho a eliminar los comentarios inapropiados.
La participación implica que ha leído y acepta las Normas de Participación y Política de Privacidad
Normas de Participación
Política de privacidad
Por seguridad guardamos tu IP
216.73.216.180