Adolescentes y chatbots: los temas que la IA ya no podrá tocar
Un estudio reciente reveló que la Inteligencia Artificial, lejos de ser un apoyo confiable, puede resultar poco efectiva e incluso peligrosa cuando los adolescentes le piden orientación sobre asuntos sensibles.

Inteligencia artificial
Un estudio reciente reveló que la Inteligencia Artificial, lejos de ser un apoyo confiable, puede resultar poco efectiva e incluso peligrosa cuando los adolescentes le piden orientación sobre asuntos sensibles.
Un reciente estudio encendió las alarmas: consultar a la Inteligencia Artificial sobre temas delicados puede ser no solo poco efectivo, sino también peligroso para los adolescentes. Las pruebas revelaron que los modelos de IA, al no contar con la sensibilidad ni el criterio humano necesarios, pueden ofrecer respuestas inadecuadas o incluso dañinas para los jóvenes en etapa de formación.
Ante estos hallazgos, Meta –el modelo de IA de WhatsApp, Instagram, Facebook o Threads– anunció que impondrá nuevas restricciones a su modelo de IA: los adolescentes ya no podrán interactuar con el sistema respecto a temáticas sensibles como salud mental, sexualidad, consumo de sustancias o situaciones de violencia, entre otros.

Según la compañía, el objetivo es proteger a los menores de respuestas que puedan confundirlos o ponerlos en riesgo, al mismo tiempo que se desarrollan nuevas medidas de seguridad y acompañamiento digital.
“Queremos que la experiencia de los jóvenes con la IA sea constructiva, segura y confiable”, señalaron desde Meta, adelantando que trabajan en nuevas herramientas de control parental y filtros avanzados para asegurar un uso responsable.
Este cambio marca un punto de inflexión en la relación entre la IA y las nuevas generaciones, en un momento donde la tecnología ocupa cada vez más espacio en la vida cotidiana de niños y adolescentes.