Propone reconfigurar el algoritmo para identificar al adolescente vulnerable y que le lleguen mensajes positivos que lo alejen de esos comportamientos. Entre el 25 y 30 % de los adolescentes se ha autolesionado en alguna ocasión.
Entre el 25 y 30 por ciento de los adolescentes se ha autolesionado en alguna ocasión. Esta conducta aparece entre los 11 y los 15 años se amplifica con con las redes sociales.
Un fenómeno cada vez más extendido entre los adolescentes y que ha centrado un estudio de varios psiquiatras del Hospital Virgen Macarena de Sevilla. En él se apunta a la inteligencia artificial como una eficaz herramienta contra estas conductas.
Los investigadores creen que modificar algoritmos de redes sociales que amplifiquen mensajes positivos y psicoeducativos entre jóvenes vulnerables puede tener "efecto disuasorio".
El estudio se centra en identificar patrones lingüísticos, conductuales o emocionales para prevenir esta actitud mediante mensajes positivos y replicables, de índole psicoeducativa.
El proyecto defiende un papel activo de la IA en la reconfiguración de su algoritmo para que, en los contenidos que propone a adolescentes con antecedentes de búsquedas relacionadas con comportamientos autolesivos, priorice la circulación de mensajes digitales protectores y contenidos preventivos.
Según el estudio, la exposición digital puede modular la consolidación y difusión de comportamientos autolesivos en adolescentes vulnerables.
Atendiendo a esta lógica, la rápida propagación de estos comportamientos en entornos digitales y un patrón de contagio entre adolescentes puede resultar "disuasorio" modificar el algoritmo recomendatorio hacia mensajes protectores que potencien la educación emocional.
Un contenido digital positivo, emocionalmente atractivo y fácilmente replicable que modele un afrontamiento saludable, fomente la búsqueda de ayuda e inhiba la imitación de conductas autolesivas son los "útiles digitales" que plantea el estudio como instrumentos preventivos.
Los autores proponen incluso una serie de medidas para lograr una moderación más estricta de los contenidos sensibles en las plataformas y para desarrollar mensajes protectores "co-creados" por jóvenes influyentes y profesionales sanitarios.
El objetivo es difundir estos mensajes a través de campañas en redes sociales y apoyarlos con tecnologías de IA que puedan personalizar algoritmos y amplificar mensajes positivos entre adolescentes en riesgo de comportamientos autolesivos.
Aunque la modificación de los algoritmos de las redes sociales requiere un marco regulatorio adecuado y la colaboración activa de las plataformas, los autores creen que es una medida "técnicamente viable".
Lejos de plantear una dicotomía entre riesgo digital y beneficio, esta postura contempla un uso estratégico de las redes sociales y la IA para transformar la propagación viral en prevención.