jueves, febrero 13, 2025
Ciencia y Salud

Un estudio advierte sobre los peligros de la IA para la salud mental de los adolescentes


Los sistemas de inteligencia artificial (IA) diseñados para imitar el comportamiento humano podrían generar un impacto negativo en la salud mental de niños y adolescentes aún mayor que el atribuido al uso de las redes sociales. Esta es una de las principales conclusiones de un reciente estudio publicado en la revista The Lancet.

El trabajo dirigido por Karen Mansfield, psicóloga investigadora de la Universidad de Oxford, alerta que las investigaciones científicas alrededor del problema son escasas, lo que limita la capacidad de respuesta y contención de las autoridades reguladoras, organismos sanitarios y compañías tecnológicas.


Niña en rojo, amarillo, azul y verde con la cara recortada, una forma azul pixelada con la misma forma del recorte y una textura cuadriculada

Un popular conjunto de datos de entrenamiento de IA está “robando y convirtiendo en armas” los rostros de niños brasileños sin su conocimiento o consentimiento, según denuncian activistas de los derechos humanos.


La comunidad científica aún no ha alcanzado un consenso sobre los efectos de las redes sociales en la salud mental de los jóvenes. Vivek Murthy, exdirector de salud en Estados Unidos, advirtió que la permanencia excesiva y prolongada en servicios de interacción social en la niñez puede conducir a diversos problemas psicológicos y de comportamiento, incluidas alteraciones de sueño y dificultades para relacionarse con el entorno. En contraparte, un informe de la Asociación Estadounidense de Psicología sostiene que el uso de plataformas social media “no es inherentemente beneficioso ni perjudicial para los jóvenes”.

Los colegas de Mansfield consideran que ahora es prioritario centrar este debate en los sistemas de IA, antes de que la tecnología sea adoptada de manera masiva por los menores de edad. Indican que, desde la aparición de los televisores hasta la masificación de los teléfonos inteligentes, la humanidad ha experimentado periodos recurrentes de inquietud sobre de las tecnologías basadas en pantallas.

“A lo largo de estos ciclos muchos estudios han problematizado la innovación, reforzando las preocupaciones en lugar de establecer guías útiles [de uso] o establecer políticas de salud bien dirigidas. Si no aprendemos de los errores del pasado, podríamos perder la oportunidad cada vez menor de comprender y dar forma a la manera en que la IA afectará a los niños y adolescentes en la próxima década”, sentencia la especialista.

El riesgo de la IA avanzada

El equipo de la Universidad de Oxford señala que las funciones de IA que intentan emular las capacidades cognitivas y de razonamiento de los humanos y aquellas que permiten generar deepfakes podrían ser potencialmente dañinas para el bienestar psicológico de la población joven. Mansfield agrega que las herramientas de autodiagnóstico y los sistemas de recomendación de contenido automatizados pueden aumentar los casos infantiles de depresión, ansiedad y trastornos alimentarios.

“Con una IA similar a la humana que mejora o habilitada para moderar las interacciones en línea, la gama de beneficios y daños para los niños y adolescentes es más diversa de la que se atribuye a las redes sociales y los juegos en línea”, advierte la psicóloga.

Los científicos acusan que las investigaciones que basan sus conclusiones en métricas como el tiempo de uso tienen limitaciones para medir el impacto real de las nuevas tecnologías en niños y adolescentes. Alegan que estos esfuerzos no abordan el contenido dañino al que los menores pueden estar expuestos y las dinámicas de interacción perjudiciales que se generan en estas plataformas. Expresan reservas sobre las políticas que se han promovido para limitar las horas de navegación y las restricciones de edad para acceder a ciertas aplicaciones.

Los expertos consideran que estas medidas “minimizan el deber y la necesidad [de las empresas] de regular el contenido dañino, poniendo la responsabilidad en los padres y tutores o en la integración masiva de tecnologías de control no probadas, que se ha relacionado con riesgos para la privacidad y la seguridad”.

Los investigadores destacan la ausencia de datos consistentes y estandarizados para abordar este problema de alcance global. Insisten en que es crucial cerrar esta brecha y acelerar las investigaciones sobre los riesgos de la IA para evitar los escenarios de discusión que las redes sociales provocaron hace más de una década y que ahora limitan los esfuerzos para garantizar la seguridad en línea de los jóvenes.



Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *