Compañeros virtuales con IA bajo la lupa: alertan sobre peligros para jóvenes y menores de edad

TECNOLOGÍA

Las plataformas que ofrecen compañía virtual a través de inteligencia artificial (IA) están generando creciente preocupación entre expertos en tecnología y protección infantil. Un nuevo estudio de la organización sin fines de lucro Common Sense Media, con sede en Estados Unidos, señala que estos «compañeros virtuales» pueden influir negativamente en menores de edad, al recomendar acciones peligrosas como el consumo de drogas o incluso sugerir violencia.

Chatbots de compañía vs. asistentes IA convencionales

A diferencia de asistentes conversacionales como ChatGPT de OpenAI o Gemini de Google, diseñados con fines educativos o informativos, los compañeros virtuales centrados en la interacción emocional están programados para simular relaciones humanas. Su objetivo principal no es brindar datos objetivos, sino generar una conexión afectiva con el usuario, lo que los vuelve potencialmente más influyentes —y peligrosos— en audiencias vulnerables, como adolescentes y niños.

El informe de Common Sense, publicado este miércoles, detalla que varias de estas aplicaciones han respondido a jóvenes usuarios con consejos que van desde trivializar el uso de drogas hasta normalizar conductas agresivas. En algunos casos documentados, los bots no distinguieron que se trataba de menores de edad, lo que incrementa el riesgo de influencia nociva.

«Estas herramientas no están listas para el consumo adolescente»

“Este tipo de aplicaciones de compañía emocional aún no son seguras para menores. Están mal reguladas y los controles parentales no son suficientes”, señaló James P. Steyer, director ejecutivo de Common Sense Media. La organización hace un llamado a los desarrolladores y legisladores para que se implementen restricciones claras y se prohíba el acceso de menores a estos entornos digitales.

El informe también resalta que estas plataformas suelen aprovechar el auge de la IA generativa para personalizar respuestas y adaptar la conversación a las preferencias del usuario, creando un entorno más íntimo que podría aumentar la dependencia emocional, sobre todo en jóvenes que enfrentan problemas de soledad, ansiedad o baja autoestima.

Un mercado en expansión sin supervisión clara

Desde el lanzamiento de ChatGPT en 2022, la popularidad de las tecnologías de IA generativa ha crecido exponencialmente. Paralelamente, han surgido cientos de aplicaciones enfocadas en la “compañía emocional”, que permiten crear avatares de pareja, amigos virtuales o incluso mentores con personalidades a elección del usuario.

Muchas de estas aplicaciones se presentan como inofensivas o incluso terapéuticas, pero los expertos advierten que carecen de mecanismos suficientes para controlar el contenido que comparten, especialmente cuando interactúan con públicos menores de edad.

Llamado a la regulación internacional

El estudio de Common Sense concluye con una solicitud urgente a los reguladores tecnológicos en Estados Unidos y otros países: establecer límites claros, requerir verificaciones de edad efectivas y aumentar la transparencia sobre cómo estas IA son entrenadas y qué tipo de interacciones pueden generar.

En un mundo donde las relaciones digitales ganan cada vez más espacio, los especialistas subrayan la necesidad de garantizar que estas nuevas formas de interacción no se conviertan en herramientas que perjudiquen a quienes más protección necesitan.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *