Inteligencia artificial generativa (IAG)
Niñas, niños y adolescentes usan IA generativa y chatbots sociales para estudiar, divertirse, crear contenidos, pedir consejos sentimentales o sentirse acompañados. Sin darse cuenta, pueden exponerlos a recolección de datos sensibles, contenidos falsos y sesgados, vínculos dependientes, ciberacoso, deepfakes, sextorsión y manipulación. Acompañar, conversar y supervisar de manera activa es la clave.
Mirá más información sobre IA generativa
¿Cómo prevenir?
El objetivo es ayudarlos a que usen la IAG de forma segura y crítica.
Acompañar el uso, no dejarlo librado al azar
- Preguntar qué herramientas usan, para qué, de qué manera y qué es lo que más les gusta de ellas.
- Interesarse por las conversaciones que tienen con chatbots sociales o asistentes de IA, sin burlarse ni minimizar.
- Explicar que la IA no es una persona, no siente ni se preocupa por ellos, y que nunca reemplaza a un adulto de confianza.
Hablar del bienestar emocional
- Reforzar que, si se sienten tristes, confundidos, enojados o asustados, la ayuda principal debe venir de personas: familia, escuela, referentes de confianza.
- Recordar explícitamente que la IA no puede evaluar el riesgo ni cuidarlos en situaciones críticas.
- Habilitar la conversación: “Si alguna vez usás un chatbot porque te sentís mal, contámelo también a mí, para que podamos ver juntos qué necesitás”.
Cuidar la privacidad y los datos personales
- Acordar qué cosas nunca se comparten con la IA: nombre completo, dirección, escuela, contraseñas, fotos íntimas, datos de otras personas.
- Revisar y ajustar las configuraciones de privacidad y seguridad de las apps y dispositivos.
- Explicar que lo que se escribe o sube a estas herramientas puede ser almacenado y reutilizado de una manera que no deseamos.
Promover pensamiento crítico y uso ético
- Enseñar a dudar de las respuestas que brinda la IAG: pedirles que siempre repregunten y contrasten los resultados obtenidos, con otras fuentes (docentes, libros, sitios confiables).
- Conversar sobre plagio y honestidad académica: usar la IA para inspirarse, ordenar ideas o revisar un texto propio, pero no para copiar y pegar trabajos completos.
- Hablar sobre el daño de crear montajes, deepfakes o mensajes humillantes, y dejar claro que también puede tener consecuencias legales.
Poner límites de tiempo y de función
- Acordar momentos y tiempos de uso de la IA, diferenciando entre estudio, juego y “charlas”.
- Si se detecta que el chatbot ocupa un lugar central en su vida cotidiana, revisar juntos cómo se sienten y proponer otras formas de acompañamiento y conexión (amigos, actividades, espacios grupales).
- Reforzar actividades sin pantallas y vínculos presenciales significativos.
¿Cómo detectar señales de alerta?
Hay señales que pueden advertir sobre los impactos emocionales en niñas, niños y adolescentes del mal uso de la IA generativa, como la utilización sin chequeo de datos, la creación de contenido sexual falso (nudify o deepfakes) o la relación de dependencia emocional con chabots:
- Si fueron víctimas de un contenido problemático generado por IA (como imágenes de desnudos sin consentimiento), es probable que experimente molestia, angustia, incomodidad, vergüenza, se sienta traicionado o humillado, tenga miedo y sea víctima de ataques en línea (ciberbullying).
- Estar atentos si dejan de contar lo que les pasa a personas de confianza y solo hablan con la IA, si se aíslan, duermen peor, abandonan actividades o muestran malestar persistente.
- Que hagan referencia todo el tiempo a los consejos o charlas que tiene con su amigo de IA.
- Que quiera realizar cada vez menos actividades al aire libre o con amigos de la vida real.
- Cuando el impacto emocional es intenso o sostenido, buscar orientación de profesionales de salud mental y articular con la escuela u otros adultos de referencia.
¿Qué hacer?
Cuando ya hubo alguna una situación de riesgo, es fundamental actuar:
- Mantener la calma y habilitar el diálogo:
- Evitar reaccionar con enojo, pánico o impulsividad.
- No quitar el dispositivo: puede profundizar el aislamiento, eliminar un canal de apoyo y desalentar que vuelvan a contarte lo que ocurre.
- Tomarse unos minutos para estar en una disposición calma antes de hablar.
- Agradecer que hayan recurrido a nosotros y reforzar que hicieron lo correcto al contarlo.
- Hacer preguntas abiertas para comprender la situación sin juzgar ni culpar: “¿Qué pasó? ¿Cómo te hizo sentir? ¿Cuándo empezó?”.
Para hablar del uso chatbots
- Ayudarlos a reconocer las cosas que pueden impulsarlos a hacer un uso poco saludable de los compañeros de IA, para que sepan detenerse y pensar en esos momentos.
- Explicarles que la IAG, aunque se parezca a un amigo, que nos comprende y nos brinda consejos, no es una persona, no tiene sentimientos, ni empatía y no puede reemplazar a los amigos de la vida.
- Ofrecerles información alternativa, apropiada para cada edad y basada en evidencia, sobre los temas que desean conocer.
- Fomentar pasatiempos, ejercicio y actividades sociales.
- Si están haciendo un uso excesivo, ayudarlos a recuperar el control, reduciendo lentamente el tiempo que pasan usando la aplicación de IA para estimular hábitos más saludables.
- Fomentar las relaciones personales, como reuniones con amigos, actividades familiares y salidas apropiadas para la edad para fortalecer los vínculos presenciales.
- Si es necesario, buscar ayuda profesional.
En caso de creación de MASI, deepfakes y sextorsión:
- Si hay difusión no consentida, luego de documentar, denunciar en la plataforma y usar servicios de remoción de contenido en la plataforma BajaloYA de NCMEC.
- Documentar correctamente:
- Guardar mensajes, usuarios, plataformas y fechas.
- Realizar capturas de pantalla (screenshot) de todo.
- Copiar la URL (enlace) del perfil o chat cuando la plataforma lo permita. Normalmente, puede verse en la barra de direcciones de la parte superior de la página si se usa una computadora de escritorio, portátil o tableta.
- En WhatsApp, ir a la conversación (tres puntitos → Más “Exportar chat”). Se creará un archivo .zip para enviar a otro contacto.
- Bloquear al agresor solo cuando la evidencia esté resguardada en otro dispositivo.
- Ajustar inmediatamente la privacidad. Ver Guía de Seguridad Digital.
- Buscar apoyo institucional o profesional si hay angustia, culpa o miedo.
- Si el niño o adolescente generó imágenes, explicarle que es un delito que causa un profundo daño para la víctima y que debe borrar el material de sus dispositivos y solicitarle a quienes lo tengan que hagan lo mismo. Buscar ayuda profesional para que se responsabilice del acto de reparación del daño a la víctima.