Inteligencia artificial generativa (IAG)

Niñas, niños y adolescentes usan IA generativa y chatbots sociales para estudiar, divertirse, crear contenidos, pedir consejos sentimentales o sentirse acompañados. Sin darse cuenta, pueden exponerlos a recolección de datos sensibles, contenidos falsos y sesgados, vínculos dependientes, ciberacoso, deepfakes, sextorsión y manipulación. Acompañar, conversar y supervisar de manera activa es la clave.

Mirá más información sobre IA generativa

¿Cómo prevenir?

El objetivo es ayudarlos a que usen la IAG de forma segura y crítica.

Acompañar el uso, no dejarlo librado al azar

  • Preguntar qué herramientas usan, para qué, de qué manera y qué es lo que más les gusta de ellas.
  • Interesarse por las conversaciones que tienen con chatbots sociales o asistentes de IA, sin burlarse ni minimizar.
  • Explicar que la IA no es una persona, no siente ni se preocupa por ellos, y que nunca reemplaza a un adulto de confianza.

Hablar del bienestar emocional

  • Reforzar que, si se sienten tristes, confundidos, enojados o asustados, la ayuda principal debe venir de personas: familia, escuela, referentes de confianza.
  • Recordar explícitamente que la IA no puede evaluar el riesgo ni cuidarlos en situaciones críticas.
  • Habilitar la conversación: “Si alguna vez usás un chatbot porque te sentís mal, contámelo también a mí, para que podamos ver juntos qué necesitás”.

Cuidar la privacidad y los datos personales

  • Acordar qué cosas nunca se comparten con la IA: nombre completo, dirección, escuela, contraseñas, fotos íntimas, datos de otras personas.
  • Revisar y ajustar las configuraciones de privacidad y seguridad de las apps y dispositivos.
  • Explicar que lo que se escribe o sube a estas herramientas puede ser almacenado y reutilizado de una manera que no deseamos.

Promover pensamiento crítico y uso ético

  • Enseñar a dudar de las respuestas que brinda la IAG: pedirles que siempre repregunten y contrasten los resultados obtenidos, con otras fuentes (docentes, libros, sitios confiables).
  • Conversar sobre plagio y honestidad académica: usar la IA para inspirarse, ordenar ideas o revisar un texto propio, pero no para copiar y pegar trabajos completos.
  • Hablar sobre el daño de crear montajes, deepfakes o mensajes humillantes, y dejar claro que también puede tener consecuencias legales.

Poner límites de tiempo y de función

  • Acordar momentos y tiempos de uso de la IA, diferenciando entre estudio, juego y “charlas”.
  • Si se detecta que el chatbot ocupa un lugar central en su vida cotidiana, revisar juntos cómo se sienten y proponer otras formas de acompañamiento y conexión (amigos, actividades, espacios grupales).
  • Reforzar actividades sin pantallas y vínculos presenciales significativos.

¿Cómo detectar señales de alerta?

Hay señales que pueden advertir sobre los impactos emocionales en niñas, niños y adolescentes del mal uso de la IA generativa, como la utilización sin chequeo de datos, la creación de contenido sexual falso (nudify o deepfakes) o la relación de dependencia emocional con chabots:

  • Si fueron víctimas de un contenido problemático generado por IA (como imágenes de desnudos sin consentimiento), es probable que experimente molestia, angustia, incomodidad, vergüenza, se sienta traicionado o humillado, tenga miedo y sea víctima de ataques en línea (ciberbullying).
  • Estar atentos si dejan de contar lo que les pasa a personas de confianza y solo hablan con la IA, si se aíslan, duermen peor, abandonan actividades o muestran malestar persistente.
  • Que hagan referencia todo el tiempo a los consejos o charlas que tiene con su amigo de IA.
  • Que quiera realizar cada vez menos actividades al aire libre o con amigos de la vida real.
  • Cuando el impacto emocional es intenso o sostenido, buscar orientación de profesionales de salud mental y articular con la escuela u otros adultos de referencia.

¿Qué hacer?

Cuando ya hubo alguna una situación de riesgo, es fundamental actuar:

  • Mantener la calma y habilitar el diálogo:
    • Evitar reaccionar con enojo, pánico o impulsividad.
    • No quitar el dispositivo: puede profundizar el aislamiento, eliminar un canal de apoyo y desalentar que vuelvan a contarte lo que ocurre.
    • Tomarse unos minutos para estar en una disposición calma antes de hablar.
    • Agradecer que hayan recurrido a nosotros y reforzar que hicieron lo correcto al contarlo.
    • Hacer preguntas abiertas para comprender la situación sin juzgar ni culpar: “¿Qué pasó? ¿Cómo te hizo sentir? ¿Cuándo empezó?”.

Para hablar del uso chatbots

  • Ayudarlos a reconocer las cosas que pueden impulsarlos a hacer un uso poco saludable de los compañeros de IA, para que sepan detenerse y pensar en esos momentos.
  • Explicarles que la IAG, aunque se parezca a un amigo, que nos comprende y nos brinda consejos, no es una persona, no tiene sentimientos, ni empatía y no puede reemplazar a los amigos de la vida.
  • Ofrecerles información alternativa, apropiada para cada edad y basada en evidencia, sobre los temas que desean conocer.
  • Fomentar pasatiempos, ejercicio y actividades sociales.
  • Si están haciendo un uso excesivo, ayudarlos a recuperar el control, reduciendo lentamente el tiempo que pasan usando la aplicación de IA para estimular hábitos más saludables.
  • Fomentar las relaciones personales, como reuniones con amigos, actividades familiares y salidas apropiadas para la edad para fortalecer los vínculos presenciales.
  • Si es necesario, buscar ayuda profesional.

En caso de creación de MASI, deepfakes y sextorsión:

  • Si hay difusión no consentida, luego de documentar, denunciar en la plataforma y usar servicios de remoción de contenido en la plataforma BajaloYA de NCMEC.
  • Documentar correctamente:
    • Guardar mensajes, usuarios, plataformas y fechas.
    • Realizar capturas de pantalla (screenshot) de todo.
    • Copiar la URL (enlace) del perfil o chat cuando la plataforma lo permita. Normalmente, puede verse en la barra de direcciones de la parte superior de la página si se usa una computadora de escritorio, portátil o tableta.
    • En WhatsApp, ir a la conversación (tres puntitos → Más “Exportar chat”). Se creará un archivo .zip para enviar a otro contacto.
    • Bloquear al agresor solo cuando la evidencia esté resguardada en otro dispositivo.
  • Ajustar inmediatamente la privacidad. Ver Guía de Seguridad Digital.
  • Buscar apoyo institucional o profesional si hay angustia, culpa o miedo.
  • Si el niño o adolescente generó imágenes, explicarle que es un delito que causa un profundo daño para la víctima y que debe borrar el material de sus dispositivos y solicitarle a quienes lo tengan que hagan lo mismo. Buscar ayuda profesional para que se responsabilice del acto de reparación del daño a la víctima.
Necesito Ayuda