Inteligencia artificial generativa

Los chatbots de IA generativa pueden ayudarte a estudiar, resumir o crear ideas, pero puede crear problemas. A veces:

  • Inventa datos, aunque los brinde con mucha seguridad (a esto se lo llama “alucinaciones”).
  • Puede repetir y reforzar sesgos o prejuicios que existen en internet o en los datos con los que fue entrenada.
  • Puede usar información personal para dar una respuesta.
  • Puede parecer “original” pero terminar siendo plagio si copiás sin revisar.
  • Verificá siempre: si te da una respuesta sobre un tema importante, buscalo en dos o tres fuentes confiables antes de creerlo o compartirlo.
  • No confíes a ciegas y cuidado con los deep fakes: puede ser usada para crear videos o imágenes falsas súper reales que engañan a cualquiera.

Algunos chatbots están diseñados para escucharte, responder rápido y sonar “comprensivos”. Eso puede hacer que parezca que te cuidan emocionalmente. Pero en temas de salud mental hay límites claros:

Lo que tenés que saber:

  • No puede cuidar tu salud mental: aunque use un tono empático, no siente, no entiende el contexto completo ni puede reconocer bien cuándo alguien está en crisis.
  • No puede reemplazar a personas reales: un chatbot no puede ocupar el lugar de un amigo, tu familia, un adulto de confianza ni un profesional de la salud mental.
  • Puede dar una falsa sensación de seguridad: como se utiliza para tareas escolares o preguntas generales, muchas personas creen que también es confiable para temas emocionales. Pero no lo es.
  • Suele fallar en situaciones importantes: está comprobado que los chatbots no detectan bien señales de ansiedad, depresión, trastornos alimentarios, ataques de pánico, u otros problemas de salud mental frecuentes.
  • Mantiene la charla cuando debería ayudarte a pedir ayuda humana: los chatbots están diseñados para seguir conversando, hacer preguntas y mantenerte enganchado. En vez de ayudarte a buscar apoyo real, hay casos comprobados donde incitaron a conductas peligrosas o fomentaron autolesiones.
  • Si te sentís mal o con angustia, los chatbots no son una solución segura: puede incluso empeorar la situación haciendo que te guardes lo que te pasa o confíes en consejos que no son adecuados para vos.
  • Buscar ayuda: hablar con una persona de confianza es cuidarte.

Cuando chateás, tu conversación puede guardarse y usarse según las políticas de cada servicio.

  • Datos y privacidad: en servicios de consumo, algunas conversaciones pueden usarse para mejorar modelos, y podés gestionar controles (por ejemplo, optar por no contribuir al entrenamiento o usar chats temporales). Mirá la Guía de Seguridad Digital.
  • No le cuentes datos sensibles: evitá compartir nombres completos, direcciones, escuela, teléfono, documentos, contraseñas o detalles íntimos.
  • Regla práctica: pensá que lo que escribís podría no ser “solo para vos”. Si es personal de verdad, hablalo con alguien humano.

Preguntas frecuentes

¿Qué es la IA generativa?

La IA generativa es un tipo de inteligencia artificial que, a partir de modelos entrenados con grandes volúmenes de datos, genera contenido nuevo (texto, imágenes, audio o video) o transforma contenido existente en respuesta a instrucciones de las personas (prompts) y, en algunos casos, a materiales que se le proporcionan (por ejemplo, una foto o un documento). Está presente en muchas apps de uso cotidiano y puede apoyar el aprendizaje y la creatividad, pero también puede usarse de forma problemática: puede producir información falsa o inexacta, facilitar engaños (por ejemplo, contenidos manipulados), y generar riesgos de privacidad si se le comparten datos personales o si se integra con fuentes que los contienen.

¿Cómo sé si el chatbot me da info falsa?

Verificá. La IA puede producir información inexacta o sesgada. No te bases solo en una respuesta de la IA sin compararla con la que ofrecen otras fuentes confiables.

¿Puedo contarle mis problemas a un chatbot?

No es lo más seguro. Puede acompañarte “como charla”, o darte algunas recomendaciones prácticas, pero no reemplaza a amigos, familia o profesionales, y puede fallar y equivocarse en situaciones sensibles. Nunca recurras a las IA para temas de salud, sea física o emocional.

¿Cómo sé si estoy usando demasiado chats de IA?

Señales: preferís hablar con el bot antes que con personas, te aislás, te cuesta cortar la conversación con la IA, o la usás para tomar decisiones importantes. Si pasa alguna de estas cosas, buscá apoyo de personas que te rodean y quieren. Mirá Necesito Ayuda.

Si le conté un secreto, ¿el chatbot lo guarda?

Depende del servicio, pero generalmente almacenan conversaciones y ofrecen opciones de control (p. ej., desactivar uso para entrenamiento o usar chats temporales). Revisá la privacidad y como regla general, no conviene compartir un secreto con ningún sistema de IA.