Inteligencia artificial generativa
Los chatbots de IA generativa pueden ayudarte a estudiar, resumir o crear ideas, pero puede crear problemas. A veces:
- Inventa datos, aunque los brinde con mucha seguridad (a esto se lo llama “alucinaciones”).
- Puede repetir y reforzar sesgos o prejuicios que existen en internet o en los datos con los que fue entrenada.
- Puede usar información personal para dar una respuesta.
- Puede parecer “original” pero terminar siendo plagio si copiás sin revisar.
- Verificá siempre: si te da una respuesta sobre un tema importante, buscalo en dos o tres fuentes confiables antes de creerlo o compartirlo.
- No confíes a ciegas y cuidado con los deep fakes: puede ser usada para crear videos o imágenes falsas súper reales que engañan a cualquiera.
Algunos chatbots están diseñados para escucharte, responder rápido y sonar “comprensivos”. Eso puede hacer que parezca que te cuidan emocionalmente. Pero en temas de salud mental hay límites claros:
Lo que tenés que saber:
- No puede cuidar tu salud mental: aunque use un tono empático, no siente, no entiende el contexto completo ni puede reconocer bien cuándo alguien está en crisis.
- No puede reemplazar a personas reales: un chatbot no puede ocupar el lugar de un amigo, tu familia, un adulto de confianza ni un profesional de la salud mental.
- Puede dar una falsa sensación de seguridad: como se utiliza para tareas escolares o preguntas generales, muchas personas creen que también es confiable para temas emocionales. Pero no lo es.
- Suele fallar en situaciones importantes: está comprobado que los chatbots no detectan bien señales de ansiedad, depresión, trastornos alimentarios, ataques de pánico, u otros problemas de salud mental frecuentes.
- Mantiene la charla cuando debería ayudarte a pedir ayuda humana: los chatbots están diseñados para seguir conversando, hacer preguntas y mantenerte enganchado. En vez de ayudarte a buscar apoyo real, hay casos comprobados donde incitaron a conductas peligrosas o fomentaron autolesiones.
- Si te sentís mal o con angustia, los chatbots no son una solución segura: puede incluso empeorar la situación haciendo que te guardes lo que te pasa o confíes en consejos que no son adecuados para vos.
- Buscar ayuda: hablar con una persona de confianza es cuidarte.
Cuando chateás, tu conversación puede guardarse y usarse según las políticas de cada servicio.
- Datos y privacidad: en servicios de consumo, algunas conversaciones pueden usarse para mejorar modelos, y podés gestionar controles (por ejemplo, optar por no contribuir al entrenamiento o usar chats temporales). Mirá la Guía de Seguridad Digital.
- No le cuentes datos sensibles: evitá compartir nombres completos, direcciones, escuela, teléfono, documentos, contraseñas o detalles íntimos.
- Regla práctica: pensá que lo que escribís podría no ser “solo para vos”. Si es personal de verdad, hablalo con alguien humano.