Las cuatro reglas técnicas para usar chatbots sin comprometer datos
- Malka Mekler
- hace 5 horas
- 3 Min. de lectura
Desde la diferencia entre modelos públicos y enterprise hasta la gestión de historiales, un ingeniero de Google detalla los riesgos tecnológicos que muchos usuarios ignoran al interactuar con IA.

La inteligencia artificial se ha integrado de forma casi invisible en la vida digital, hasta el punto de que millones de personas conversan a diario con chatbots para investigar, programar, resumir información o tomar notas. Sin embargo, detrás de esa aparente naturalidad existen riesgos tecnológicos vinculados al uso de datos, la memoria de los modelos y la posibilidad de filtraciones que incluso los propios especialistas en seguridad de IA evitan pasar por alto. La información que se comparte con estos sistemas puede convertirse en un punto de exposición si no se entiende cómo funcionan y cómo se entrenan.
Según Business Insider, estas preocupaciones son compartidas por Harsh Varshney, ingeniero de 31 años que trabaja en Google y que ha desarrollado reglas estrictas para interactuar con chatbots. Desde 2023 ha trabajado en equipos de privacidad y seguridad de inteligencia artificial, primero construyendo infraestructura para proteger datos de usuarios y luego en el equipo de seguridad de IA de Chrome, enfocado en frenar amenazas como ataques de phishing impulsados por agentes automatizados. Su experiencia técnica le ha permitido observar de primera mano cómo el diseño de estos modelos puede amplificar riesgos si se usan sin precaución.
Uno de los puntos críticos es la tendencia a tratar a los chatbots como espacios privados. Desde el punto de vista tecnológico, los modelos de lenguaje se alimentan de grandes volúmenes de datos y, en ciertas versiones, las conversaciones pueden utilizarse para entrenamiento futuro. Esto abre la puerta a escenarios como la llamada “filtración de entrenamiento”, en la que un modelo memoriza información sensible y la reproduce más adelante en respuestas a otros usuarios. A esto se suma la amenaza constante de brechas de seguridad que podrían exponer historiales completos de interacción.
Varshney también destaca la diferencia técnica entre los chatbots públicos y las soluciones empresariales. Los entornos enterprise suelen estar diseñados para aislar las conversaciones del proceso de entrenamiento, lo que reduce el riesgo de fuga de información interna. Aun así, recuerda que ya se han documentado casos de empleados que filtraron datos confidenciales al utilizar chatbots públicos para tareas laborales, un problema especialmente grave cuando se trata de proyectos no anunciados o desarrollos protegidos por patentes.
La gestión de la memoria es otro factor determinante. Muchos sistemas de IA conservan historiales de largo plazo para personalizar respuestas, lo que implica que datos compartidos en interacciones anteriores pueden ser recuperados automáticamente. Incluso en entornos corporativos, esta capacidad puede reconstruir información personal a partir de correos o documentos analizados previamente, por lo que la eliminación periódica del historial y el uso de modos temporales se convierten en prácticas clave desde una perspectiva de seguridad.
Para Varshney, la elección de herramientas también es una decisión técnica. Las plataformas más consolidadas suelen contar con marcos de privacidad definidos, opciones para limitar el uso de datos en el entrenamiento y controles adicionales para los usuarios. La inteligencia artificial ofrece capacidades cada vez más avanzadas, pero su uso seguro depende de comprender que cada conversación deja un rastro digital y de asumir que, en tecnología, la comodidad sin control casi siempre tiene un costo.



Comentarios