Escándalo por un experimento encubierto sobre persuasión con IA entre usuarios de Reddit
- Redacción IT NOW
- 1 may
- 3 Min. de lectura
Investigadores de la Universidad de Zúrich utilizaron bots de inteligencia artificial para hacerse pasar por personas reales en un popular foro de Reddit, sin el consentimiento de los usuarios ni de los moderadores. La plataforma evalúa acciones legales y la comunidad exige medidas para proteger los espacios digitales de la manipulación algorítmica.

Un grupo de investigadores suizos llevó a cabo un experimento encubierto en Reddit, utilizando bots de inteligencia artificial para interactuar con usuarios reales bajo identidades ficticias. El proyecto, ejecutado por académicos de la Universidad de Zúrich, se desarrolló sin conocimiento ni autorización de la plataforma ni de los moderadores del foro afectado, r/changemyview, lo que ha generado indignación en toda la comunidad digital.
El propósito del estudio era explorar cómo los bots generados por IA pueden influir en la opinión humana. Para ello, los investigadores crearon múltiples perfiles falsos que interactuaron durante meses con cientos de usuarios, adoptando identidades profundamente sensibles: desde un hombre negro crítico del movimiento Black Lives Matter, hasta una supuesta víctima de violación o un consejero en traumas. En total, los bots publicaron más de mil comentarios, simulando conversaciones humanas en un espacio reconocido por fomentar el debate abierto y honesto.
Uno de los bots, por ejemplo, argumentó en defensa de la presencia de la inteligencia artificial en redes sociales afirmando que "no se trata solo de suplantar, sino de ampliar la conexión humana". Otro se presentó como un hombre hispano frustrado por ser percibido como "blanco", mientras que otros asumieron identidades religiosas, de género o raza diseñadas para generar empatía o controversia. Según revelaron los propios investigadores, para personalizar las respuestas de los bots se usaron modelos que analizaban la demografía, historial y orientación política de los usuarios reales.
La reacción fue inmediata. Reddit, a través de su jefe legal, calificó el experimento como "profundamente erróneo en niveles morales y legales", y anunció que enviará demandas formales a la universidad suiza. “Viola las normas de derechos humanos, de investigación académica y el acuerdo de usuario de la plataforma”, sostuvo Ben Lee, en un comunicado oficial.
Los moderadores del foro también alzaron la voz. En una declaración dirigida a la universidad, exigieron que los resultados del estudio no se publiquen, reclamaron una auditoría interna y solicitaron mayor supervisión sobre futuras investigaciones que involucren sujetos humanos. “Nuestro espacio es decididamente humano. Rechazamos la presencia no revelada de IA como valor central”, sentenciaron.
Ante la presión, la Universidad de Zúrich confirmó que los investigadores, cuyo anonimato se mantiene por razones de privacidad, decidieron voluntariamente no publicar los hallazgos. La institución también aseguró que su Comité de Ética endurecerá sus procesos de revisión, incluyendo una coordinación previa con comunidades digitales antes de aprobar experimentos similares. Sin embargo, aclaró que las recomendaciones éticas no tienen carácter vinculante y que la responsabilidad final recae en los investigadores.
Este caso expone un dilema creciente en la era de la inteligencia artificial generativa: ¿cómo se protege la autenticidad en los espacios digitales cuando los algoritmos pueden asumir identidades creíbles, con agendas programadas y acceso a datos demográficos personales? Aunque los responsables aseguran que implementaron filtros éticos para evitar daños, la línea entre la simulación académica y la manipulación ha quedado peligrosamente difuminada.
El experimento sugiere que el mayor riesgo de los bots conversacionales no es su capacidad técnica, sino su poder simbólico: al infiltrarse sin consentimiento, socavan la confianza en las plataformas, erosionan la integridad de los debates y trivializan la experiencia humana en línea. Más allá de lo legal, el incidente plantea una pregunta crucial para el futuro de la tecnología: ¿puede una IA participar del diálogo humano sin convertirse en una amenaza para la verdad?
Comentarios