La brecha de género en ChatGPT se achica: de nicho técnico a herramienta cotidiana
- Redacción IT NOW
- 17 sept
- 2 Min. de lectura
En las primeras semanas tras el lanzamiento de ChatGPT, OpenAI estimó que hasta el 80% de los usuarios eran hombres. Datos más recientes revelaron un uso ligeramente mayor entre quienes tradicionalmente tienen nombres femeninos.

Un informe de OpenAI realizó una observación sobre un muestreo de 1,5 millones de conversaciones extraídas de una base estimada de ~700 millones de usuarios semanales. En los primeros días posteriores al lanzamiento de ChatGPT la compañía estimó que hasta un 80% de los usuarios eran hombres; datos más recientes, tomados en junio, muestran ahora un pequeño predominio entre usuarios con nombres tradicionalmente femeninos. Es importante subrayar la advertencia metodológica: la estimación de “género” proviene del análisis de nombres de usuario (clasificados como típicamente masculinos, femeninos o inciertos), una aproximación útil para detectar tendencias pero insuficiente como métrica demográfica científica.
El informe también revela cómo se usa la herramienta: alrededor del 80% de las interacciones corresponden a tres grandes usos —orientación práctica, búsqueda de información y ayuda para redactar—; usos especializados como programación son menos frecuentes y la utilización como “acompañante” o terapia virtual representa menos del 2% de las conversaciones. Para clasificar esos mensajes OpenAI recurrió a sistemas automatizados y trabajó con datos de usuarios mayores de 18 años que no se habían excluido del muestreo; los investigadores no tuvieron acceso a chats individuales. Ese enfoque aporta escala pero limita la profundidad del análisis sociológico: no captura género no binario, contextos culturales ni patrones de uso dependientes de edad, ocupación o nivel educativo.
Las implicaciones prácticas son claras. Primero, que la adopción se está democratizando obliga a fabricantes y diseñadores a reconsiderar supuestos sobre quién usa la tecnología: interfaces, ejemplos, plantillas y casos de uso deben reflejar mayor diversidad para evitar sesgos en producto y en los conjuntos de entrenamiento.
Segundo, desde la perspectiva del mercado laboral, una expansión inclusiva del acceso a asistentes conversacionales puede mitigar riesgos de exclusión cuando la IA reconfigure tareas y procesos productivos —siempre que se acompañe de políticas de capacitación digital y acceso equitativo. Finalmente, la lección metodológica: medir correctamente el alcance social de estas plataformas exige métricas más finas y respetuosas con la privacidad que vayan más allá del simple inferido por nombre.
El dato —positivo en su tendencia, imperfecto en su medida— ofrece una oportunidad: convertir la creciente diversidad de usuarios en diseño inclusivo, transparencia en el uso de datos y programas de alfabetización digital que realmente permitan a más personas aprovechar la IA sin quedar rezagadas por problemas de acceso, confianza o sesgo.
Comentarios