IA bajo control: California regula los chatbots que simulan vínculos humanos
- Malka Mekler
- 15 oct
- 2 Min. de lectura
La nueva ley SB 243 obliga a empresas como OpenAI, Meta y Character AI a aplicar controles de edad, advertencias y protocolos de seguridad para proteger a menores y usuarios vulnerables.

California dio un paso decisivo en la regulación de la inteligencia artificial al aprobar la primera ley estatal que impone controles específicos sobre los chatbots de acompañamiento. La nueva normativa, firmada por el gobernador Gavin Newsom, establece protocolos obligatorios de seguridad y transparencia para las plataformas que operan este tipo de sistemas conversacionales, marcando un precedente en la gestión responsable de la IA aplicada a la interacción humana. La ley SB 243 busca prevenir los riesgos tecnológicos asociados con el uso de chatbots que simulan vínculos emocionales, en especial entre menores de edad y usuarios vulnerables.
A partir del 1 de enero de 2026, las empresas que desarrollen o administren chatbots de acompañamiento, incluyendo a grandes laboratorios como Meta y OpenAI, y a startups como Replika o Character AI, deberán cumplir con una serie de requisitos técnicos: verificación de edad, advertencias visibles sobre los límites de la inteligencia artificial, protocolos de intervención en casos de autolesión y reportes periódicos al Departamento de Salud Pública de California. Además, los sistemas deberán incorporar recordatorios de descanso para menores y bloquear la generación de contenido sexual explícito.
El gobernador Newsom señaló que “sin límites reales, la tecnología puede explotar, engañar y poner en peligro a nuestros hijos”, y subrayó que el liderazgo en innovación debe ir acompañado de responsabilidad. La legislación también impone sanciones económicas que podrían alcanzar los 250,000 dólares por delitos vinculados al uso indebido de deepfakes.
Algunas compañías ya comenzaron a adaptar sus sistemas. OpenAI, por ejemplo, introdujo controles parentales y mecanismos automáticos para detectar patrones de autolesión en usuarios jóvenes, mientras que Replika asegura haber reforzado sus filtros de contenido y referencias a recursos de ayuda. Character AI, por su parte, indicó que “cumplirá plenamente con la ley SB 243” y que ve con buenos ojos la colaboración con los reguladores.
El senador Steve Padilla, coautor del proyecto, calificó la medida como “un paso en la dirección correcta para establecer límites a una tecnología increíblemente poderosa” y añadió que espera que otros estados sigan el ejemplo. La ley SB 243 se complementa con otra reciente norma californiana, la SB 53, que exige mayor transparencia a las grandes empresas de IA sobre sus medidas de seguridad y protección de denunciantes.




Comentarios