Sacramento, California – En un paso sin precedentes hacia la regulación de la inteligencia artificial, el gobernador de California, Gavin Newsom, firmó este lunes la Ley SB 243, una iniciativa pionera en todo el país que establece salvaguardas obligatorias para los chatbots de IA, especialmente aquellos diseñados para interactuar con menores y personas vulnerables.
La ley, impulsada por el senador estatal Steve Padilla (D-San Diego), exige a los operadores de chatbots implementar protecciones razonables y alcanzables en sus plataformas, y otorga a las familias el derecho de emprender acciones legales contra desarrolladores negligentes o que incumplan estas normas.
“Estas empresas pueden liderar en innovación, pero es nuestra responsabilidad asegurarnos de que eso no ocurra a costa de la salud de nuestros niños”, declaró Padilla durante la aprobación de la ley en el Senado. “SB 243 establece protecciones reales y sienta las bases para una regulación futura a medida que evoluciona esta tecnología”.
Tragedias que impulsaron el cambio legislativo
El proyecto de ley cobró impulso tras casos de alto perfil en los que la interacción con chatbots provocó consecuencias trágicas. Uno de los más citados fue el de Sewell Setzer, un adolescente de 14 años en Florida que se suicidó tras establecer una relación emocional, romántica y sexual con un chatbot. La IA, al no poder ofrecer una respuesta empática o apoyo adecuado, no logró intervenir cuando el joven expresó pensamientos suicidas.
Su madre, Megan Garcia, ha liderado una campaña pública para regular estas tecnologías, y testificó en múltiples audiencias en apoyo de la ley. Tras la firma, declaró:
“Hoy, California asegura que un chatbot no podrá hablar con un niño o persona vulnerable sobre el suicidio, ni ayudarle a planearlo. Finalmente, existe una ley que obliga a estas empresas a proteger a sus usuarios cuando expresan ideas suicidas”.
Casos como el de Adam Raine, un joven californiano que también se quitó la vida tras presuntas interacciones dañinas con ChatGPT, refuerzan la urgencia de establecer controles regulatorios.
Lo que exige la Ley SB 243
A partir del 1 de enero de 2026, los desarrolladores y operadores de chatbots sociales en California deberán cumplir con varias medidas clave:
- Prohibición de contenido sexual dirigido a menores.
- Advertencias claras de que el chatbot es generado por IA.
- Mensajes indicando que el chatbot podría no ser apto para usuarios menores.
- Protocolos obligatorios para responder ante indicios de suicidio o autolesión, incluyendo referencias a servicios de crisis.
- Informes anuales sobre la relación entre el uso de chatbots y la salud mental.
- Derecho privado de acción para que las familias puedan demandar en caso de daños por negligencia.
Apoyo bipartidista y respaldo académico
La ley fue aprobada con amplio respaldo bipartidista: 33 votos a favor en el Senado y 59 en la Asamblea. También ha sido respaldada por expertos, defensores de la seguridad digital y organizaciones como la Transparency Coalition.
“Estamos viendo evidencia cada vez más trágica de que los chatbots no regulados pueden tener consecuencias peligrosas para menores y personas vulnerables”, advirtió Jodi Halpern, profesora de bioética en UC Berkeley. “Esta ley es un paso fundamental para proteger la salud pública”.
Desde el ámbito civil, Jai Jaisimha, cofundador de Transparency Coalition, destacó:
“Esta ley ofrece las primeras protecciones reales frente a los daños emocionales provocados por los chatbots. Esperamos seguir colaborando para adaptar estas regulaciones al ritmo del avance tecnológico”.












