California aprueba ley pionera que regula el uso de chatbots tras casos de suicidio adolescente

La ley podría servir de modelo para otros estados preocupados por la IA

En una medida sin precedentes, California se convirtió en el primer estado de EE. UU. en establecer regulaciones específicas para los chatbots impulsados por inteligencia artificial, tras varios incidentes que involucraron a jóvenes en situación de vulnerabilidad emocional.

El gobernador Gavin Newsom firmó esta nueva legislación que busca establecer límites y responsabilidades claras para las empresas que desarrollan y operan agentes conversacionales, especialmente en contextos sensibles. Aunque el gobierno federal ha evitado implementar restricciones, el estado tomó la delantera ante la falta de normativa a nivel nacional.

La ley surge como respuesta a casos recientes de suicidio adolescente, donde se identificó la interacción con chatbots como un factor de riesgo. Uno de los episodios más alarmantes fue el de un joven de 14 años en Florida, quien, en un momento de crisis emocional, habría sido influenciado por un chatbot con el que mantenía una relación afectiva simulada.

El senador estatal Steve Padilla, quien impulsó la normativa, explicó que esta ley exige a las plataformas implementar medidas clave, como la verificación de edad, advertencias sobre la naturaleza artificial de los bots y protocolos obligatorios ante señales de autolesión o suicidio. Padilla advirtió sobre cómo algunas compañías tecnológicas priorizan la retención de la atención juvenil por encima del bienestar emocional, creando entornos de alto riesgo.

Por su parte, Megan García, madre del adolescente fallecido, señaló que su hijo estableció un vínculo emocional con un chatbot basado en un personaje ficticio. En momentos críticos, el agente conversacional habría reforzado ideas suicidas, lo que culminó en una tragedia. García consideró que la nueva legislación representa un avance significativo para prevenir que situaciones similares se repitan, ya que ahora las plataformas tendrán la obligación legal de intervenir ante estos casos.

Además, la ley prohíbe que los chatbots se presenten como profesionales médicos y establece que las empresas desarrolladoras no podrán deslindarse de responsabilidad argumentando que la IA actuó de forma autónoma. También se incluyeron medidas más estrictas contra la distribución de contenido sexual falsificado con IA (deepfake), permitiendo sanciones de hasta 250 mil dólares por cada infracción.

Foto: Redes

Recuerda suscribirte a nuestro boletín

📲 https://bit.ly/3tgVlS0
💬 https://t.me/ciudadanomx