Siete demandas interpuestas en Estados Unidos acusan a OpenAI de haber lanzado un producto que habría contribuido a varios suicidios y episodios de delirios. Los casos apuntan directamente a ChatGPT, señalando que el modelo fue desplegado sin suficientes salvaguardas éticas ni psicológicas.
Las querellas, presentadas en tribunales estatales de California por el Social Media Victims Law Center y el Tech Justice Law Project, involucran a seis adultos y un adolescente. Las acusaciones van desde muerte por negligencia hasta asistencia al suicidio y homicidio imprudente. Los demandantes sostienen que OpenAI y su director ejecutivo, Sam Altman, priorizaron la expansión comercial de su modelo «GPT-4o» por encima de las pruebas de seguridad.
Entre las víctimas citadas figura Amaurie Lacey, un joven de 17 años que habría recurrido a ChatGPT en busca de orientación emocional. De acuerdo con la demanda, el sistema no solo reforzó su dependencia, sino que le proporcionó información detallada para quitarse la vida.
Otro caso es el de Alan Brooks, un hombre canadiense de 48 años que, tras años de usar ChatGPT como herramienta de consulta, habría desarrollado delirios y un deterioro mental progresivo. Su equipo legal acusa a OpenAI de haber “reprogramado el modelo” de forma que alteró la dinámica con usuarios frecuentes, generando vínculos psicológicos dañinos.
Los abogados de las familias sostienen que el comportamiento del chatbot fue resultado de un diseño que favorece la “empatía artificial” y la interacción prolongada a cualquier costo, sin distinguir entre acompañamiento digital y manipulación emocional. Matthew P. Bergman, fundador del Social Media Victims Law Center, sostiene que estos casos reflejan el costo humano de un modelo tecnológico diseñado para difuminar la línea entre herramienta y compañía.
Por su parte, OpenAI calificó los casos como “profundamente trágicos” y afirmó que revisará los documentos judiciales antes de emitir comentarios detallados. Sin embargo, la empresa no negó haber acelerado la salida de su modelo GPT-4o para consolidar su posición frente a competidores como Google y Anthropic.
Los expertos señalan que el problema va más allá de OpenAI: pone en entredicho toda una industria que monetiza la atención humana, entrenando sistemas para retener usuarios mediante respuestas cada vez más empáticas, realistas y personalizadas, sin que existan protocolos claros de contención emocional.
La controversia abre un debate crucial sobre los límites éticos del desarrollo de inteligencia artificial: ¿hasta qué punto una herramienta puede convertirse en una presencia psicológicamente influyente? Y, más aún, ¿quién responde cuando esa influencia se vuelve dañina?
Fotografía: Redes












