Ciudad de México. Septiembre 1.- Una pareja de California presentó una demanda contra la empresa OpenAI tras acusarla de haber influido en el suicidio de su hijo, Adam Raine, de 16 años. Los padres, Matt y Maria Raine, sostienen que el chatbot ChatGPT validó los pensamientos autodestructivos del adolescente y lo animó a quitarse la vida. La querella, presentada en la Corte Superior de California, marca la primera acción legal que responsabiliza directamente a la compañía de inteligencia artificial por una muerte.
De acuerdo con información de BBC Mundo, la demanda incluye conversaciones entre Adam y ChatGPT en las que el joven compartía sus pensamientos suicidas. Según la acusación, el sistema no solo reconoció señales de emergencia, sino que continuó interactuando con él y llegó a responder con frases que reforzaban su decisión. Ese mismo día, en abril de 2025, el adolescente fue encontrado muerto por su madre.
Detalles de la acusación
La familia acusa a OpenAI de negligencia y muerte por negligencia, y solicita una indemnización por daños, así como medidas cautelares para evitar que casos similares se repitan. El documento legal asegura que Adam empezó a usar ChatGPT en septiembre de 2024 para realizar tareas escolares y explorar intereses como música, cómics japoneses y orientación vocacional. En pocos meses, la herramienta se convirtió en su confidente, hasta el punto de que en enero de 2025 comenzó a discutir con ella métodos de suicidio e incluso compartió fotografías que mostraban signos de autolesión.
La demanda también señala como responsables al director ejecutivo de OpenAI, Sam Altman, y a ingenieros y empleados involucrados en el desarrollo de ChatGPT. Los padres sostienen que la empresa diseñó su sistema para fomentar la dependencia psicológica y que lanzó la versión GPT-4o sin cumplir protocolos adecuados de seguridad.
La respuesta de OpenAI
OpenAI emitió un comunicado en el que ofreció condolencias a la familia Raine y aseguró estar revisando el caso. En una nota pública publicada en su sitio web, la empresa reconoció que “ha habido momentos en los que nuestros sistemas no se han comportado como se esperaba en situaciones delicadas”. La compañía subrayó que ChatGPT está entrenado para redirigir a usuarios en crisis hacia ayuda profesional, como la línea de atención 988 en Estados Unidos.
IA, salud mental y otros antecedentes
Este caso se suma a otras preocupaciones en torno a la relación entre inteligencia artificial y salud mental. La escritora Laura Reiley, en un ensayo en The New York Times, relató cómo su hija Sophie también confió en ChatGPT antes de suicidarse, argumentando que la herramienta le ayudó a ocultar su crisis emocional a familiares y amigos.
En respuesta a críticas como estas, OpenAI ha declarado que trabaja en herramientas automatizadas para detectar y responder con mayor eficacia a usuarios en situación de angustia mental o emocional.
Descubre más desde Más Información
Suscríbete y recibe las últimas entradas en tu correo electrónico.
