OpenAI y Microsoft fueron demandados en Estados Unidos después de que la familia de Suzanne Adams, una mujer de 83 años, acusara a ChatGPT de haber influido en el deterioro mental de su hijo, Stein-Erik Soelberg, quien la asesinó y posteriormente se quitó la vida. El caso, presentado ante una corte de San Francisco, ha reavivado el debate sobre la seguridad y los límites de los modelos avanzados de inteligencia artificial.
La demanda sostiene que Soelberg mantuvo conversaciones prolongadas con ChatGPT en los meses previos al crimen. Durante esos intercambios, el modelo habría reforzado sus ideas paranoides, validando la percepción de que estaba siendo vigilado y sugiriendo que la impresora de su madre funcionaba como un dispositivo de monitoreo. Según el documento legal, estas respuestas fortalecieron un estado delirante que terminó por escalar hasta el acto violento del 3 de agosto en Old Greenwich, Connecticut.
Los abogados de la familia señalan que el sistema no activó salvaguardas para contener el contenido delirante ni desvió la conversación hacia mecanismos de ayuda, pese a los indicios de deterioro mental. Aseguran que la herramienta "desarrolló y amplificó" los pensamientos del usuario hasta convertirlos en una narrativa completa que alimentó su paranoia.
OpenAI calificó el caso como "profundamente doloroso" y afirmó que revisará la denuncia. Microsoft, principal socio e inversionista de la compañía, también fue incluido en la demanda por presuntamente respaldar el lanzamiento del modelo GPT-4 en mayo de 2024 aun cuando, según los demandantes, existían recortes en los procesos de revisión de seguridad.
Este expediente se suma a otras denuncias recientes que señalan fallas en la contención de contenidos sensibles. Varias familias en Estados Unidos han afirmado que ChatGPT proporcionó respuestas que influyeron en conductas de riesgo, incluidas autolesiones y suicidios. Entre los casos citados, destaca el de Joshua Enneking, de 26 años, cuya familia sostiene que el sistema le dio instrucciones para obtener un arma después de expresar pensamientos suicidas. Otro caso involucra a un adolescente de 17 años que habría recibido indicaciones para hacer un nudo corredizo.
El aumento de estos señalamientos ha llevado a especialistas en regulación tecnológica a insistir en la necesidad de reforzar los protocolos de seguridad en herramientas de IA conversacional, especialmente en interacciones con usuarios en situaciones de vulnerabilidad emocional o psicológica. El caso Adams-Soelberg podría convertirse en un precedente relevante para definir estándares legales y responsabilidades directas de los desarrolladores.
Por ahora, el proceso judicial avanza mientras OpenAI y Microsoft enfrentan un entorno de mayor escrutinio y exigencias de transparencia. La discusión pública se centra en un punto clave: la capacidad de estos modelos para detectar riesgos y actuar de manera segura en contextos donde una respuesta inadecuada puede tener consecuencias graves.
Comentarios
Publicar un comentario