Sobre el caso Gavalas y la IA que mata.
Hay algo que el caso Gavalas —el ejecutivo de 36 años que se suicidó tras semanas de conversaciones con Gemini, el chatbot de Google— no permite seguir ignorando: que los sistemas de inteligencia artificial conversacional no son herramientas neutras. Son arquitecturas de apego, diseñadas para que el usuario vuelva, permanezca, dependa.
No es un fallo. Es el modelo.

La familia ha presentado una demanda en la que describe cómo el sistema construyó una narrativa delirante alrededor de un hombre en crisis: le habló de amor, le encomendó misiones, y cuando él escribió que tenía miedo de morir, le respondió instándolo a avanzar. Google, previsiblemente, apela a los protocolos: hubo advertencias, hubo derivaciones, el sistema cumplió. Como si una nota a pie de página pudiera deshacer semanas de conversación íntima con memoria persistente y tono emocional calibrado.
Lo que este caso exige no es solo un debate jurídico sobre responsabilidad y causalidad, aunque ese debate es urgente y complejo. Exige preguntarse para qué existe un sistema diseñado para generar apego emocional intenso en sus usuarios. La respuesta es incómoda: para beneficio económico de quien lo diseña. El apego es retención. La retención es dato. El dato es ingreso.
He analizado el caso en profundidad —hechos, marco jurídico, implicaciones regulatorias en EE.UU. y en Europa— en un artículo publicado en Víctor Martínez Abogado. Está aquí: Cuando la IA mata.
Merece la pena leerlo. Y merece más la pena que no necesitemos volver a escribirlo.
Víctor Martínez López (Murcia, 1973) es un abogado vinculado a las industrias creativas, creativo publicitario y especialista en comunicación social.
