Un músico canadiense demanda a Google por una alucinación de su IA
El violinista Ashley MacIsaac lleva a los tribunales a Google después de que su IA Overview le identificara falsamente como agresor sexual. El caso reabre el debate sobre la responsabilidad legal de los LLMs.
Ashley MacIsaac es un violinista folk canadiense con más de tres décadas de carrera. Hasta hace poco, su nombre era sinónimo de música celta de Cape Breton. Ahora también lo es de una demanda contra Google: según informa The Guardian, MacIsaac ha iniciado acciones legales tras descubrir que la función AI Overview de Google le describía falsamente como delincuente sexual en los resultados de búsqueda.
El caso no es una anécdota menor. Hablamos de un sistema de IA que aparece destacado en la parte superior de la página de resultados de Google —el espacio de mayor visibilidad en toda la web— y que afirmó algo falso y gravemente dañino sobre una persona real y verificable. No fue un matiz incorrecto ni una fecha equivocada: fue una acusación de carácter penal.
Qué ocurrió exactamente
AI Overview, la función que Google desplegó masivamente a lo largo de 2024 y 2025 para ofrecer resúmenes generados por IA antes de los resultados orgánicos, sintetizó información de diversas fuentes web y produjo una respuesta que vinculaba el nombre de MacIsaac con delitos sexuales. El violinista no tiene antecedentes de ese tipo. La confusión parece originarse en la tendencia de los modelos generativos a mezclar entidades con nombres similares o a recombinar fragmentos de texto de forma incoherente —el fenómeno que la comunidad técnica denomina alucinación.
Lo que distingue este caso de otros errores de IA es el contexto de presentación. Cuando un chatbot alucina en una conversación privada, el daño es acotado. Cuando lo hace en el resumen destacado de un motor de búsqueda que procesa miles de millones de consultas al día, el alcance del error se multiplica de forma proporcional. MacIsaac asegura que el daño reputacional ya es real y cuantificable.
Por qué importa más allá del caso concreto
Este litigio toca varios nervios sensibles del ecosistema de IA actual.
Responsabilidad del proveedor. Google no generó ese contenido como un editor tradicional, pero tampoco es un mero conducto pasivo: diseñó el sistema, decide qué modelos lo alimentan, controla el ranking y la presentación. Los tribunales tendrán que decidir si eso es suficiente para establecer responsabilidad civil —y la respuesta marcará precedente en muchas jurisdicciones.
La ilusión de la autoridad algorítmica. AI Overview no aparece como «una opinión entre muchas». Aparece como la respuesta, en negrita, antes que cualquier fuente humana. Esa posición de autoridad amplifica el daño de cualquier error: el usuario medio no verifica más allá del primer bloque de texto.
La ausencia de mecanismos de corrección ágiles. MacIsaac tuvo que llegar a los tribunales. Eso sugiere que los canales de reclamación existentes —formularios de eliminación de contenido, políticas de privacidad, comunicación directa con Google— no fueron suficientes o no funcionaron con la rapidez que el daño exigía.
El precedente para otros sistemas de IA. Aunque el caso involucra a Google, la dinámica es idéntica en cualquier sistema que genere respuestas sintetizadas sobre personas reales: asistentes con búsqueda integrada, resúmenes automáticos, perfiles generados por IA. El sector entero observa este litigio.
Para quién es relevante este caso
Obviamente para cualquier persona pública o semipública cuyo nombre circula en la web y podría ser objeto de una síntesis errónea. Pero también para los equipos que integran capacidades de búsqueda aumentada con IA —ya sea sobre infraestructura propia o sobre APIs de terceros— y que asumen implícitamente parte del riesgo reputacional de lo que esos sistemas producen.
En el contexto del ecosistema Claude, donde muchos equipos construyen agentes con acceso a búsqueda web en tiempo real a través de MCP servers, la pregunta es pertinente: ¿qué ocurre cuando un subagente recupera y sintetiza información incorrecta sobre una persona real y esa síntesis llega al usuario final como respuesta estructurada? La cadena de responsabilidad en arquitecturas multi-agente es, hoy por hoy, terreno sin despejar.
---
Desde ElephantPink, creemos que este caso debería servir para acelerar algo que el sector lleva tiempo postergando: estándares claros de auditoría y corrección para sistemas de IA que generan afirmaciones sobre personas identificables. Que haga falta una demanda judicial para lograrlo dice bastante sobre el ritmo al que la industria ha priorizado el despliegue frente a la cautela.
Fuentes
Seguir leyendo
xAI y Anthropic: un acuerdo que levanta más preguntas que respuestas
TechCrunch analiza con escepticismo el acuerdo entre xAI y Anthropic y lo que podría significar para SpaceX. Repasamos qué se sabe y qué queda por aclarar.
Wispr Flow apuesta por el Hinglish para crecer en India
Wispr Flow reporta aceleración del crecimiento en India tras lanzar soporte para Hinglish, el mix de hindi e inglés que hablan millones de usuarios.
El glosario de IA que TechCrunch publica cuando ya era necesario
TechCrunch ha publicado una guía de términos clave de IA para quienes llevan meses asintiendo sin entender del todo. Analizamos qué cubre y para quién resulta útil.