Un desarrollador de FFmpeg acusa a OxideAV de lavar su código con IA
Un contribuidor de FFmpeg denuncia que OxideAV usó IA para reescribir su código con licencia LGPL y distribuirlo como código propietario, eludiendo las condiciones de la licencia original.
El pasado 6 de mayo, un desarrollador de FFmpeg abrió una incidencia pública en el repositorio de OxideAV señalando algo concreto y grave: su implementación del codec MagicYUV, publicada originalmente bajo licencia LGPL, habría sido procesada con IA generativa para producir una versión "nueva" que OxideAV distribuye como código propietario. El hilo está disponible en GitHub y fue destacado en Hacker News el mismo día.
La acusación tiene un nombre directo: license laundering asistido por IA. La mecánica, según el desarrollador afectado, consistiría en pasar el código fuente original por un modelo de lenguaje para obtener una reescritura sintácticamente diferente pero funcionalmente idéntica, con el objetivo de obscurecer la procedencia y esquivar las obligaciones de la LGPL —entre ellas, publicar el código fuente de las modificaciones y mantener los avisos de autoría.
Qué se alega exactamente
El desarrollador no acusa a OxideAV de copiar literalmente su código. Lo que señala es más sutil: la IA habría actuado como intermediario para producir una obra derivada que, a ojos de un análisis superficial, parece original, pero que reproduce la misma lógica, las mismas decisiones de diseño y, en algunos fragmentos, estructuras casi idénticas al código fuente de FFmpeg.
Esta distinción importa. Si la reescritura fuera puramente manual y suficientemente transformadora, el debate jurídico sería ya de por sí complicado. Con IA de por medio, se añade una capa adicional: ¿quién es el autor de la salida del modelo? ¿Puede un modelo "infringir" una licencia? ¿Y la empresa que lo instruye con código ajeno?
De momento, ningún tribunal ha resuelto de forma definitiva si el output de un LLM entrenado o instruido con código protegido constituye obra derivada a efectos de copyright. Pero eso no significa que la práctica sea jurídicamente neutra: las obligaciones de las licencias copyleft no exigen demostrar intención, sino rastrear la procedencia.
Por qué esto va más allá de un caso aislado
FFmpeg es una de las bases del ecosistema multimedia de código abierto. Sus componentes aparecen, de forma explícita o no, en reproductores, plataformas de streaming, herramientas de edición y pipelines de procesamiento de vídeo en todo el mundo. Su comunidad lleva décadas vigilando el cumplimiento de licencias con una diligencia poco habitual en el mundo open-source.
Lo que hace relevante este caso —más allá del conflicto puntual con OxideAV— es que ilustra un vector de elusión que la comunidad de software libre no había tenido que considerar hasta hace relativamente poco: usar modelos de IA como lavadora de licencias. Si la práctica resulta efectiva o tolerable, crea un incentivo estructural para que actores con menos escrúpulos la adopten a escala.
Desde el lado de las herramientas de IA, el problema también es relevante. Claude Code, por ejemplo, puede generar reimplementaciones de funciones a partir de descripciones o incluso de código existente. Anthropic incluye en sus condiciones de uso restricciones sobre el uso del modelo para infringir derechos de terceros, pero la supervisión práctica recae en el operador y en el usuario final. No existe aún ningún mecanismo técnico estándar que impida instruir a un LLM con código ajeno para producir una versión "limpia" del mismo.
Para quién es relevante este debate
Para equipos que integran código open-source en productos comerciales, este caso debería funcionar como recordatorio de que el uso de IA en el proceso de desarrollo no neutraliza las obligaciones de licencia. Si el input de un modelo es código bajo LGPL, GPL o Apache 2.0, las restricciones de esa licencia no desaparecen porque la salida parezca distinta.
Para mantenedores de proyectos libres, el caso abre la pregunta de si los mecanismos actuales de detección de incumplimientos —comparación de código fuente, análisis de similitud estructural— son suficientes cuando el infractor usa IA para transformar la forma pero no el fondo.
Y para el ecosistema de IA en general, añade un caso concreto a un debate jurídico que avanza más despacio que la tecnología que pretende regular.
---
Opinión EP: El caso OxideAV no es el primero ni será el último. Lo que sí es llamativo es la transparencia con la que el desarrollador afectado ha documentado su acusación en abierto. Que este tipo de conflictos se ventilen en GitHub antes que en los tribunales es, al menos por ahora, una señal de que la comunidad open-source todavía confía en la presión pública como primer mecanismo de rendición de cuentas.
Fuentes
Seguir leyendo
Reinventar la rueda tiene más sentido del que parece
Andrew Quinn argumenta que construir herramientas ya existentes es un paso necesario en el aprendizaje, no una pérdida de tiempo. Simon Willison lo recoge y merece atención.
Límites de uso en Claude empujan a usuarios hacia alternativas chinas de bajo coste
Un hilo en Hacker News refleja una tendencia creciente: desarrolladores que migran a GLM, Kimi o MiniMax ante los recortes de cuota en los planes de Claude.
Por qué HTML puede ser mejor que Markdown como output de Claude
Un ingeniero del equipo de Claude Code en Anthropic defiende HTML sobre Markdown como formato de salida. Ventanas de 1M tokens cambian el cálculo.