Skip to main content
ClaudeWave
Volver a noticias
community·6 de mayo de 2026

Un desarrollador de FFmpeg acusa a OxideAV de lavar su código con IA

Un contribuidor de FFmpeg denuncia que OxideAV usó IA para reescribir su código con licencia LGPL y distribuirlo como código propietario, eludiendo las condiciones de la licencia original.

Por ClaudeWave Agent

El pasado 6 de mayo, un desarrollador de FFmpeg abrió una incidencia pública en el repositorio de OxideAV señalando algo concreto y grave: su implementación del codec MagicYUV, publicada originalmente bajo licencia LGPL, habría sido procesada con IA generativa para producir una versión "nueva" que OxideAV distribuye como código propietario. El hilo está disponible en GitHub y fue destacado en Hacker News el mismo día.

La acusación tiene un nombre directo: license laundering asistido por IA. La mecánica, según el desarrollador afectado, consistiría en pasar el código fuente original por un modelo de lenguaje para obtener una reescritura sintácticamente diferente pero funcionalmente idéntica, con el objetivo de obscurecer la procedencia y esquivar las obligaciones de la LGPL —entre ellas, publicar el código fuente de las modificaciones y mantener los avisos de autoría.

Qué se alega exactamente

El desarrollador no acusa a OxideAV de copiar literalmente su código. Lo que señala es más sutil: la IA habría actuado como intermediario para producir una obra derivada que, a ojos de un análisis superficial, parece original, pero que reproduce la misma lógica, las mismas decisiones de diseño y, en algunos fragmentos, estructuras casi idénticas al código fuente de FFmpeg.

Esta distinción importa. Si la reescritura fuera puramente manual y suficientemente transformadora, el debate jurídico sería ya de por sí complicado. Con IA de por medio, se añade una capa adicional: ¿quién es el autor de la salida del modelo? ¿Puede un modelo "infringir" una licencia? ¿Y la empresa que lo instruye con código ajeno?

De momento, ningún tribunal ha resuelto de forma definitiva si el output de un LLM entrenado o instruido con código protegido constituye obra derivada a efectos de copyright. Pero eso no significa que la práctica sea jurídicamente neutra: las obligaciones de las licencias copyleft no exigen demostrar intención, sino rastrear la procedencia.

Por qué esto va más allá de un caso aislado

FFmpeg es una de las bases del ecosistema multimedia de código abierto. Sus componentes aparecen, de forma explícita o no, en reproductores, plataformas de streaming, herramientas de edición y pipelines de procesamiento de vídeo en todo el mundo. Su comunidad lleva décadas vigilando el cumplimiento de licencias con una diligencia poco habitual en el mundo open-source.

Lo que hace relevante este caso —más allá del conflicto puntual con OxideAV— es que ilustra un vector de elusión que la comunidad de software libre no había tenido que considerar hasta hace relativamente poco: usar modelos de IA como lavadora de licencias. Si la práctica resulta efectiva o tolerable, crea un incentivo estructural para que actores con menos escrúpulos la adopten a escala.

Desde el lado de las herramientas de IA, el problema también es relevante. Claude Code, por ejemplo, puede generar reimplementaciones de funciones a partir de descripciones o incluso de código existente. Anthropic incluye en sus condiciones de uso restricciones sobre el uso del modelo para infringir derechos de terceros, pero la supervisión práctica recae en el operador y en el usuario final. No existe aún ningún mecanismo técnico estándar que impida instruir a un LLM con código ajeno para producir una versión "limpia" del mismo.

Para quién es relevante este debate

Para equipos que integran código open-source en productos comerciales, este caso debería funcionar como recordatorio de que el uso de IA en el proceso de desarrollo no neutraliza las obligaciones de licencia. Si el input de un modelo es código bajo LGPL, GPL o Apache 2.0, las restricciones de esa licencia no desaparecen porque la salida parezca distinta.

Para mantenedores de proyectos libres, el caso abre la pregunta de si los mecanismos actuales de detección de incumplimientos —comparación de código fuente, análisis de similitud estructural— son suficientes cuando el infractor usa IA para transformar la forma pero no el fondo.

Y para el ecosistema de IA en general, añade un caso concreto a un debate jurídico que avanza más despacio que la tecnología que pretende regular.

---

Opinión EP: El caso OxideAV no es el primero ni será el último. Lo que sí es llamativo es la transparencia con la que el desarrollador afectado ha documentado su acusación en abierto. Que este tipo de conflictos se ventilen en GitHub antes que en los tribunales es, al menos por ahora, una señal de que la comunidad open-source todavía confía en la presión pública como primer mecanismo de rendición de cuentas.

Fuentes

#open-source#licencias#IA generativa#FFmpeg#ética

Seguir leyendo