Los agentes generadores de código, basados en la IA, deben ocuparse de una gran parte del desarrollo del software en los próximos años, pero este cambio irá acompañado de un riesgo legal en términos de propiedad intelectual.
Los agentes de IA constituirán un progreso en comparación con los asistentes de desarrollo basados en AI, o co -pilotes, utilizados hoy por muchos programadores para escribir SNCHE of Code. Pero como es probable que los agentes de codificación escriban más software y realicen tareas que generalmente dedican a los desarrolladores principiantes, las empresas tendrán que monitorear de cerca los resultados de sus robots de codificación, según abogados especializados en tecnología.
Según Jeffrey Gluck, abogado de Panitch Schwarze, especializado en propiedad intelectual, los medios y los artistas ya han traído varias acciones legales antes de la violación de la ley estadounidense contra los proveedores de IA, los demandantes acusan a este último de usar su equipo para capacitar a sus modelos de IA o plagio en los resultados ofrecidos a los usuarios.
Lo mismo podría suceder con el código de software, incluso si las empresas generalmente no comparten su código fuente, dice. "¿El resultado rompe algo que alguien más ha hecho?" Cuanto más se capacitó en la IA utilizando el trabajo de un autor como datos de capacitación, más probable es que el resultado se vea así ", dijo el abogado.
¿Cómo se formó la IA?
Más allá de la posibilidad de que los agentes de codificación basados en el código de copia de IA, los tribunales deberán decidir si los proveedores de herramientas tecnológicas pueden usar equipos protegidos por derechos de autor, incluidos ciertos códigos de fuentes, para capacitar a sus modelos, explica Jeffrey Gluck. "En términos de modelos de idiomas principales, la cuestión de los derechos de autor aún no se ha resuelto", dice.
Los problemas legales no están a punto de desaparecer, agrega Michael Word, un abogado especializado en propiedades intelectuales y tecnologías de información en el gabinete Dykema Gossett. "Ya vemos la posibilidad de usar AI en el fondo, principalmente para escribir partes importantes del código", dice el abogado. A través de la interfaz de usuario, indica lo que desea que haga su aplicación, presione un botón y el código se genera en segundo plano. »»
Sin un examen del código generado por la IA, las organizaciones pueden exponerse a procedimientos legales, agrega. "Hay mucho trabajo por hacer detrás de escena alrededor de estos extremos del código de unidad que se puede tomar prestado", agrega Michael Word. ¿Todos estos préstamos provienen de una sola fuente o de múltiples fuentes? ».
Si un código escrito por un ser humano también puede infringir derechos de autor o violar las licencias de software gratuito, el riesgo del código generado por la IA está vinculado a los datos sobre los que está capacitado de IA, explica Ilia Badeev, Gerente de Ciencias de Datos de Trevolution Group, una compañía que se especializa en tecnología para el sector de viajes. Y es muy probable que muchos agentes de IA se formen en códigos protegidos por los derechos de propiedad intelectual.
"Esto significa que la IA puede producir un código idéntico a un código patentado a partir de sus datos de capacitación, lo que representa un gran riesgo", resume Ilia Badeev. Lo mismo ocurre con el software gratuito. Muchos programas de código fuente abierto están destinados solo a uso no comercial. Cuando una IA genera código, no sabe cómo se utilizará este código y, por lo tanto, puede encontrar accidentalmente violar los términos de la licencia. »»
Primeras medidas anti-plagio en proveedores
Github Copilot, asistente de Microsoft, reconocer En casos raros, que podría reproducir ejemplos de código utilizado para causar el modelo GitHub AI ”. El asistente de codificación tiene un filtro de referencia de código opcional para detectar y eliminar sugerencias que copian del código público, y debe integrar una función de referencia de código para ayudar a los usuarios a encontrar y examinar las licencias de código abierto asociadas y potencialmente relevantes.
Github también ha establecido protecciones legales. "Cuando los usuarios activan el filtro que bloquea las reproducciones de código público existentes, están cubiertos por la política de compensación de GitHub", dijo un portavoz de la compañía.
Tabnine, otro proveedor asistente de desarrollo de IA, anunció su propio agente de revisión de código a fines de octubre. Pero GitHub Copilot y Tabnin no son los únicos asistentes disponibles, y GitHub señala que los usuarios son responsables de sus propias políticas de gestión de licencias de código abierto.
Para protegerse, las organizaciones que usan agentes de codificación IA deberán verificar que el código producido por la IA no viole los derechos de autor y las licencias de código abierto, ya sea pidiendo a sus desarrolladores que vean o mediante servicios especializados, dice Michael Word de Dykema Gossett. Ciertas plataformas de generación de código por IA "contribuirán a protegerlo y retirarse de una determinada responsabilidad, o al menos para tranquilizarlo", dijo el abogado.
Es probable que surjan otros servicios, según él. "A medida que se desarrollan los usos de los asistentes, este tipo de proveedor de servicios, lo que le permite descargar su código fuente para verificar que no incluya delitos al código de código abierto", explica. Estos servicios capacitarán en conjuntos de datos públicos existentes y verificarán su código para identificar posibles quejas para los derechos de autor. »»
Ilia Badeev, de Trevolution, recomienda que las empresas usen agentes para verificar los resultados producidos por los asistentes, de la misma manera que verifican el código generado por el hombre para detectar violaciones de la propiedad intelectual. "Siempre debe aplicar las mismas buenas prácticas que para un código escrito por un humano; las revisiones del código siguen siendo tan importantes, explica. No se puede confiar en AI para que lo haga todo".
¿Un riesgo también para el CIO?
No sabemos exactamente en qué medida esta pregunta será un problema para las organizaciones que implementan agentes de codificación. Jeffrey Gluck, de Panitch Schwarze, sugiere que los grandes proveedores de IA podrían ser objetivos más grandes para el enjuiciamiento de derechos de autor y las violaciones de la propiedad intelectual, pero Michael Word cree que las organizaciones de usuarios también corren un riesgo, especialmente cuando usan agentes para desarrollar un software popular y externo.
"Debe ser consciente de lo que están haciendo sus desarrolladores", dijo el abogado. Sus codificadores utilizarán la tecnología porque es una herramienta muy útil, y es difícil evitar que ocurra. De ahí la necesidad, para los CIO, tomar medidas equilibradas para evitar violaciones de la propiedad intelectual, agrega.
Otras noticias que te pueden interesar