Software de código abierto Prospera en la transparencia y la colaboración, mientras que los asistentes de codificación de IA más avanzados de hoy a menudo se construyen como sistemas cerrados y patentados.
A medida que la IA generativa se generaliza, los desarrolladores y organizaciones preguntan si estos dos mundos realmente pueden coexistir.
Filosofías opuestas: desarrollo abierto versus cerrado
En la superficie, las filosofías del desarrollo de código abierto y el desarrollo actual de IA parecen completamente opuestas. Los proyectos de código abierto son transparentes: cualquiera puede inspeccionar el código, reutilizarlo bajo licencias definidas y contribuir con mejoras.
En código abierto, atribución y licencias son centrales; desarrolladores Elija licencias que especifiquen cómo se puede usar su código y que a menudo requieren preservar créditos.
Los asistentes de codificación de IA, sin embargo, operan como modelos opacos aprendidos. Ingelan grandes cantidades de código (gran parte de él de código abierto) y producen sugerencias sin revelar las fuentes originales.
El conocimiento de la IA es una amalgamación estadística, que a menudo carece de una procedencia clara para el código que genera. Los investigadores de Snyk advierten que Black-Box Herramientas AI Puede mezclar código de múltiples fuentes, arriesgando violaciones inadvertidas.
Si bien el código abierto se basa en la propiedad compartida, la mayoría de las herramientas de IA son impulsadas por intereses corporativos y permanecen cerrados. Una vez que se escribe el código generado por IA, generalmente no existe un mecanismo claro para rastrear, actualizar o asegurar el código si resulta ser defectuoso.
Por el contrario, los proyectos de código abierto generalmente lanzan actualizaciones regulares y parches de seguridad, lo que ayuda a salvaguardar el código donde los proyectos siguen mantenidos activamente.
Abrir modelos y datos
Las empresas a menudo son reacias a abrir sus modelos o datos de capacitación, citando la ventaja y la seguridad competitivas. Esta falta de transparencia puede chocar con los valores de código abierto. De hecho, partes de la comunidad libre/de código abierto (FOSS) han reaccionado fuertemente contra la incursión del código AI de caja negra en su dominio.
Existe un temor muy real de que las herramientas de IA puedan desviar el código fuente abierto sin el crédito o el cumplimiento adecuado, socavando la premisa misma de Open colaboración.
Sin embargo, a pesar de estas diferencias, la IA y el código abierto están profundamente interconectados. Los asistentes modernos del código de IA deben gran parte de su destreza al código fuente abierto; de hecho, generalmente están capacitados en millones de repositorios públicos de GitHub y otros archivos de código abierto. Un estudio encontró que una aplicación promedio está aproximadamente 70% compuesta de componentes de código abierto.
Esto en sí mismo puede crear vulnerabilidades. En el informe de seguridad del código AI 2023 de Snyk, más de la mitad de los desarrolladores dijeron que con frecuencia se encuentran seguridad Problemas en el código generado por IA, porque la IA fue capacitada en el código de código abierto que contenía errores o vulnerabilidades conocidas.
En otras palabras, los asistentes de IA están parados sobre los hombros de los gigantes de código abierto, pero también heredan las ‘verrugas’ de código abierto y obligaciones de licencia. Lo que se necesita son estrategias que se casen con la velocidad y el poder de la IA con la transparencia y la claridad legal del código abierto.
Donde las dos soluciones se cruzan
Existen algunas alineaciones naturales entre el desarrollo impulsado por la IA y el código abierto. Ambos tienen como objetivo democratizar la creación de software: código abierto compartiendo código y asistentes de IA al permitir la codificación a través del lenguaje natural.
Ambos pueden acelerar la innovación y productividad. Y lo que es más importante, ambos confían en una comunidad de desarrolladores sano. Las herramientas de inteligencia artificial no generan un código de calidad espontáneamente: aprenden del código escrito por los desarrolladores humanos y mejoran a través de bucles de retroalimentación con los usuarios.
Los desarrolladores no están a punto de renunciar a los asistentes útiles de IA, ni deberían tener que hacerlo, dados los beneficios, pero deben permanecer desconfiados de los riesgos.
Lograr la armonía entre las herramientas de IA y el desarrollo de código abierto requerirá un esfuerzo en ambos lados: los proveedores de IA deben construir en salvaguardas y transparencia, y los desarrolladores y comunidades deben adaptar sus políticas y flujos de trabajo.
Las mejores prácticas para una coexistencia pacífica
Las herramientas emergentes pueden comparar el código generado por IA con repositorios públicos para mostrar información de licencia. Esto ayuda a los desarrolladores a evaluar los riesgos de reutilización y evitar violaciones, especialmente si los asistentes de IA pueden citar fuentes de manera similar a las referencias académicas.
La forma más fácil de evitar las violaciones de la licencia es evitarlas en la raíz. Si un modelo de IA solo está capacitado en un código que tiene licencia permisiva o en el dominio público, entonces el riesgo de que regurgite el código de propiedad sin permiso cae dramáticamente.
El propio motor de seguridad basado en IA de Snyk, por ejemplo, aprende continuamente de repositorios de código abierto con licencias muy específicas que permiten el uso comercial. En el futuro, la capacitación en datos permisibles se convertirá en una expectativa de referencia.
Las herramientas de IA deben convertirse en ciudadanos conscientes de la seguridad del ecosistema de desarrolladores. Esto significa construir en cheques para las vulnerabilidades de seguridad y el cumplimiento de la licencia a medida que se está generando código. Los desarrolladores que utilizan asistentes de IA deben tratar las salidas de IA con la misma diligencia que en un código de terceros desde una fuente desconocida.
Comunidades de código abierto y empresa Los equipos deben desarrollar políticas claras sobre el uso de código generado por IA. Las prohibiciones general son un enfoque, pero muchos proyectos pueden optar por un punto medio: permitir que las contribuciones asistidas por AI-AI con supervisión adecuada, que requieren la aprobación previa de cualquier código derivado de AI-AI, por ejemplo. La capacitación y la conciencia regulares son clave, por lo que los desarrolladores entienden tanto los beneficios como los riesgos de la IA generativa en la codificación.
También es importante considerar exactamente lo que se está alimentando con la IA. Las organizaciones que usan herramientas de código abierto junto con IA deben tener cuidado con los datos privacidad. Compartir ese código con un asistente de IA podría hacerlo inadvertidamente que sea parte del conocimiento del modelo. Solo comparta lo que está dispuesto a compartir y mantenga el código verdaderamente privado lejos de los sistemas de IA de terceros.
Un camino hacia adelante: puente de código abierto y IA
La forma más sencilla de superar la paradoja puede resolverse adoptando lo mejor de ambos mundos. Ya estamos viendo el movimiento hacia ese término medio, con principios de código abierto que influyen en la IA y viceversa.
Para los asistentes de codificación de IA a florecer realmente a largo plazo, la confianza es la clave. Los desarrolladores deben confiar en que las herramientas ayudarán, no dañan, sus bases de código, lo que significa que no hay agujeros de seguridad ocultos y no hay cuerdas legales ocultas adjuntas.
Al insistir en la apertura en nuestra IA y responsabilidad en nuestro uso de código abierto, podemos resolver la paradoja, acelerando la innovación mientras mantenemos los valores que hicieron que el código abierto fuera un éxito en primer lugar.
Enumeramos los mejores sitios para contratar desarrolladores.
Este artículo fue producido como parte del canal de Insights Expert de TechRadarpro, donde presentamos las mejores y más brillantes mentes de la industria de la tecnología en la actualidad. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarpro o Future PLC. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro
















