Los riesgos de la IA generativa son mejor discutidos por sus diseñadores. En un momento en el que muchas grandes empresas se preguntan sobre las políticas a implementar internamente para regular los usos de LLM, incluido ChatGPT de OpenAI, Google proporciona información valiosa sobre los riesgos inherentes al uso de estas herramientas. Diseñador de Bard, un chatbot basado en el modelo básico PaLM 2, el gigante prohíbe el uso de esta herramienta... a sus propios desarrolladores internos. En una nota, la firma también prohíbe a sus empleados ingresar información confidencial en el chatbot.

La advertencia de Google a sus propios empleados de que no utilicen directamente el código generado por Bard socava las afirmaciones de Google de que su chatbot puede ayudar a los desarrolladores a ser más productivos. A nuestros colegas de Reuters, el gigante de las búsquedas explica que la prohibición se impuso porque Bard podría potencialmente generar "código no deseado", lo que provocaría errores o aplicaciones complejas e infladas que costarían a los desarrolladores más tiempo para solucionarlo si no utilizaban IA para código en absoluto.

Deuda técnica exponencial

Una afirmación que coincide con la observación de varios departamentos de TI, para quienes la IA generativa, al acelerar la producción de código mal optimizado y mal (o no) controlado, corre el riesgo de generar nueva deuda técnica. En un reciente publicación de blogYves Caseau, director digital e informativo (CDIO) de Michelin, también advirtió de este riesgo, hablando incluso de “deuda exponencial”. "La deuda exponencial significa que a medida que las capacidades de la IA aumentan a un ritmo exponencial, cualquier fragmento de código estático tiene un rendimiento relativo (en comparación con el estado de la técnica) que decae exponencialmente", escribió. él.