Prohibir, bloquear, prohibir: la prensa está llena de ejemplos de empresas que han prohibido ChatGPT. Si lo hicieron Samsung, Apple, Deutsche Bank, Verizon o Amazon, es la decisión correcta, ¿verdad? Responder a esta pregunta no es tan sencillo. Por supuesto, prohibir ChatGPT inicialmente parece totalmente apropiado: es absolutamente necesario evitar las filtraciones de datos. El ejemplo de Samsung es especialmente llamativo: los empleados confiaron a la IA conversacional notas de reuniones que sintetizar, código fuente que analizar... Son muchos datos que enriquecen la base de datos ChatGPT y que, por lo tanto, podrían llegar a otros usuarios.

Índice
  1. Después de la TI en la sombra, ¿la IA en la sombra?
  2. Primera palanca a activar: aculturar a los empleados
  3. Segunda palanca: proporcionar un entorno técnico
  4. Prohibir... a condición de prescribir

Después de la TI en la sombra, ¿la IA en la sombra?

Pero esta prohibición debe ser selectiva, temporal y acompañada de un conjunto de decisiones y acciones estratégicas para fomentar el uso eficaz y seguro de las herramientas de IA generativa. De lo contrario, sería un tiro en el pie. En primer lugar, porque las empresas y los empleados que utilizan la IA generativa ganan enormemente en productividad y pueden ofrecer servicios innovadores más rápidamente. Luego, porque todos lo sabemos: los usuarios empresariales siempre encuentran una manera de sortear las prohibiciones cuando encuentran algo mucho más práctico. En este caso, si el uso de ChatGPT y otras aplicaciones de IA generativa se ha disparado tan rápidamente es porque estas herramientas proporcionan una enorme ayuda en la vida diaria.

Después de la "TI en la sombra", llega el momento de la "IA en la sombra", donde los empleados encontrarán una manera de utilizar la IA generativa desde casa, desde su teléfono o porque no hay una nueva aplicación disponible. aún no habrá sido incluido en la lista negra. Por lo tanto, al igual que ocurre con Internet, las herramientas colaborativas y las redes sociales, estas medidas de protección deben ir acompañadas rápidamente de medidas de supervisión y estímulo.

Primera palanca a activar: aculturar a los empleados

El primer problema a abordar es el desconocimiento de estas herramientas, en el sentido de cómo funcionan. Y en esto, los principales medios de comunicación y otras competencias del tipo “ChatGPT versus un filósofo o versus un abogado” no han ayudado. Por tanto, debemos comenzar recordando una serie de hechos evidentes. En particular, que la IA no razona y no comprende lo que produce. Simplemente predice la siguiente palabra de un texto, el siguiente píxel de una imagen, etc. en función de su base de conocimientos. Si no tiene la información, la inventará aplicando un mecanismo de probabilidad; entonces decimos que está alucinando. Esto puede resultar problemático para el uso profesional y requiere gran atención por parte del usuario.

El otro elemento de desconocimiento se refiere a la distinción entre herramientas públicas generales, que se basan en todas las indicaciones, y herramientas profesionales, para las cuales el proveedor garantiza la estanqueidad de las áreas y la confidencialidad de los datos introducidos. En otras palabras, se trata de distinguir la IA generativa pública (por ejemplo ChatGPT y Google Bard) de la IA generativa privada (GPT y Google Palm).

Dada la multiplicidad de herramientas y reglas de uso asociadas, esta distinción puede resultar compleja, incluso para los servicios de TI. Por ejemplo, si bien OpenAI recuperará los datos ingresados ​​en ChatGPT para alimentar su modelo, se compromete a no hacerlo con los datos ingresados ​​en GPT a través de la API, al tiempo que explica que conservará estos datos durante un mes con fines de supervisión legal.

Más allá de explicar a las personas por qué ya no tienen derecho a acceder a determinadas herramientas, es sobre todo fundamental aculturarlas a este tipo de herramientas, a su uso, a los malos usos que podemos hacer de ellas y al marco regulatorio que las rodea. a ellos. Establecer una gobernanza clara y bien equipada. Porque en algún momento tendremos que confiar en los usuarios, como ocurre con el acceso a Internet, LinkedIn, etc., donde también es posible dejar escapar información confidencial.

Segunda palanca: proporcionar un entorno técnico

La segunda palanca debe estar preparada incluso antes de activar la primera. Se trata de pensar muy rápidamente en las herramientas que desea brindar a sus empleados. No es necesario que la lista esté completa desde el principio, pero es absolutamente necesario iniciar esta primera iteración muy rápidamente, para poder proporcionar, desde la fase de aculturación, un entorno técnico que ofrezca acceso y utilización seguros a un conjunto de herramientas. En primer lugar, esto permite evitar el efecto de la “IA en la sombra” y permanecer en un entorno controlado. Entonces, esta elección temprana dará a la fase de aculturación un lado práctico, con ejemplos concretos realizados utilizando las herramientas autorizadas, e incluso una familiarización con estas herramientas.

Esto no requiere necesariamente tener que crear y operar su propio modelo de lenguaje: proveedores como Google, Microsoft, Amazon o los jugadores puros han captado rápidamente el beneficio de ofrecer instancias compartimentadas para las empresas. Quizás sea mejor dedicar sus esfuerzos a reunir dichos recursos: por ejemplo, una base de datos vectorial para introducir semántica dentro de sus propios documentos, un orquestador para encadenar llamadas a servicios o incluso estudios para crear, optimizar y versionar los mensajes utilizados.

Prohibir... a condición de prescribir

La IA generativa en la empresa concierne a casi todas las profesiones: marketing, jurídica, RRHH, desarrollo... Es un factor de productividad extraordinario, que no debe verse obstaculizado por el miedo y unas normativas tan restrictivas que acabarán provocando resultados contrarios a los buscados. . Por el contrario, fomentar su uso debería ser la norma. Para comprender mejor estas herramientas, sus posibilidades y sus límites, el CIO y sus equipos deberán ser los primeros en identificarlas, evaluarlas y probarlas. Que las notas marco provengan del departamento de TI, con el apoyo de otros representantes de Comex (particularmente en los aspectos legales y de recursos humanos). Y que el departamento de TI sea el primer departamento formado, para brindar este entorno tecnológico y el soporte asociado. En otras palabras: si hay una prohibición, debe verse como un simple paso dentro de todo un enfoque proactivo.