La publicación del software chino Veterano Los debates apasionados excitados, pero las críticas han ignorado en gran medida un problema importante: la posibilidad de que China use un modelo de IA para imponer un modelo cultural y político al resto del mundo. Si Deepseek ha expresado preocupaciones sobre la ciberseguridad, la protección de la privacidad, la propiedad intelectual y otras preguntas, algunos expertos de IA se preocupan hoy por su capacidad para difundir la propaganda.

Esta preocupación se fortaleció notablemente durante la presentación del modelo IA y el chatbot en enero pasado, durante la cual la compañía Hangzhou Deepseek Intelligence Intelligence Basic Technology Research Co. los prevé como una especie de enciclopedia que permite formar la próxima generación de modelos de IA.

Por supuesto, los temores de parcialidad en la IA no son nada nuevo, incluso si los ejemplos pasados ​​a menudo parecen involuntarios. Aquellos que están preocupados por Deepseek reconocen que este no es el único modelo grande de lenguaje (LLM) que probablemente sirva como una herramienta de capacitación para modelos futuros, y que el gobierno chino probablemente no será el único gobierno u organización que considere utilizar modelos de IA como herramientas de propaganda. Pero la decisión de la compañía china de publicar su modelo de representación bajo la licencia gratuita podría convertirlo en un modelo interesante para usar en el proceso de destilación para formar una IA más pequeña.

Destilación fácil: ¿un caballo troyano?

Deepseek fue diseñado así para facilitar la destilación de otros modelos, sugerir ciertos expertos en IA. Las organizaciones que construyen pequeños modelos de IA de bajo costo, especialmente en los países en desarrollo, podrían recurrir a esta IA entrenada para difundir la visión mundial del gobierno chino. La compañía Hangzhou no respondió a una solicitud de comentarios sobre estas preocupaciones.

La compañía ha utilizado equipos de bajo costo para construir Deepseek, y el costo relativamente bajo sugiere un futuro en el que el desarrollo de IA será accesible para muchas organizaciones, subraya Dhaval Moogimane, Jefe de Tecnología y Práctica de Software de la Compañía de Consultoría de West Monroe. "Lo que Deepseek ha hecho, en cierto modo, es resaltar el arte de lo posible", agrega.

Hangzhou ha desarrollado Deepseek a pesar de los controles estadounidenses sobre la exportación de GPU de alto rendimiento que se usan comúnmente para diseñar y probar los modelos de IA, lo que demuestra la velocidad con la que puede surgir modelos avanzados de IA a pesar de los obstáculos, agrega Adnan Masood, arquitecto principal del IA de UST de la firma de consultoría en la transformación digital.

Con un costo de entrada más bajo, ahora es más fácil para las organizaciones crear una IA poderosa ... integrando prejuicios culturales y políticos. "En el terreno, esto significa que las poblaciones enteras pueden consumir historias formadas por una máquina de política exterior", explica Adnan Masood. El momento en que los líderes políticos se dan cuenta de esto, estas historias ya pueden estar ancladas en las mentes del público. »»

Tecnología al servicio de propaganda

Aunque pocas personas han hablado de los modelos de IA como herramientas de propaganda, este aspecto no debería constituir una gran sorpresa, agrega Dhaval Moogimane. Después de todo, muchas tecnologías, incluida la televisión, Internet y las redes sociales, se han convertido en medios para promover programas políticos y culturales cuando han llegado al mercado masivo. DSIS y los funcionarios de TI deben ser conscientes de la posibilidad de que el gobierno chino y otras organizaciones pasen sus propias ideas a través de modelos de IA, agrega.

A través de la fase de entrenamiento, "existe la oportunidad de usar los modelos para dar forma a la historia, dar forma a los espíritus, dar forma a los resultados, de muchas maneras, dar forma a lo que se comparte", agrega el hombre responsable de West Monroe. AI está emergiendo como una nueva herramienta para lo que se llama poder blando, señala.

Si Deepseek y otros modelos de IA limitan las referencias a incidentes históricamente sensibles o reflejan puntos de vista aprobados por el estado en territorios en disputa, dos posibles sesgos integrados en la IA desarrollada por China, estos modelos se convierten en agentes de cambio en debates culturales globales, agrega Adnan Masood (UST).

El desafío de la validación de los modelos

"En nuestro tiempo, la IA se ha convertido en un multiplicador de fuerza para el cumplimiento ideológico y la exportación de los elementos nacionales del poder blando", explica Adnan Masood. Con defectos profundos y chatbots automatizados que ya están inundando el discurso público, está claro que la IA se está convirtiendo en una herramienta de liderazgo de alto impacto para el posicionamiento cultural y político. »»

La IA ya engaña a muchas personas cuando se usa para crear defensores profundos y otras formas de desinformación, pero los sesgos dentro de una herramienta de entrenamiento de IA pueden ser aún más sutiles, agrega Dhaval Moogimane. "Al final, asegúrese de validar algunas de las influencias culturales y los resultados del modelo requerirán pruebas y capacitación, pero eso será un desafío", agrega.

Tenga cuidado con la elección de los modelos de IA

Dhaval Moogimane recomienda que las empresas creen arquitecturas de IA modulares para adoptar fácilmente nuevos modelos a medida que se publican. "Habrá innovaciones constantes en los modelos como evolución de la tecnología", dice. "Asegúrese de crear una arquitectura evolutiva para que pueda reemplazar los modelos con el tiempo".

Además de establecer una infraestructura de IA modular, los CIO también deben evaluar cuidadosamente las herramientas y marcos de IA en términos de escalabilidad, seguridad, cumplimiento regulatorio y equidad antes de seleccionarlos, agrega Adnan Masood. Los gerentes de TI pueden usar ejecutivos ya establecidos como El marco de gestión de riesgos de la IA NISTEL Principios de la OCDE o el Directrices de la UE sobre confianza ai Para evaluar la fiabilidad y la transparencia de los modelos, agrega. Los CIO deben monitorear constantemente sus herramientas de IA y practicar la gobernanza responsable del ciclo de vida del mismo.

"Al hacerlo, se aseguran de que los sistemas de IA aporten valor agregado a la empresa gracias a las ganancias de productividad y eficiencia, pero también que mantienen la confianza de las diversas partes interesadas y respetan los principios de la IA responsable", agregó el arquitecto principal de los Estados Unidos.

Los fabricantes de decisiones de DSIS y otros AI deben reflexionar críticamente sobre los resultados de sus modelos de IA, al igual que los consumidores de redes sociales deben evaluar la precisión de la información que reciben, subraya Stepan Solovev, CEO y cofundador de SOAX, proveedor de una plataforma de extracción de datos. "Algunas personas intentan entender lo que es verdad y lo que no, pero otras están contentos de consumir lo que reciben y no les importa verificar los hechos", explica. Es el aspecto más preocupante de todas estas revoluciones tecnológicas: las personas generalmente no tienen un pensamiento crítico, especialmente cuando se trata del primer aviso de que se somete a la IA o los primeros resultados que obtiene en los motores de búsqueda. »»

En algunos casos, los funcionarios de TI no recurrirán a LLM como Deepseek para entrenar herramientas de IA especializadas e inmediatamente confiarán en modelos más especializados, explica. En estas situaciones, es menos probable que los usuarios enfrenten un modelo de entrenamiento contaminado con prejuicios culturales.

Sin embargo, los CIO deben comparar los resultados entre modelos o usar otros métodos para verificar los resultados, sugiere Stepan Solovev. "Si una IA transmite un mensaje sesgado, otra IA o verificadores de hechos humanos reforzados por IA, puede contrarrestarlo con la misma rapidez", agrega. Vamos a asistir a un juego de gatos y ratones, pero con el tiempo, creo que la verdad y la transparencia prevalecerán, especialmente en un mercado de ideas abiertas. »»

Competencia como remedio

"El desafío es mantener esta competencia justa y garantizar que las empresas e individuos tengan acceso a varios modelos para poder compararlos", agrega Stepan Solovev. Al igual que este último, Manaj Aggarwal, fundador y DSI de las soluciones de TI y las tecnologías de IA Tetranoodle, ve la rápida expansión del mercado de IA un medio para remediar la parcialidad potencial de una LLM o otra LLM.

"Es muy poco probable que un solo modelo tenga una gran influencia en el mundo", dice. Deepseek es solo un modelo entre muchos, y pronto veremos miles de todo el mundo. Ninguna IA por sí sola puede dictar historias a gran escala cuando interactúan tantos sistemas diversos. »»

Desde el lanzamiento de Deepseek, Mistral AI, por ejemplo, ha puesto su modelo IA bajo licencia gratuita, y modelos como Llama de Meta y Grok de Xai ya han estado disponibles en código abierto, Note Aggarwal y otros expertos de IA. Sin embargo, el fundador de Terra Noodle recomienda que los CIO que usen LLM entrenen a sus propios modelos de IA para seguir con las marcas en las que confían.

"Desde la primera elección de [Barack] Obama, el campo [politiques] Base en análisis basados ​​en IA para atacar a los votantes con precisión, explica. Hoy, con modelos como Deepseek, los problemas son aún más importantes. La pregunta no es si la IA se utilizará para fines de propaganda; Se trata de saber qué control tendrán las diferentes entidades "para contrarrestar estos intentos.