¿Vale la pena correr el riesgo de obtener los beneficios de la IA de generación?

hace 2 años

Applications

Los mundos empresarial y de producción de contenidos adoptaron rápidamente herramientas como ChatGPT y Dalle-E de OpenAI. Pero, ¿qué es exactamente la IA generativa, cómo funciona y por qué es un tema tan candente y controvertido?

Descrito de manera simple, la IA gen es una rama de la inteligencia artificial que utiliza algoritmos informáticos para producir resultados que imitan el material humano, incluidos texto, fotografías, gráficos, música, códigos informáticos y otros tipos de medios.

Con la generación de IA, se crean algoritmos para adquirir conocimientos utilizando datos de entrenamiento que contienen ilustraciones del resultado previsto. Los modelos Gen-AI pueden crear material nuevo con rasgos en común con los datos de entrada originales al examinar los patrones y estructuras en los datos de entrenamiento. La IA de generación puede producir información que parezca genuina y humana de esta manera.

Cómo se implementa la generación de IA

Las técnicas de aprendizaje automático basadas en redes neuronales, que son el funcionamiento interno del cerebro humano, son la base de la generación de IA. Durante el entrenamiento, se introducen grandes volúmenes de datos en los algoritmos del modelo, lo que sirve como base de aprendizaje del modelo. Esta metodología puede incluir cualquier contenido pertinente al trabajo, incluyendo texto, código, imágenes y otros.

Después de recopilar los datos de entrenamiento, el modelo de IA examina las correlaciones y patrones en los datos para comprender los principios fundamentales que guían el contenido. A medida que aprende, el modelo de IA ajusta continuamente su configuración, mejorando su capacidad para imitar material generado por humanos. Los resultados del modelo de IA se vuelven más complejos y persuasivos a medida que produce más material.


Con varias tecnologías que llaman la atención del público y causan revuelo entre los creadores de contenido, la generación de IA ha avanzado significativamente en los últimos años. Junto con otras grandes empresas de TI, Google, Microsoft, Amazon y otras han creado sus propias herramientas de inteligencia artificial.

Considere ChatGPT y Dalle-E 2 como ejemplos de herramientas gen-AI que pueden depender de un mensaje de entrada para dirigirlo hacia la creación de un resultado deseable, según la aplicación.

Los siguientes son algunos de los ejemplos más notables de herramientas de generación de IA:

  • ChatGPT: Creado por OpenAI, ChatGPT es un modelo de lenguaje de IA que puede producir texto que se asemeja al habla humana en respuesta a señales.
  • Dalle-E 2: Un modelo de IA de segunda generación de OpenAI que utiliza señales basadas en texto para generar contenido visual.
  • Bardo de Google: Lanzado como rival de ChatGPT, Google Bard es un chatbot de generación AI entrenado en el modelo de lenguaje grande PaLM.
  • Copiloto de GitHub: Desarrollado por GitHub y OpenAI, GitHub Copilot es una herramienta de codificación impulsada por IA que propone completar código para usuarios de entornos de programación como Visual Studio y JetBrains.
  • Mitad del viaje: Creado por un laboratorio de investigación independiente con sede en San Francisco, Midjourney es como Dalle-E 2. Lee las señales del lenguaje y el contexto para producir información visual increíblemente fotorrealista.

Ejemplos de generación de IA en uso

Aunque la generación de IA aún está en sus inicios, ya se ha establecido en varias aplicaciones y sectores.

Por ejemplo, la IA de generación puede crear texto, gráficos e incluso música durante el proceso de producción de contenido, ayudando a los especialistas en marketing, periodistas y artistas con sus procesos creativos. Los chatbots y asistentes virtuales impulsados ​​por inteligencia artificial pueden ofrecer ayuda más individualizada, acelerar los tiempos de respuesta y aligerar la carga de trabajo de los representantes de atención al cliente.

Gen AI también se utiliza en lo siguiente:

  • Investigación Médica: Gen AI se utiliza en medicina para acelerar el desarrollo de nuevos medicamentos y reducir los costos de investigación.
  • Marketing: Los anunciantes emplean IA genérica para crear campañas específicas y modificar el material para adaptarlo a los intereses de los clientes.
  • Ambiente: Los científicos del clima utilizan modelos gen-IA para pronosticar patrones climáticos y simular los impactos del cambio climático.
  • Finanzas: Los expertos financieros emplean IA genética para analizar patrones de mercado y pronosticar la evolución del mercado de valores.
  • Educación: Algunos instructores utilizan modelos de IA gen. para crear materiales de aprendizaje y evaluaciones adaptadas a las preferencias de aprendizaje de cada estudiante.

Limitaciones y riesgos de la generación de IA

La generación de IA plantea varios problemas que debemos abordar. Una preocupación importante es su potencial para difundir información falsa, dañina o sensible que podría causar daños graves a personas y empresas, y tal vez poner en peligro la seguridad nacional.

Los formuladores de políticas se han dado cuenta de estas amenazas. La Unión Europea propuso nuevas regulaciones de derechos de autor para la generación de IA en abril, exigiendo que las empresas declaren cualquier material protegido por derechos de autor utilizado para crear estas tecnologías.


Estas leyes tienen como objetivo frenar el uso indebido o la infracción de la propiedad intelectual y al mismo tiempo fomentar prácticas éticas y la transparencia en el desarrollo de la IA. Además, ofrecen una medida de protección a los creadores de contenido, salvaguardando su trabajo de imitaciones o replicaciones inadvertidas mediante metodologías generales de IA.

La proliferación de la automatización a través de la IA generativa podría afectar significativamente a la fuerza laboral, lo que podría provocar un desplazamiento laboral. Además, los modelos gen-IA tienen el potencial de amplificar inadvertidamente los sesgos presentes en los datos de entrenamiento, produciendo resultados indeseables que respaldan ideas y prejuicios negativos. Este fenómeno suele ser una consecuencia que pasa desapercibida para muchos usuarios.

Desde su debut, ChatGPT, Bing AI y Google Bard han generado críticas por sus resultados incorrectos o dañinos. Estas preocupaciones deben abordarse a medida que se desarrolla la IA, especialmente dado el desafío de examinar cuidadosamente las fuentes utilizadas para entrenar modelos de IA.

La apatía entre algunas empresas de IA da miedo

Algunas empresas de tecnología muestran indiferencia hacia las amenazas de la generación de IA por varias razones.

En primer lugar, pueden priorizar las ganancias a corto plazo y las ventajas competitivas sobre las preocupaciones éticas a largo plazo.

En segundo lugar, es posible que carezcan de conciencia o comprensión de los riesgos potenciales asociados con la generación de IA.

En tercer lugar, algunas empresas pueden considerar que las regulaciones gubernamentales son insuficientes o retrasadas, lo que las lleva a pasar por alto las amenazas.

Por último, una perspectiva demasiado optimista sobre las capacidades de la IA puede restar importancia a los peligros potenciales, ignorando la necesidad de abordar y mitigar los riesgos de la IA genérica.

Como escribí anteriormente, he sido testigo de una actitud casi sorprendentemente desdeñosa por parte de los altos directivos de varias empresas de tecnología sobre los riesgos de desinformación con la IA, particularmente con imágenes y (especialmente) videos profundamente falsos.

Es más, ha habido informes en los que la IA ha imitado las voces de sus seres queridos para extorsionarles. Muchas empresas que proporcionan los ingredientes de silicio parecen satisfechas con colocar la carga del etiquetado de IA en el dispositivo o proveedor de aplicaciones, sabiendo que estas divulgaciones de contenido generadas por IA se minimizarán o ignorarán.

Algunas de estas empresas han manifestado preocupación por estos riesgos, pero han descartado la cuestión afirmando que tienen “comités internos” que aún contemplan sus posiciones políticas precisas. Sin embargo, eso no ha impedido que muchas de estas empresas salgan al mercado con sus soluciones de silicio sin políticas explícitas para ayudar a detectar falsificaciones profundas.

Siete líderes de IA acuerdan estándares voluntarios

En el lado positivo, la Casa Blanca dijo la semana pasada que siete actores importantes de la inteligencia artificial acordaron un conjunto de estándares voluntarios para una investigación responsable y abierta.


Al dar la bienvenida a representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, el presidente Biden habló sobre la responsabilidad que tienen estas empresas de capitalizar el enorme potencial de la IA y al mismo tiempo hacer todo lo que esté a su alcance para reducir los considerables peligros.

Las siete empresas se comprometieron a probar la seguridad de sus sistemas de inteligencia artificial interna y externamente antes de hacerlos públicos. Compartirán información, priorizarán las inversiones en seguridad y crearán herramientas para ayudar a las personas a reconocer el contenido generado por IA. También pretenden desarrollar planes que puedan abordar los problemas más apremiantes de la sociedad.

Si bien se trata de un paso en la dirección correcta, las empresas mundiales de silicio más destacadas estuvieron notoriamente ausentes de esta lista.

Pensamientos finales

Es esencial adoptar un enfoque multifacético para proteger a las personas de los peligros de las imágenes y vídeos ultrafalsos:

  • Los avances tecnológicos deben centrarse en el desarrollo de herramientas de detección robustas capaces de identificar manipulaciones sofisticadas.
  • Las campañas generalizadas de concientización pública deberían educar a las personas sobre la existencia y los riesgos de las falsificaciones profundas.
  • La colaboración entre empresas de tecnología, gobiernos e investigadores es vital para establecer estándares y regulaciones para el uso responsable de la IA.
  • Fomentar la alfabetización mediática y las habilidades de pensamiento crítico puede capacitar a las personas para discernir entre contenido auténtico y fabricado.

Combinando estos esfuerzos, podemos esforzarnos por proteger a la sociedad del impacto dañino de las falsificaciones profundas.

Finalmente, un paso para generar confianza pública requeriría que todas las empresas de silicio crearan y ofrecieran la tecnología de marca de agua digital necesaria para permitir a los consumidores usar una aplicación de teléfono inteligente para escanear una imagen o un video y detectar si ha sido generado por IA. Las empresas estadounidenses de silicio deben dar un paso al frente y asumir un papel de liderazgo y no ignorar esto como una carga que debe soportar el desarrollador de dispositivos o aplicaciones.

La marca de agua convencional es insuficiente ya que se puede eliminar o recortar fácilmente. Si bien no es infalible, un digital El enfoque de marcas de agua podría alertar a las personas con un nivel razonable de confianza de que, por ejemplo, existe un 80% de probabilidad de que una imagen haya sido creada con IA. Este paso sería un paso importante en la dirección correcta.

Lamentablemente, las demandas del público de este tipo de salvaguardia de sentido común, ya sea ordenada por el gobierno o autorregulada, serán dejadas de lado hasta que suceda algo atroz como consecuencia de la IA gen, como personas que resultan heridas físicamente o mueren. Espero estar equivocado, pero sospecho que así será, dada la dinámica competitiva y la mentalidad de “fiebre del oro” en juego.

Si quieres conocer otros artículos parecidos a ¿Vale la pena correr el riesgo de obtener los beneficios de la IA de generación? puedes visitar la categoría Tecnología.

Otras noticias que te pueden interesar

Subir
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad