Una semana después de su lanzamiento, la IA generativa de Amazon llamada Q está sufriendo algunos problemas. De hecho, un artículo publicado en El boletín informativo The Platformer de Casey Newton sugiere que la solución es víctima de alucinaciones y filtraciones de datos confidenciales, según los comentarios de los empleados de la empresa que la probaron. Sin embargo, según un portavoz de Amazon, Q no reveló información confidencial. "Algunos empleados intercambian comentarios a través de canales internos y sistemas de emisión de tickets, lo cual es una práctica habitual en Amazon", añade. “No se han identificado problemas de seguridad como resultado de estos comentarios. Apreciamos todos los comentarios que ya hemos recibido y continuaremos mejorando Q a medida que pasa de la vista previa a la disponibilidad general".

“A pesar de que Amazon pretende convertir a su asistente en el compañero de trabajo de millones de personas, Q puede no estar preparado para su uso empresarial”, afirman los analistas que siguen el sector. "Si la IA alucina, es imposible utilizarla para tomar decisiones en un entorno profesional", afirmó Pareekh Jain, director ejecutivo de EIIRTrend & Pareekh Consulting. "Se utiliza para uso personal o para obtener información, pero no para procesos de toma de decisiones", añadió Jain.

Índice
  1. Se requieren pruebas adicionales
  2. ¿La urgencia de la regulación?

Se requieren pruebas adicionales

Amazon enfrenta importantes desafíos de prueba antes de poder llevar al mercado su asistente de inteligencia artificial generativa. Según el consultor, AWS debe realizar pruebas exhaustivas internamente para garantizar que el producto esté listo. "Es necesario realizar más pruebas con los empleados internamente", dijo Pareekh Jain. “Claramente, este es el caso actualmente y, hasta el momento, nadie fuera de la empresa ha informado de estos problemas. Ya necesitan determinar si están relacionados con los datos o con el algoritmo”. Diseñado como una herramienta versátil para empresas, Q aprovecha la experiencia en datos y desarrollo que AWS ha adquirido durante los últimos diecisiete años. Dada la dirección del sector, hay mucho en juego para Amazon con esta oferta de IA.

"Si las alucinaciones no socavan el potencial de la IA generativa para casos de uso profesional y de consumidores, la formación adecuada es esencial", afirmó Sharath Srinivasamurthy, vicepresidente asociado de IDC. "Entrenar modelos con datos de mejor calidad, aumentar las indicaciones (guiar a los usuarios con indicaciones predefinidas que el modelo pueda comprender fácilmente), refinar continuamente los modelos con datos y políticas específicos de la empresa o de la industria". Industria, agregar una capa de control humano en caso de sospechas. respuesta, son algunas de las medidas que se pueden tomar para aprovechar al máximo esta tecnología emergente”, afirmó el Sr. Srinivasamurthy.

¿La urgencia de la regulación?

Los casos de alucinaciones plantean preocupaciones sobre la necesidad de regulación y la severidad de las reglas que podrían aplicarse en un momento u otro. Sin embargo, Sanchit Vir Gogia, analista jefe y director general de Greyhound Research, cree que cualquier regulación podría ser contraproducente. "La regulación puede ralentizar el intercambio y el uso de datos", cree. Y añadió, “por el momento, cuanto menos regulado esté este sector, mejor. Esto permite un uso más fácil y fluido de los datos. Por ejemplo, si hubiera habido salvaguardias estrictas con respecto a la captura de datos por parte del GPT de OpenAI, el proyecto no habría despegado".

El consultor también sugirió que establecer límites externos podría no ser factible, pero que las propias empresas podrían hacer más. "Puede haber regulaciones, pero el énfasis debe estar sobre todo en la autorregulación", explica. “La atención debería centrarse en una IA responsable, cuya lógica pueda explicarse a los clientes, en lugar de crear sistemas de 'cajas negras'. Lo cierto es que, en mi opinión, existe un umbral más allá del cual la responsabilidad se refiere más bien a la forma en que las empresas perciben y aplican estas medidas en términos de seguridad”.