Thomson Reuters, especialista en manipulación de información para profesionales legales, fiscales, de riesgo y de cumplimiento normativo, ha visto cómo los modelos de IA generativa daban un salto cualitativo con el lanzamiento de LLM como GPT-3. Un nivel que ahora le permite integrar la tecnología en sus ofertas, como en su herramienta de búsqueda de información legal Westlaw Precision.

Pero la empresa, que generó 6.600 millones de dólares de ingresos en 2022 (el último ejercicio fiscal publicado), debe sacar al mercado rápidamente nuevas herramientas basadas en inteligencia artificial generativa y garantizar su seguridad. Para ello, Shawn Malhotra, jefe de ingeniería de Thomson Reuters, explica cómo sus equipos han desarrollado una plataforma interna que permite a los desarrolladores, incluidos expertos empresariales sin conocimientos técnicos, diseñar rápidamente aplicaciones que cumplan con las expectativas de los profesionales clientes del grupo.

¿Qué sistemas de datos tuvisteis que conectar a los LLM? ¿Los proveedores de estos tenían las API necesarias o tuvisteis que crearlas?

Shawn Malhotra: Parte de nuestro contenido es de propiedad exclusiva, por lo que no lo obtenemos de nuestros clientes. Por eso, durante años hemos estado creando API que lo hacen muy accesible. Esto nos lleva de nuevo a nuestra plataforma GenAI. Uno de sus elementos son las API sencillas para acceder al contenido.

Si eres un desarrollador que busca crear una aplicación a partir de contenido legal, la plataforma GenAI te permite acceder a él de forma fácil y segura, para que puedas simplemente desarrollar la lógica de negocio de la aplicación.

¿Qué es la plataforma de inteligencia artificial de Thomson Reuters? ¿Es solo su versión de Microsoft 365 Copilot o una plataforma completamente propia?

Es distinto [de Copilot]. Esto es algo que ha desarrollado Thomson Reuters. Se trata de un conjunto de módulos. Cada uno de ellos tiene como objetivo facilitar que uno o más equipos dentro de Thomson Reuters creen una aplicación valiosa para nuestros clientes. Algunos módulos permiten acceder al contenido de forma segura. Otros crean una interfaz consistente para todos nuestros productos, por lo que es fácil de usar.

También hay componentes que se utilizan para crear el mensaje, por lo que el desarrollador final no necesita comprender todos los matices de la creación de un mensaje para un modelo de lenguaje grande determinado. Hay bloques que le permiten experimentar con diferentes LLM, de modo que pueda determinar cuál funcionará mejor para sus propósitos. Algunos de estos modelos propietarios los creamos nosotros, otros son modelos de terceros que creemos que producen buenos resultados.

Algunos de estos módulos permiten acceder al modelo de lenguaje de una manera que llamamos low-code o no-code, para los no expertos. Digamos que soy redactor jurídico en Thomson Reuters, entiendo la ley y me pregunto si un modelo de IA podría hacer un buen trabajo resumiendo un cierto tipo de documento. Nuestra plataforma GenAI les permite experimentar y responder esa pregunta sin tener que escribir ningún código.

La escritura de código aumentada con IA se ha citado a menudo como uno de los principales beneficios de la IA generativa. ¿Qué has visto?

Hay dos cosas que tener en cuenta. Independientemente de cuál sea tu función, y esto no se aplica solo a Reuters, GenAI tiene el potencial de mejorar lo que haces, de volverte más eficiente. Por eso, en mi equipo de desarrollo, estamos buscando herramientas de IA generativa que nos ayuden a escribir mejor código y hacerlo más rápido. De hecho, esto ha aumentado la satisfacción de los desarrolladores. Nuevamente, esto se relaciona con la velocidad de desarrollo de nuevos productos para nuestros clientes. Por eso, estamos usando estas herramientas en nuestro entorno de desarrollo.

Luego, vemos este mismo tipo de aceleración con personas de la organización que hasta entonces no tenían la capacidad de experimentar realmente con IA, que no tenían un perfil técnico. Al darles acceso a estos componentes Low-code y No-code de la plataforma GenAI, ellos pueden participar a su vez en este proceso de ideación y experimentación.

¿Cuáles son sus preocupaciones en materia de seguridad y privacidad, especialmente considerando que sus LLM se ejecutan en la nube o en una infraestructura de coubicación?

La privacidad y la seguridad han sido una de nuestras principales preocupaciones desde el principio. Si nos fijamos en los mercados a los que prestamos servicios (profesionales del ámbito jurídico, fiscal, de cumplimiento normativo, de riesgo y de fraude), todos ellos son profesionales que manejan datos confidenciales. Tienen obligaciones con sus clientes que debemos ayudarlos a cumplir y hacer cumplir. Por eso, la seguridad y la privacidad están integradas en cada paso del proceso de desarrollo.

¿Cómo podemos avanzar más rápido? Lo que no quería evitar era que cada equipo de desarrollo descubriera la mejor manera de acceder de forma segura a los LLM y al contenido que los sustenta, de forma responsable. Porque incluso con las mejores intenciones, si estas restricciones no están incorporadas desde el diseño, algo puede salir mal.

Aquí es donde entra en juego la plataforma de GenAI. Al proporcionar los elementos básicos, podemos garantizar que las cosas se hagan de la manera correcta. Estos elementos básicos garantizan que los datos se almacenen y se mantengan privados. Además, garantizan que las preocupaciones éticas se sopesen frente a los modelos que creamos. Al incorporar todo esto en la plataforma, solo tengo un mensaje para los desarrolladores: "Deberían usar la plataforma". Si lo hacen, sé que la privacidad, la seguridad y la protección están incorporadas por diseño.

¿Cómo capacitó a sus técnicos y empleados para utilizar GenAI?

La gestión del cambio es tan importante para nosotros como para nuestros clientes. Por eso, hemos creado una formación básica en IA para todos los miembros de nuestra empresa. Se trata de una formación que desarrollamos con nuestros expertos en ciencia de datos y tecnología. Está dirigida a un público amplio. Con conceptos fundamentales que creemos que son útiles para todos con el fin de servir mejor a nuestros clientes. A continuación, hemos creado programas de formación específicos para determinadas áreas de la empresa.

Por ejemplo, en mi organización de desarrollo, tenemos un curso de capacitación en IA mucho más completo para desarrolladores. Se trata de personas que crean productos, por lo que, obviamente, la capacitación será más profunda que el módulo principal. Y tenemos tipos similares de capacitación dirigida a otros segmentos de la organización. Lo que un vendedor que atiende al cliente necesitará saber sobre IA será diferente a lo que un desarrollador de mi equipo necesitará saber sobre IA.

¿Cuáles son los costos, los requisitos de energía y el tiempo necesarios para construir una plataforma de IA como la suya? ¿Forma usted mismo a sus propios LLM?

Existen múltiples formas de entrenar un modelo de IA. Los modelos más grandes del mundo son creados por proveedores que invierten tiempo y recursos para crear estos modelos gigantescos que se pueden usar para prácticamente cualquier propósito. Esto no es algo que planeemos hacer por nuestra cuenta. Accederemos a estos modelos, como cualquiera de nuestros clientes.

En cuanto a nuestros propios modelos, estamos experimentando con toda una gama de cosas. Por ejemplo, la creación de nuestros propios modelos que son más pequeños que los modelos gigantescos que ofrecen los hiperescaladores. De nuevo, esto quiere decir que en el futuro no habrá un modelo único para todos. Imagino un futuro en el que, dependiendo del problema de un cliente, emplearemos un modelo diferente. Nuestro contenido y experiencia en la materia nos permitirán ofrecer un valor único con modelos personalizados, pero no serán tan grandes como estos modelos gigantescos que se ven en los hiperescaladores.

Para nosotros lo ideal es encontrar el modelo más pequeño que ofrezca la mejor respuesta al problema de un cliente, ya que cuanto más pequeño sea el modelo, más eficiente es en muchos aspectos, como el tiempo de funcionamiento, los costes, la eficiencia en todas sus formas. En eso se centra nuestra investigación y desarrollo.

En su anuncio de noviembre se mencionaba una estrategia plurianual. ¿Cómo cree que evolucionará la inteligencia artificial en Thomson Reuters?

El ritmo de entrega de nuestras soluciones se va a acelerar. Lanzamos un producto en noviembre, tenemos dos más en camino y adquirimos Casetext. Por eso la inversión en la plataforma central fue tan importante, porque creemos que nos dará una ventaja competitiva en el futuro.

Usted anunció que Thomson Reuters va a invertir 100 millones de dólares en inteligencia artificial. ¿Se trata de una inversión que se realizará este año o a lo largo de varios años?

Eso es lo que estamos invirtiendo como mínimo en la creación de nuestras propias soluciones de IA para desarrollar nuestra estrategia. Pero también quiero hablar de nuestra reciente adquisición de Casetext (por 650 millones de dólares, nota del editor). Si vemos una empresa que se adapta perfectamente a Thomson Reuters en todos los aspectos (cultural y tecnológicamente) y, lo más importante, que puede ayudarnos a resolver los problemas de los clientes, haremos adquisiciones como parte de nuestra estrategia de adquisiciones.

Y luego tenemos que sumar a ese panorama nuestra estrategia de asociación. Recientemente anunciamos una asociación con Microsoft. En su conferencia Build, fuimos una de las primeras organizaciones en esbozar cómo podría ser una integración con Microsoft Copilot. Así que tenemos equipos trabajando para hacer realidad esta visión de ayudar a los abogados a redactar contratos de forma más eficiente en Microsoft Word.
Así que estamos considerando tres aspectos complementarios: los 100 millones de dólares para construir, posibles adquisiciones y asociaciones, donde los recursos de terceros pueden ayudar a nuestros clientes.