Varias de las principales empresas estadounidenses que desarrollan IA han acordado colaborar con el gobierno de EE. UU. y comprometerse a respetar varios principios destinado a garantizar la confianza del público en la IA, dijo el viernes la Casa Blanca. Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI han firmado compromisos para hacer que la IA sea segura y confiable. Ya en mayo pasado, la administración Biden declaró que se reuniría con los principales proveedores de IA para asegurarse de que estaban de acuerdo con la política estadounidense.

Las garantías no son vinculantes y no se prevén sanciones en caso de incumplimiento. Las políticas tampoco pueden afectar retroactivamente a los sistemas de IA que ya se han implementado: una de las disposiciones establece que las empresas se comprometen a probar la IA para detectar vulnerabilidades de seguridad, tanto interna como externamente, antes de lanzarla al mercado. No obstante, estas promesas tienen como objetivo tranquilizar al público (y, hasta cierto punto, a los legisladores) de que la IA se puede implementar de manera responsable. La administración Biden había propuesto anteriormente utilizar la IA en el gobierno para agilizar las tareas.

Índice
  1. Una marca de agua digital para contenidos basada en IA generativa
  2. Contener los riesgos del abuso de la IA

Una marca de agua digital para contenidos basada en IA generativa

Los efectos más inmediatos quizás se sientan en la implementación de una marca de agua digital para identificar una obra como generada por IA. Algunos servicios, como Creador de imágenes de Bingya lo están haciendo. Esta marca accesible a lectores, oyentes y espectadores (para llegar a todo el espectro de imágenes generadas por IA) debería ayudar a frenar la desinformación que puede surgir de parte de este contenido. Por lo tanto, todos podrán rastrear el origen de cualquier contenido si es necesario.

Todos los firmantes prometieron utilizar la IA para el bien público, como la investigación del cáncer, e identificar áreas de uso apropiado e inapropiado. Estas áreas no se han definido, pero podrían incluir salvaguardas existentes que impidan que ChatGPT, por ejemplo, ayude a planificar un ataque terrorista. Las empresas de IA promoverán la preservación de la privacidad de los datos, una prioridad que Microsoft ha defendido con las versiones profesionales de Bing Chat y Microsoft 365 Copilot. Además, los jugadores probarán la seguridad interna y externa de sus sistemas de IA antes de ponerlos en servicio y compartirán información con la industria, los gobiernos, el público y el mundo académico sobre la gestión de riesgos relacionados con la IA. AI. Finalmente, brindan a investigadores externos acceso a sus sistemas para descubrir e informar vulnerabilidades.

Contener los riesgos del abuso de la IA

Brad Smith, presidente de Microsoft aprobó estos compromisosseñalando que Microsoft ha abogado por el establecimiento de un registro nacional de sistemas de IA de alto riesgo. (Google también presentó su propio “equipo rojo” de piratas informáticos que intentan romper la IA mediante ataques como ataques rápidos, envenenamiento de datos, etc. “Como parte de nuestra misión de construir una IA segura y beneficiosa, continuaremos poner a prueba y perfeccionar las prácticas de gobernanza específicamente diseñado para modelos de base como los que producimos”, dijo OpenAI en un comunicado. "También continuaremos nuestras inversiones en investigación para adaptar las regulaciones, como técnicas para evaluar capacidades potencialmente peligrosas en modelos de IA".