AI domina 2025 predicciones de ciberseguridad
hace 3 meses

Cuando se trata de ciberseguridad en 2025, la inteligencia artificial es lo más importante para muchos analistas y profesionales.
La inteligencia artificial será desplegada por adversarios y defensores, pero los atacantes se beneficiarán más de ella, mantuvieron a Willy Leichter, CMO de AppSoc, un proveedor de seguridad de aplicaciones y gestión de vulnerabilidad en San José, California.
"Sabemos que la IA se utilizará cada vez más en ambos lados de la Guerra Cibernética", dijo a Technewsworld. “Sin embargo, los atacantes continuarán siendo menos limitados porque se preocupan menos por la precisión de la IA, la ética o las consecuencias involuntarias. Las técnicas como las redes de phishing y fregado altamente personalizadas para las debilidades heredadas se beneficiarán de la IA ".
"Si bien la IA tiene un gran potencial a la defensiva, hay más limitaciones, tanto legales como prácticas, que ralentizarán la adopción", dijo.
Chris Hauk, campeón de privacidad del consumidor de Pixel Privacy, editor de las guías de seguridad y privacidad del consumidor en línea, predijo que 2025 será un año de IA versus IA, ya que los buenos usan IA para defender contra los ataques cibernéticos propulsados por la IA.
"Probablemente será un año de batallas de ida y vuelta, ya que ambas partes se pusieron para usar la información que han recopilado de ataques anteriores para establecer nuevos ataques y nuevas defensas", dijo a Technewsworld.
Mitigar los riesgos de seguridad de la IA
Leichter también predijo que los adversarios cibernéticos comenzarán a dirigirse a los sistemas de IA con más frecuencia. "La tecnología de IA expande enormemente el área de la superficie de ataque con amenazas en rápida emergencia a modelos, conjuntos de datos y sistemas de operaciones de lenguaje de máquina", explicó. "Además, cuando las aplicaciones de IA se apresuran del laboratorio a la producción, el impacto de seguridad completo no se entenderá hasta que ocurran las infracciones inevitables".
Karl Holmqvist, fundador y CEO de Lastwall, una compañía de seguridad de identidad con sede en Honolulu, estuvo de acuerdo. "El despliegue masivo sin control de las herramientas de IA, que a menudo se implementan sin fundamentos de seguridad robustos, conducirá a graves consecuencias en 2025", dijo a Technewsworld.
"Al carecer de medidas de privacidad y marcos de seguridad adecuados, estos sistemas se convertirán en objetivos principales para infracciones y manipulación", dijo. "Este enfoque de Wild West para la implementación de IA dejará datos y sistemas de toma de decisiones peligrosamente expuestos, lo que empuja a las organizaciones a priorizar urgentemente los controles de seguridad fundamentales, los marcos de IA transparentes y el monitoreo continuo para mitigar estos riesgos aumentados".
Leichter también sostuvo que los equipos de seguridad tendrán que asumir más responsabilidad para asegurar los sistemas de IA en 2025.
"Esto suena obvio, pero en muchas organizaciones, los proyectos iniciales de IA han sido impulsados por científicos de datos y especialistas en negocios, que a menudo evitan los procesos de seguridad de aplicaciones convencionales", dijo. "Los equipos de seguridad lucharán en una batalla perdida si intentan bloquear o reducir la velocidad de las iniciativas de IA, pero tendrán que traer proyectos de IA Rogue bajo el paraguas de seguridad y cumplimiento".
Leichter también señaló que AI ampliará la superficie de ataque para los adversarios dirigidos a las cadenas de suministro de software en 2025. "Ya hemos visto que las cadenas de suministro se convierten en un vector importante para el ataque, ya que las pilas de software complejas dependen en gran medida del código de terceros y de código abierto ", Dijo. "La explosión de la adopción de IA hace que este objetivo sea más grande con nuevos vectores complejos de ataque en conjuntos de datos y modelos".
"Comprender el linaje de los modelos y mantener la integridad de cambiar los conjuntos de datos es un problema complejo y, actualmente, no hay una forma viable para que un modelo de IA no aproveche los datos venenosos", agregó.
Amenazas de envenenamiento de datos a los modelos de IA
Michael Lieberman, CTO y cofundador de Kusari, una compañía de seguridad de la cadena de suministro de software en Ridgefield, Connecticut, también considera que el envenenamiento de los modelos de idiomas grandes como un desarrollo significativo en 2025. “Los ataques de envenenamiento de datos destinados a manipular LLM serán más prevalentes, aunque Es probable que este método sea más intensivo en recursos en comparación con las tácticas más simples, como la distribución de LLM abiertos maliciosos ”, dijo a Technewsworld.
"La mayoría de las organizaciones no están capacitando sus propios modelos", explicó. “En cambio, confían en modelos previamente capacitados, a menudo disponibles de forma gratuita. La falta de transparencia con respecto a los orígenes de estos modelos facilita a los actores maliciosos introducir otros dañinos, como lo demuestran el incidente de malware de la cara abrazada ”. Ese incidente ocurrió a principios de 2024 cuando se descubrió que unos 100 LLM que contenían puertas traseras ocultas que podrían ejecutar código arbitrario en las máquinas de los usuarios se habían subido a la plataforma de abrazadera.
"Es probable que los esfuerzos futuros de envenenamiento de datos se dirigen a los principales actores como OpenAi, Meta y Google, que entrenan sus modelos en vastas conjuntos de datos, lo que hace que tales ataques sean más difíciles de detectar", predijo Lieberman.
"En 2025, es probable que los atacantes superen a los defensores", agregó. “Los atacantes tienen motivación financiera, mientras que los defensores a menudo luchan por asegurar presupuestos adecuados, ya que la seguridad no suele ser vista como un conductor de ingresos. Puede tomar una violación significativa de la cadena de suministro de IA, similar al incidente de Solarwinds Sunburst, para impulsar a la industria a tomar la amenaza en serio ".
Gracias a la IA, también habrá más actores de amenazas que lanzarán ataques más sofisticados en 2025. "A medida que la IA se vuelve más capaz y accesible, la barrera de entrada para atacantes menos hábiles se reducirá al tiempo que acelera la velocidad a la que se pueden llevar a cabo los ataques ", Explicó Justin Blackburn, un ingeniero senior de detección de amenazas en la nube en Appomni, una compañía de software de gestión de seguridad SaaS, en San Mateo, California.
"Además, el surgimiento de bots con IA permitirá a los actores de amenaza ejecutar ataques a gran escala con un esfuerzo mínimo", dijo a Technewsworld. "Armados con estas herramientas con IA, incluso los adversarios menos capaces pueden obtener acceso no autorizado a datos confidenciales e interrumpir los servicios en una escala que anteriormente solo se ve con atacantes más sofisticados y bien financiados".
Los guiones de los bebés crecen
En 2025, el aumento de la IA agente, la IA capaz de tomar decisiones independientes, adaptarse a su entorno y tomar medidas sin intervención humana directa, también exacerbará problemas a los defensores. "Se espera que los avances en la inteligencia artificial empoderen a los actores no estatales para desarrollar armas cibernéticas autónomas", dijo Jason Pittman, profesor asociado colegiado en la Escuela de Ciberseguridad y Tecnología de la Información en el Campus Global de la Universidad de Maryland en Adelphi, MD.
"La IA Agente opera de forma autónoma con comportamientos dirigidos por objetivos", dijo a Technewsworld. “Dichos sistemas pueden usar algoritmos fronterizos para identificar vulnerabilidades, sistemas de infiltrado y evolucionar sus tácticas en tiempo real sin dirección humana. "
"Estas características lo distinguen de otros sistemas de IA que dependen de instrucciones predefinidas y requieren información humana", explicó.
“Al igual que el gusano Morris en décadas pasadas, la liberación de armas cibernéticas de agente podría comenzar como un accidente, lo cual es más problemático. Esto se debe a que la accesibilidad de las herramientas de IA avanzadas y la proliferación de marcos de aprendizaje automático de código abierto reducen la barrera para desarrollar armas cibernéticas sofisticadas. Una vez creada, la poderosa característica de autonomía puede conducir fácilmente a una IA de agente que escape de sus medidas de seguridad ".
Por dañino como la IA puede estar en manos de los actores de amenaza, también puede ayudar a asegurar mejor datos, como información de identificación personal (PII). "Después de analizar más de seis millones de archivos de Google Drive, descubrimos que el 40% de los archivos contenían PII que ponen a las empresas en riesgo de violar datos", dijo Rich Vibert, cofundador y CEO de Metomic, una plataforma de privacidad de datos en Londres.
"A medida que ingresamos a 2025, veremos que más compañías priorizarán los métodos automatizados de clasificación de datos para reducir la cantidad de información vulnerable guardada inadvertidamente en archivos de acceso público y espacios de trabajo colaborativos en SaaS y entornos en la nube", continuó.
"Las empresas implementarán cada vez más herramientas impulsadas por la IA que puedan identificar, etiquetar y asegurar automáticamente información confidencial", dijo. "Este cambio permitirá a las empresas mantenerse al día con las grandes cantidades de datos generados diariamente, lo que garantiza que los datos confidenciales se salvaguarden continuamente y que se minimice la exposición innecesaria de datos".
Sin embargo, 2025 también podría marcar una ola de decepción entre los profesionales de seguridad cuando la exageración sobre la IA golpea al ventilador. "Los CISO depilarán el uso de Gen AI en un 10% debido a la falta de valor cuantificable", escribió Cody Scott, analista senior de Forrester Research, una compañía de investigación de mercado con sede en Cambridge, Massachusetts, en un blog de la compañía.
"Según los datos de 2024 de Forrester, el 35% de los CISO y los CIO globales consideran explorar e implementar casos de uso para la generación de AI para mejorar la productividad de los empleados como una prioridad", señaló. "El mercado de productos de seguridad se ha apresurado a exaltar los beneficios de productividad esperados de Gen AI, pero la falta de resultados prácticos está fomentando la desilusión".
"La idea de un centro de operaciones de seguridad autónomos que usa Gen AI generó mucha publicidad, pero no podría estar más lejos de la realidad", continuó. "En 2025, la tendencia continuará, y los profesionales de la seguridad se hundirán más profundamente en el desencanto como desafíos como los presupuestos inadecuados y los beneficios de IA no realizados reducen la cantidad de implementaciones de AI de Gen AI centradas en la seguridad".
Si quieres conocer otros artículos parecidos a AI domina 2025 predicciones de ciberseguridad puedes visitar la categoría Tecnología.
Otras noticias que te pueden interesar