Experto alerta a las empresas sobre cinco ciberamenazas generadas por la IA

Sin duda, el avance de la Inteligencia Artificial (IA) está cambiando la manera de trabajar y los procesos en las diferentes industrias. Pero a medida que empresas de todos los tamaños adoptan este tipo de tecnología, también supone un riesgo a la seguridad al exponer nuevas vulnerabilidades, algunas que no existían antes y otras que pueden haber sido pasadas por alto.

De hecho, muchas organizaciones están reflexionando respecto a que la seguridad no se trata solo de proteger la red de amenazas tradicionales, sino que de asegurar que las grandes cantidades de datos manejados por sistemas de IA no se conviertan en armas de guerra para los ciberdelincuentes, que están ansiosos por iniciar el gran golpe a una compañía.

Así lo reconoce Jorge Román Deacon, director de Tecnologías y Ciberseguridad de Soluciones Virtuales Perú®, quien manifiesta que- si bien las herramientas de IA tienen el potencial de transformar las operaciones de los clientes, proveedores y en general de toda una empresa- también introducen y revelan riesgos significativos.

“Ya sea por filtraciones de datos, brechas en la cadena de suministro, controles de acceso inadecuados o actores maliciosos que emplean IA para mejorar los ciberataques, hay un nuevo conjunto de desafíos de ciberseguridad que tienen que abordarse en el menor tiempo posible”, sostiene el ejecutivo.

A la vez aclara que no se trata solo de las mismas amenazas convencionales con un giro moderno, pues la IA también introduce nuevos vectores de riesgos de seguridad que los profesionales de TI pueden no haber considerado completamente.

Riesgos emergentes 

En este sentido, el director de Soluciones Virtuales Perú® mencionó los siguientes nuevos vectores de ciber riesgos:

  1. Uso de IA en la sombra. Esto ocurre cuando los usuarios utilizan herramientas tecnológicas o plataformas de IA que no están oficialmente autorizadas por los equipos de TI o de cumplimiento de la organización. Por ejemplo, un trabajador podría comenzar a utilizar una herramienta de IA gratuita para automatizar sus funciones laborales, pensando que le facilitará la vida. No obstante, sin la supervisión adecuada, la IA podría suponer una brecha de fuga de datos personales y manejar incorrectamente los datos confidenciales exponiéndolos a terceros y causando una infracción de cumplimiento normativo y daño a la reputación de la compañía.
  2. Exposición de datos. Cuando las empresas utilizan IA para analizar datos sensibles de clientes, a menudo olvidan implementar protocolos de seguridad para el manejo de datos. Sin políticas sólidas de supervisión de las fuentes de IA y gestión en el ciclo de vida de los datos, los sistemas de IA pueden exponer detalles personales, financieros y/o sanitarios a personal no autorizado.
  3. Controles de acceso. La IA puede agilizar procesos como la recuperación o reconstrucción de documentos. Pero si los controles de acceso no están configurados con los privilegios correctos, los usuarios sin la autorización necesaria pueden acceder a información confidencial que no les compete. “Partamos del supuesto de que un trabajador que no debería tener acceso a informes financieros ni a costos claves, termina recuperándolos a través de una herramienta de IA. Este acceso no autorizado puede llevar a una filtración de datos sensibles y resultar en graves daños financieros, pérdida de confianza y desventaja estratégica si su competencia consiguiera dichos documentos”, alerta el experto.
  4. Ataques potenciados por IA. Acceder a sistemas restringidos solía requerir técnicas de fuerza bruta o algunas habilidades de ingeniería social. Ahora, la IA puede hacer el trabajo pesado y de una manera muy simple y eficiente. Las herramientas impulsadas por IA pueden analizar estructuras de contraseñas, predecir credenciales probables y automatizar ataques por combinaciones con una velocidad sin precedentes y con resultados casi instantáneos.
  5. Deepfakes de voz y video. El robo de identidad siempre ha sido una preocupación, pero nunca tan alarmante como ahora que la IA lo ha llevado a gran escala. Con el incremento de la tecnología de deepfake impulsada por IA, los ciberdelincuentes ahora pueden utilizar herramientas para crear clonaciones de voz y video convincentes de ejecutivos de empresas, trabajadores o incluso clientes. Estos deepfakes pueden ser utilizados para defraudar a las empresas o sorprender a los usuarios para que compartan información sensible.

Jorge Román Deacon comenta que, si bien los investigadores han anunciado durante mucho tiempo que las tecnologías de deepfake e IA podrían ser explotadas por criminales, esto ha comenzado a convertirse en una realidad. Uno de los ejemplos más impactantes, añade, ocurrió recientemente en Hong Kong, donde un trabajador financiero fue engañado para pagar 25 millones de dólares después de una videollamada con un “Director Financiero” deepfake.

“El trabajador pensó que estaba asistiendo a una videoconferencia legítima con varios colegas, sólo para descubrir más tarde que cada participante, incluido el CFO, era una suplantación sistemática de deepfake generado por IA. Los estafadores utilizaron tecnología avanzada para imitar voces y apariencias, montando un operativo de estafa millonaria para que la víctima creyera que la transacción estaba autorizada”, puntualiza.

A la vez, afirma que gestionar herramientas de seguridad de IA requiere una comprensión profunda del aprendizaje automático y el aprendizaje profundo, el monitoreo de datos y la detección avanzada de amenazas, habilidades que son escasas. Y advierte: “Hasta que las organizaciones puedan tomar conciencia y cerrar esta brecha de seguridad, seguirán siendo altamente vulnerables a sofisticadas amenazas cibernéticas impulsadas por IA”.

Fuente: Difusión

Facebook Comments