La inteligencia artificial está transformando el mundo empresarial, impulsando la eficiencia y la innovación. Su capacidad para automatizar tareas, optimizar costes y mejorar la toma de decisiones ha llevado a una adopción creciente en los últimos años – ya que según Gartner, en 2023, más de la mitad de las organizaciones a nivel mundial ya utilizaban IA generativa, una cifra que sigue en aumento. Sin embargo, su uso malintencionado por parte de ciberdelincuentes está dando lugar a una nueva generación de fraudes que ponen en jaque la seguridad y estabilidad de las empresas.
“El auge de la IA generativa ha abierto un nuevo capítulo en la ciberseguridad. Si bien ofrece enormes oportunidades para la innovación, también permite que los ciberdelincuentes amplifiquen sus ataques con un realismo y precisión sin precedentes. Las empresas deben estar preparadas para enfrentar esta nueva generación de amenazas, reforzando tanto su infraestructura de seguridad como la formación de sus empleados”, advierte Josep Albors, director de investigación y concienciación de ESET España.
Nuevas amenazas: deepfakes, suplantación y robo de identidad
El auge de herramientas basadas en IA está facilitando ataques cada vez más sofisticados. Por ello, ESET, compañía líder en ciberseguridad, destaca algunas de las tácticas más peligrosas que los ciberdelincuentes están utilizando con la ayuda de la inteligencia artificial para estafar a las empresas:
- Falsificación de empleados: Empresas de todo el mundo han sido infiltradas por individuos norcoreanos que utilizan IA para crear currículums falsos, manipular imágenes y superar verificaciones de identidad. El objetivo final es ganar dinero para enviarlo al gobierno de Corea del Norte, así como el robo de datos, el espionaje e incluso el ransomware.
- Fraude BEC con deepfakes: Los clips de audio y video deepfake se están utilizando para amplificar el fraude de tipo Business Email Compromise (BEC) en el que se engaña a los trabajadores financieros para que transfieran fondos corporativos a cuentas bajo el control del estafador. Se han documentado casos en los que vídeos y audios falsos han sido utilizados para suplantar a altos directivos y engañar a empleados, logrando transferencias fraudulentas millonarias.
- Evasión de autenticación: Los deepfakes también se utilizan para ayudar a los estafadores a hacerse pasar por clientes legítimos, suplantar a algunas personas y eludir las comprobaciones de autenticación para la creación de cuentas y los inicios de sesión. Herramientas maliciosas avanzadas como GoldPickaxe recopilan datos biométricos para crear deepfakes que permiten eludir controles de seguridad y abrir cuentas fraudulentas.
- Suplantación de identidad en redes sociales: Los ciberdelincuentes también están abusando de los deepfakes para hacerse pasar por directivos de grandes empresas y promover fraudes de inversión en las redes sociales.
- Descifrado de contraseñas con IA: Algoritmos como PassGAN pueden descifrar contraseñas en cuestión de segundos, facilitando el robo de datos, el ransomware y el fraude de identidad masivo.
- Fraude documental: La IA se está empleando para crear documentos falsos con el objetivo de superar controles de identidad en bancos, aseguradoras y otras instituciones. Casi todos (94%) los gestores de reclamaciones sospechan que al menos el 5% de las reclamaciones están siendo manipuladas con IA, especialmente las de menor valor.
- Phishing y reconocimiento avanzado: La IA también está potenciando ataques de phishing más sofisticados, permitiendo crear mensajes altamente personalizados y difíciles de detectar. Además, facilita el reconocimiento de objetivos mediante la recopilación y análisis de datos, aumentando el impacto del robo de credenciales, el ransomware y otros ciberataques.
Pérdidas millonarias y daño reputacional
El fraude impulsado por la inteligencia artificial está generando un impacto significativo en las empresas, tanto a nivel financiero como reputacional. Se estima que el 38% de los ingresos perdidos por fraude en el último año estuvieron relacionados con el uso malicioso de IA. “Entre las principales amenazas, la omisión de los controles de conocimiento del cliente (KYC) permite a los estafadores acumular crédito de manera fraudulenta y vaciar cuentas legítimas. Además, la infiltración de empleados falsos representa un riesgo grave para la seguridad corporativa, ya que facilita el robo de propiedad intelectual e información regulada, generando problemas de cumplimiento y posibles sanciones”, comenta Albors.
Por otro lado, ESET destaca que las estafas BEC potenciadas por deepfakes siguen alcanzado cifras alarmantes, con pérdidas superiores a los 2.900 millones de dólares en 2023. La compañía también destaca que la suplantación de identidad mediante IA también afecta directamente la confianza de los clientes, ya que muchos afirman que dejarían de consumir productos o servicios de una marca tras una mala experiencia de seguridad. “En este contexto, las empresas deben reforzar sus estrategias de ciberseguridad y prevención del fraude para mitigar los riesgos derivados del uso indebido de la IA” añade el experto.
Cómo protegerse del fraude impulsado por IA
ESET recomienda un enfoque de seguridad en capas para hacer frente a estas amenazas, combinando medidas tecnológicas con formación y cambios en los procesos internos. Algunas estrategias clave incluyen:
- Evaluaciones de riesgo de fraude y actualización de políticas de seguridad para incluir los riesgos asociados con IA.
- Capacitación del personal para reconocer intentos de phishing, deepfakes y suplantación de identidad.
- Refuerzo de la autenticación multifactor (MFA) en todas las cuentas con datos confidenciales.
- Implementación de IA para la detección de fraudes, incluyendo herramientas para identificar deepfakes en verificaciones de identidad.
- Mejora en la colaboración entre departamentos de RRHH y ciberseguridad para prevenir la infiltración de empleados falsos.
“La inteligencia artificial se ha convertido en un arma de doble filo en el ámbito de la ciberseguridad. Mientras que los ciberdelincuentes la utilizan para sofisticar sus ataques, también representa una gran oportunidad para reforzar la protección corporativa. Herramientas basadas en IA pueden detectar deepfakes en procesos de verificación de identidad, mientras que los algoritmos de aprendizaje automático ayudan a identificar patrones de comportamiento sospechoso en empleados y clientes. Además, la generación de datos sintéticos mediante IA permite desarrollar y entrenar modelos de detección de fraude más avanzados” concluye Josep Albors.
Fuente: Cybersecuritynews.es