A medida que las organizaciones han adoptado IA para minimizar su superficie de ataque y frustrar el fraude, los ciberdelincuentes también utilizan IA para automatizar sus ataques a gran escala. El nuevo mundo virtual impulsado por la pandemia de COVID-19 ha brindado a los malos actores la oportunidad perfecta para acceder a las cuentas de los consumidores al aprovechar la inteligencia artificial y los bots para cometer fraude como nunca antes.
En la carrera armamentista de IA actual, las empresas intentan adelantarse a la curva de ataque, mientras que los delincuentes pretenden superarla, usándola en su beneficio. Aquí hay cuatro vectores de ataque de IA que todos los profesionales de la seguridad deben conocer y formas de combatir cada uno de ellos:
Los deepfakes superponen imágenes de video o fotografías existentes de una cara en la cabeza y el cuerpo de una fuente utilizando IA avanzada impulsada por redes neuronales. Los deepfakes son relativamente fáciles de crear y, a menudo, hacen que el contenido de audio y video fraudulento parezca increíblemente real. Los deepfakes se han vuelto cada vez más difíciles de detectar a medida que los delincuentes utilizan técnicas más sofisticadas para engañar a sus víctimas. De hecho, Gartner predice que los deepfakes representarán el 20 por ciento de los ataques exitosos de toma de control de cuentas para 2023, lo que da como resultado que los ciberdelincuentes obtengan acceso a las cuentas de los usuarios y bloqueen al usuario legítimo.
Desafortunadamente, los malos actores utilizarán la tecnología deepfake para el fraude a medida que se adopten ampliamente las soluciones de autenticación basadas en biometría. Aún más preocupante, muchos productos de verificación de identidad digital son incapaces de detectar y prevenir deepfakes, bots y sofisticados ataques de suplantación de identidad. Las organizaciones deben asegurarse de que cualquier producto de verificación de identidad que implementen tenga la sofisticación para identificar y detener los ataques deepfake.
A medida que la transformación digital se acelera en medio de la pandemia de COVID-19, los estafadores están aprovechando el aprendizaje automático (ML) para acelerar los ataques a redes y sistemas, utilizando IA para identificar y explotar las brechas de seguridad. Si bien la IA se utiliza cada vez más para automatizar tareas repetitivas, mejorar la seguridad e identificar vulnerabilidades, los piratas informáticos, a su vez, construirán sus propias herramientas de aprendizaje automático para apuntar a estos procesos. Dado que los ciberdelincuentes aprovechan las nuevas tecnologías más rápido de lo que las defensas de seguridad pueden combatirlas, es fundamental que las empresas protejan los sistemas de aprendizaje automático e implementen soluciones impulsadas por la inteligencia artificial para reconocer y detener los ataques.
Gartner informa que hasta 2022, el 30 por ciento de todos los ciberataques de IA aprovecharán el envenenamiento de datos de entrenamiento, el robo de modelos de IA o muestras adversas para atacar sistemas impulsados por IA. Estos ataques manipulan un sistema de inteligencia artificial para alterar su comportamiento, lo que puede resultar en repercusiones generalizadas y dañinas porque la inteligencia artificial se ha convertido en un componente central de los sistemas críticos en todas las industrias. Los ciberdelincuentes han encontrado nuevas formas de identificar las limitaciones inherentes en los algoritmos de IA, como cambiar la forma en que se clasifican los datos y dónde se almacenan. Estos ataques a la IA harán que, en última instancia, sea un desafío confiar en la tecnología para realizar su función prevista. Por ejemplo, los ataques de IA podrían obstaculizar la capacidad de un vehículo autónomo para reconocer peligros o evitar que un filtro de contenido impulsado por IA elimine imágenes inapropiadas.Las empresas deben implementar estándares sobre cómo se entrenan, protegen y administran las aplicaciones de IA para evitar ataques al sistema.
La IA permite a los ciberdelincuentes ejecutar ataques de spearphishing mediante la búsqueda de información personal, la determinación de la actividad del usuario en las plataformas sociales y el análisis del tono de escritura de la víctima, como la forma en que se comunica con colegas y amigos. Los ciberdelincuentes pueden utilizar estos datos para hacer que sus correos electrónicos sean convincentes. Por ejemplo, los correos electrónicos dirigidos automatizados pueden parecer que provienen de un colega de confianza o estar relacionados con un evento en el que un usuario expresó interés, lo que hace que la víctima responda o haga clic en un enlace que descarga software malicioso que permite a un delincuente robar el nombre de usuario de la víctima y contraseña. Además de educar a los usuarios sobre los correos electrónicos de phishing, las organizaciones deben proteger sus redes con una autenticación sólida para garantizar que los piratas informáticos no puedan usar credenciales robadas para hacerse pasar por un usuario confiable o evitar los filtros de spam para llegar a las bandejas de entrada de los usuarios.
A medida que las empresas escalan su estrategia de inteligencia artificial para tener éxito en medio de la pandemia continua de COVID-19, deben comprender que los estafadores también están intensificando sus estrategias para burlar las nuevas tecnologías de inteligencia artificial y cometer delitos cibernéticos. Al implementar una autenticación sólida y proteger los sistemas de inteligencia artificial de manera efectiva, las empresas pueden combatir la creciente amenaza de los ataques de inteligencia artificial y, en última instancia, mantener las cuentas de los clientes seguras y los sistemas de inteligencia artificial ejecutando su propósito previsto.
Autor: Robert Prigge
Fuente: https://www.scmagazine.com/perspectives/four-ways-to-stay-ahead-of-the-ai-fraud-curve/
When you subscribe to the blog, we will send you an e-mail when there are new updates on the site so you wouldn't miss them.
Buscador