Según Bitdefender: el 96% de Expertos en Ciberseguridad ven a la GenAI y a los Deefakes como Potencial Riesgo
Lima, Perú, 1 de julio de 2024.— Los ataques de phishing están evolucionando con el uso de deepfakes y la inteligencia artificial generativa (GenAI), según una encuesta reciente de Bitdefender. El 96% de los profesionales de ciberseguridad consideran que la IA representa una amenaza significativa.
GenAI y Deefakes: La Nueva Amenaza para la Ciberseguridad
¿Te has encontrado con el video de David Beckham hablando nueve idiomas? ¿O has recibido un correo electrónico de Taylor Swift vendiendo utensilios de cocina Le Creuset, o de Jennifer Aniston regalando MacBooks? Todos estos videos son falsificaciones. Hoy en día, los ataques de phishing se han vuelto mucho más sofisticados gracias a la rápida evolución de la inteligencia artificial generativa (GenAI). De hecho, la tecnología ha alcanzado niveles alarmantes de efectividad.
En su reciente Informe de Evaluación de Ciberseguridad 2024, Bitdefender revela una paradoja en la industria de la ciberseguridad. Casi el 75% de los profesionales de ciberseguridad creen tener la capacidad para detectar ataques deepfake, sin embargo, el 96% opina que GenAI es una amenaza considerable para sus organizaciones. ¿Estamos demasiado seguros de nuestras habilidades o demasiado preocupados?
La explicación es sencilla: los profesionales de ciberseguridad confían en sus habilidades para detectar y contrarrestar ataques de GenAI, pero dudan de la capacidad de los usuarios para identificar deepfakes. Aunque estos expertos creen que no pueden ser engañados, la realidad es que la tecnología GenAI se ha vuelto tan avanzada que incluso los profesionales más experimentados podrían no distinguir todos los deepfakes.
Impacto en las organizaciones actuales. Los equipos de seguridad empresarial están cada vez más conscientes del peligro que representan los ataques de phishing sofisticados. Los actores maliciosos utilizan GenAI para crear correos electrónicos, fotos, grabaciones de voz y videos extremadamente convincentes basados en gran cantidad de datos sobre personas y organizaciones.
Estos ataques pueden incluir comportamientos, sintaxis, preferencias y tendencias específicas, además de campañas de ingeniería social que identifican el software financiero de la organización, los bancos utilizados y las políticas internas. Así, los deepfakes resultan increíblemente precisos y difíciles de detectar.
Pero hay esperanza. Los equipos de seguridad pueden enfrentar las amenazas de GenAI mediante una estrategia que combine personas, procesos y tecnología. Capacitar a los usuarios para identificar ataques deepfake y fomentar una cultura de rendición de cuentas es clave.
Las personas deben ser responsables de sus acciones y estar empoderadas para cuestionar solicitudes sospechosas, especialmente de sus superiores. Esto requiere una cultura organizacional que aliente a hacer preguntas, obtener confirmaciones y responsabilizarse mutuamente.
Además, los expertos de Bitdefender recomiendan implementar procesos que promuevan esta cultura de responsabilidad, como la necesidad de confirmación de dos personas para transacciones grandes, y la integración de barreras de seguridad en los procesos comerciales habituales para prevenir errores costosos o vergonzosos.
Las organizaciones pueden combatir el fuego con fuego. Existen herramientas de seguridad impulsadas por IA que ayudan a detectar y mitigar los riesgos de los ataques de phishing creados por GenAI. Estas herramientas pueden escanear millones de correos electrónicos para predecir fraudes de identidad y deepfakes, y buscar metadatos de imágenes y videos para verificar su origen y posibles modificaciones. Estas soluciones de seguridad basadas en IA pueden evaluar riesgos y alertar a los analistas sobre señales de alerta que requieren mayor investigación.
Los ataques de phishing creados por Deepfakes y GenAI están redefiniendo la percepción de la realidad. La confianza excesiva en las propias capacidades y la preocupación por la seguridad de los usuarios no son suficientes. Los equipos de seguridad deben implementar soluciones prácticas centradas en personas, procesos y tecnología para detectar y mitigar estos ataques.
Para conocer más sobre la percepción de los profesionales de la seguridad acerca de los deepfakes generados por IA, descarga el Informe de Evaluación de Ciberseguridad 2024 de Bitdefender.
Para más información sobre soluciones de ciberseguridad de Bitdefender, visita este enlace
Tu Opinión Importa:
Me gustaría saber tu opinión sobre esta creciente amenaza de la GenAI en ciberseguridad. ¿Crees que estamos preparados para enfrentarla? ¿Qué medidas consideras esenciales? ¡Deja tu comentario, comparte tu perspectiva y no dejes de comentar sin el hashtag #superfan! 😉
Apoya al Periodismo Independiente
¿Te sirvió en algo este contenido?, ayúdanos a combatir la Desinformación, dona desde S/ 1.00 a nuestro PLIN 943-438-457

Dona con PayPal (escanea este QR)


