Palo Alto Networks es pionera en el uso de inteligencia artificial para ciberseguridad, ante estafas que utilizan a ChatGPT, porque permite la defensa automatizada.
Lima, Perú, 25 de julio del 2023.— Entrevistamos a José Antonio Fernández, Director de Latinoamérica y el Caribe para Ingenieros de preventa de Palo Alto Networks, quien nos explicó sobre la importancia de la que las empresas y organizaciones cuenten con mecanismos de ciberseguridad específicos para protegerse frente a ataques vinculados a la inteligencia artificial, y también que se mantengan informadas sobre las últimas tendencias de ingeniería social.
IT/USERS: Sr. Fernández, ¿cuáles son los principales factores que han contribuido al aumento del 910% en los registros de dominios relacionados con ChatGPT y cómo afecta esto a los usuarios?
J.F.: Uno de los principales factores para el crecimiento exponencial de los registros de dominios relacionados con ChatGPT es que hoy en día, utilizando el algoritmo Open IA, es posible automatizar la creación de miles de miles de dominios en segundos.
Los ciberdelincuentes están haciendo uso de esta herramienta para ampliar su radio de ataque, y esto afecta a los usuarios porque cuando entran en estos sitios descargan troyanos o comparten información personal.
Por eso es muy importante que los internautas de todo el mundo se mantengan informados tanto de los avances tecnológicos como de las nuevas formas de estafa que los ciberdelincuentes crean en torno a ellas.
También deben ser conscientes de lo que es la “ingeniería social“, que básicamente es engañar a los usuarios para que crean que están en espacios seguros, con la finalidad de que ellos mismos proporcionen sus datos o descarguen archivos maliciosos. Para hacer que los usuarios caigan en esas trampas, los ciberdelincuentes utilizan como carnada información que es atractiva para sus víctimas, por lo que estos delincuentes siempre están al día con las últimas modas y necesidades de sus objetivos potenciales.
IT/USERS: ¿Cuál es la importancia de monitorear los trending topics, dominios recién registrados y dominios ocupados relacionados con ChatGPT?
J.F.: Es muy importante que el público esté constantemente informado sobre los riesgos de ciberseguridad para que puedan protegerse ante posibles ataques de ingeniería social.
Cada vez más organizaciones utilizan la inteligencia artificial (IA) para automatizar su productividad y mejorar la calidad y eficiencia de sus procesos. Estos avances tecnológicos están revolucionando nuestras industrias, pero es igualmente importante contar con mecanismos de ciberseguridad específicamente para abordar estos desafíos técnicos.
IT/USERS: ¿Cómo han evolucionado los ciberataques relacionados con ChatGPT desde el lanzamiento de la nueva versión del modelo de lenguaje natural GPT-4?
J.F.: OpenAI lanzó una nueva versión de su modelo de lenguaje natural, GPT-4 en marzo, y el gran problema de cualquier avance tecnológico masivo es el riesgo de ciberataques: cuantos más usuarios haya, mayor será el alcance del ataque.
Los investigadores de Unit42, la Unidad de Investigación e Inteligencia de Amenazas de Palo Alto Networks, encontraron que entre noviembre de 2022 y principios de abril de 2023, hubo un aumento del 910% en los registros mensuales para dominios relacionados con ChatGPT. Además, se observó un crecimiento del 17.818% en dominios maliciosos relacionados con los registros de seguridad DNS en este período de tiempo.
Los investigadores también hallaron que era posible detectar hasta 118 intentos diarios de URL maliciosas relacionadas con ChatGPT, los cuales fueron capturados desde el tráfico visto en el Sistema Avanzado de Filtrado de URL de Palo Alto Networks. Hemos detectado un número creciente de productos sospechosos que utilizan la API oficial de OpenAI para ChatGPT, por lo que instamos a los usuarios a permanecer alertas a los posibles riesgos de seguridad.
IT/USERS: ¿Cuáles son las principales técnicas utilizadas por los estafadores para distribuir malware y phishing relacionados con ChatGPT?
J.F.: Durante la investigación de la Unidad 42, se observaron varias URL de phishing que intentaban hacerse pasar por sitios web oficiales de OpenAI. Por lo general, los estafadores crean un sitio web falso que imita la apariencia del sitio web oficial de ChatGPT y luego engañan a los usuarios para que descarguen malware o compartan información confidencial.
Una técnica común utilizada por los estafadores para distribuir malware es presentar a los usuarios un botón falso que indica “DESCARGA PARA WINDOWS” y que una vez que se hace clic en él descarga un troyano, el cual es un programa malicioso que infecta los dispositivos sin que las víctimas perciban el riesgo cuando es instalado.
IT/USERS: ¿Qué tipos de estafas relacionadas con ChatGPT han sido más comunes y cómo pueden los usuarios protegerse de estos ataques?
J.F.: Los estafadores pueden usar la ingeniería social relacionada con ChatGPT para el robo de identidad o el fraude financiero. A pesar de que OpenAI ofrece a los usuarios una versión gratuita de ChatGPT, los estafadores llevan a las víctimas a sitios web fraudulentos, alegando que deben pagar por estos servicios. Por ejemplo, un sitio web falso de ChatGPT intenta engañar a las víctimas para que entreguen su información confidencial, como datos de tarjetas de crédito y direcciones de correo electrónico.
Los especialistas de la Unidad 42 también han observado que algunos estafadores aprovechan la creciente popularidad de OpenAI para obtener criptomonedas. Se identificó a un estafador que utilizó el logotipo de OpenAI y el nombre de Elon Musk para atraer a las víctimas a un evento fraudulento de distribución de criptomonedas.
IT/USERS: ¿Cómo han influido las aplicaciones de chatbot imitadoras en el aumento de los riesgos de seguridad en torno a ChatGPT?
J.F.: Un número creciente de aplicaciones de chatbot que imitan a la IA han aparecido en el mercado. Algunas de estas aplicaciones ofrecen sus propios modelos de lenguaje, y otras afirman ofrecer servicios de ChatGPT a través de la API pública anunciada el 1 de marzo. Sin embargo, el uso de chatbots de imitación puede aumentar los riesgos de seguridad.
Antes del lanzamiento de la API de ChatGPT, había varios proyectos de código abierto que permitían a los usuarios conectarse a ChatGPT a través de varias herramientas de automatización. Dado que ChatGPT no es accesible en ciertos países o regiones, los sitios web creados con estas herramientas de automatización o API pueden atraer a un número significativo de usuarios de esos lugares. Esto también brinda a los actores de amenazas la oportunidad de monetizar ChatGPT a través de su servicio.
IT/USERS: ¿Cuáles son los principales desafíos que enfrentan las organizaciones que utilizan IA como ChatGPT en términos de ciberseguridad?
J.F.: Los ciberdelincuentes siempre utilizarán las innovaciones tecnológicas para mejorar sus técnicas de violación de protocolos de seguridad de plataformas de diferentes tipos de organizaciones. La IA y el aprendizaje automático (machine learning) están ayudando a los ciberdelincuentes a romper las defensas y encontrar vulnerabilidades más rápido. La técnica de ciberataque basada en IA se puede utilizar en la fase de acceso y penetración, se puede demostrar en la fase de explotación y de mando y control, también se puede ver en la fase de reconocimiento y, por último, en la fase de entrega de la cadena de eliminación de la ciberseguridad.
ChatGPT también ha agregado algo de sabor al panorama moderno de amenazas cibernéticas, ya que rápidamente se hizo evidente que la generación de código puede ayudar a los actores de amenazas menos calificados a lanzar ataques cibernéticos sin esfuerzo. Descubrimos que al utilizar ChatGPT, pueden llevar a cabo con éxito un flujo de infección completo, desde la creación de un correo electrónico convincente de spear-phishing hasta la ejecución de un shell inverso, capaz de aceptar comandos en inglés. ChatGPT se puede usar para recrear cepas y técnicas de malware o se puede usar como un simple fragmento de Java. Descarga PuTTY, un cliente SSH y telnet muy común, y lo ejecuta de forma encubierta en el sistema usando Powershell. Por supuesto, este script se puede modificar para descargar y ejecutar cualquier programa, incluidas las familias de malware comunes.
IT/USERS: ¿Qué medidas está tomando Palo Alto Networks para proteger a los usuarios de ChatGPT y otros servicios relacionados?
J.F.: Palo Alto Networks es pionera en el uso de IA para ciberseguridad, actualmente brindando protección con estos mecanismos en nuestros NGFWs para protección de red, Cortex para protección de endpoints y Prisma Cloud y Prisma Access para protección en la nube; que protegen contra diferentes tipos de estafas y ahora estas relacionadas con ChatGPT.
Los ciberdelincuentes han estado explorando la herramienta y sus múltiples funcionalidades y también compartiendo sus conocimientos criminales como toda mafia organizada para encontrar y mejorar sus técnicas, y también para atraer clientes.
A finales de 2022 los ciberdelincuentes comenzaron a utilizar ChatGPT para crear variantes de malware, lo que quedó expuesto en un foro clandestino de hacking, donde incluso el ciberdelincuente explicó cómo lo hizo: “La clave para conseguir que cree lo que quieres es especificando qué debe hacer el programa y los pasos a seguir…”. No será extraño que en las próximas semanas se hagan públicas las estafas que utilizan imágenes autogeneradas para cometer falsificaciones y estafas.
Como Palo Alto Networks, estamos preparados para enfrentar esto. Anunciamos el 6 de marzo la disponibilidad de nuestro nuevo módulo de Detección y Respuesta a Amenazas de Identidad (ITDR) para Cortex® XSIAM™. ITDR permite a los clientes asimilar datos de identidad y comportamiento del usuario e implementar tecnología de IA de vanguardia para detectar ataques basados en la identidad en cuestión de segundos. El módulo fortalece aún más la capacidad de XSIAM para consolidar múltiples capacidades de operaciones de seguridad en una plataforma unificada de centro de operaciones de seguridad (SOC) impulsada por IA.
IT/USERS: ¿Cómo pueden las organizaciones asegurar que sus sistemas estén protegidos contra estafas y malware relacionados con ChatGPT?
J.F.: No necesitamos tener miedo de la IA, sino verla como un aliado porque permite la defensa automatizada. En el caso de Palo Alto Networks, nos adelantamos a la curva cuando reconocimos la importancia de la seguridad basada en IA y ML.
Por ejemplo, AI y ML en ciberseguridad ayudan a establecer una línea de base de operaciones normales y luego alertan a un equipo sobre posibles anomalías, creando una guía de automatización que ahorra tiempo y recursos.
Palo Alto Networks tiene el mayor conjunto de datos de seguridad críticos que son útiles para la IA y, por lo tanto, hemos podido ofrecer resultados únicos basados en IA que incluyen el bloqueo de sitios web desconocidos pero maliciosos, dominios y archivos de comando y control a escala. Además, hemos demostrado en nuestro propio Centro de Operaciones de Seguridad que podemos reducir el tiempo de detección a segundos y mientras tanto responder a minutos.
IT/USERS: ¿Qué consejos le daría a los usuarios para mantenerse alerta frente a los riesgos de seguridad relacionados con ChatGPT y otras aplicaciones de IA similares?
J.F.: La mejor defensa es la información para evitar caer en trampas de ingeniería social y también para tener sistemas avanzados de ciberseguridad que utilicen IA para proteger tu equipo e información. Ambas acciones combinadas son la mejor estrategia.
Apoya al Periodismo Independiente
¿Te sirvió en algo este contenido?, ayúdanos a combatir la Desinformación, dona desde S/ 1.00 a nuestro PLIN 943-438-457
Impactos: 28
Para comentar debe estar registrado.