Computación paralela

Computación paralela

Por: Emmanuel Santiago, Regional Sales Director, Gigamon México

Ciudad de México, 10 de junio del 2016.— La computación paralela es el procesamiento masivo de datos con un número determinado de máquinas que están trabajando simultáneamente y de forma paralela para procesar grandes cantidades de información. Este tipo de computación se utiliza con regularidad en la investigación científica, generalmente en universidades y centros de investigación que necesitan procesar una cantidad muy grande de datos y procesos, maximizando los recursos computacionales, jerarquizándolos para la obtención de resultados escalonados.

Existen investigaciones que requieren de una gran capacidad de cómputo para la obtención de resultados, como la deducción de ciertas fórmulas matemáticas o físicas, por lo que principalmente el uso de este tipo de cómputo a diferencia de otros, gira en torno a procesos intrínsecamente paralelos, como simulaciones de modelos moleculares, climáticos o económicos con amplios componentes paralelo, como los sistemas que a su vez representan.

La computación paralela se diferencia de la computación en la nube esencialmente porque en la nube, existen recursos disponibles que se aprovisionan de acuerdo a una solicitud determinada y éstas infraestructuras, generalmente tienen la capacidad de procesar múltiples clientes. La computación paralela es un procesamiento de datos masivo con un sólo objetivo: procesar información con mayores recursos de manera simultánea para obtener un resultado específico.

La computación paralela centra sus esfuerzos principalmente en la ciencia y en la investigación; es muy utilizada para deducir planteamientos teóricos y simulaciones de modelos de investigación, como fórmulas, resultados de cierta cantidad de información. La computación paralela permite obtener resultados específicos de una cantidad masiva de datos. En la actualidad, la aplicación de este tipo de cómputo radica principalmente en industrias que invierten importantes recursos económicos y humanos en la investigación y desarrollo de productos, procesos y servicios que demandan una nivel de especialización y metodologías científicas muy elevadas. Sin embargo, no sólo empresas químicas o aeroespaciales hacen uso del cómputo paralelo. Las empresas de consumo con grandes cantidades de datos y retos, requieren de un procesamiento de datos importante para tomar decisiones las cuáles, serían difíciles de lograr de una manera lineal o secuencial, por ello, la importancia del cómputo en paralelo.

En términos de seguridad, el cómputo paralelo prácticamente no está expuesto a vulnerabilidades mayores al no estar concretado en un solo repositorio informático continuamente conectado a redes tradicionales. Es complicado pensar en una arquitectura de seguridad que proteja este tipo de diseños y no porque no sea posible sino porque la cantidad tan enorme de datos que son procesados requeriría de infraestructuras de seguridad demasiado caras para protegerlas. Las infraestructuras de seguridad hoy en día están diseñadas para inspeccionar y detectar ataques, no para procesar grandes cantidades de información.

Las amenazas reales a la computación paralela es el tema de la modificación de los datos que esta usa para desarrollar modelos y obtener sus resultados. El afectar los datos ahí encontrados y procesados, alteraría los resultados para cada una de las investigaciones. Más que ataques, el punto débil es la cantidad y calidad de la información que se procesa. Estas máquinas tienen una gran capacidad de procesamiento que a su vez tienen repositores de almacenamiento que en ocasiones no están físicamente en el mismo país, pero al final del día, el cambio en los datos representaría el mayor de los problemas.

El futuro de la computación paralela es relevante para la investigación científica. El análisis de la información para los investigadores, será cada vez más importante para lograr mejores resultados en un menor lapso de tiempo. Dotar de una capacidad de analizar grandes cargas de información realmente relevante es el futuro de este tipo de computación; procesar datos específicos de investigadores como estadísticas, fórmulas y datos, para centrar la atención en el procesamiento de ciertos datos en cantidades masivas. En este sentido debemos tener en mente el tema de Big Data y Metadata, relacionados íntimamente en el procesamiento e interpretación de este tipo de información.

El futuro de la seguridad en el cómputo paralelo más que sumar arquitecturas de seguridad a la infraestructura, buscará la forma de utilizar el tráfico que se está recibiendo para ser derivado a ciertas máquinas con las mejores capacidades para determinadas tareas. Hacer que las herramientas involucradas, les llegue el tráfico relevante a un nodo de procesamiento específico; diseñar arquitecturas menos complejas para incrementar la capacidad de procesamiento y que sólo trabajen con información relevante, automáticamente habilitando una infraestructura de seguridad al nivel del procesamiento.

Hoy, no sólo las infraestructuras de cómputo paralelo sino todas, reciben más del 60% de tráfico con información que no es relevante. Un firewall puede recibir un paquete de voz que no entiende, dado que su trabajo es traducir y revisar el paquete, pero no analiza dicho paquete como tal. Al recibir el paquete de voz en la entrada del firewall, ocupa cierta capacidad de procesamiento para descartar inclusive el paquete de voz si este, no tiene relevancia.

Gigamon ofrece un Fabric de Visibilidad que permite recibir el tráfico relevante, no importa si este tráfico tiene que ver con investigación; con un análisis de seguridad o con uno de rendimiento. Hacemos llegar a las herramientas el tráfico relevante y así obtener ahorro en costos, mejor rendimiento de las herramientas y sobre todo, optimización en las arquitecturas que van a permitir procesar el tráfico relevante. Toda la gama Fabric de Gigamon es capaz de procesar grandes volúmenes de información.

Mx|Prom|Outlet|1|468x60
Share