Secciones

Las aplicaciones que responden con rapidez ante eventos específicos

Copiar URL

No todas las aplicaciones ni los entornos están diseñados para satisfacer las demandas de las cargas de trabajo ligeras y altamente distribuidas. El edge computing es un tipo de informática que ocurre en una gran variedad de infraestructuras en el lugar donde se encuentran los usuarios o las fuentes de datos, o cerca de ellos; es decir, fuera de los centros de datos o las nubes tradicionales y centralizadas. Por un lado, se encuentran los dispositivos portátiles y económicos que se sitúan en el punto más lejano del extremo de la red, los cuales cuentan con recursos informáticos limitados (por ejemplo, los dispositivos móviles, como los teléfonos inteligentes o las tabletas). Por el otro, se encuentran las oficinas remotas o los centros de datos que cuentan con servidores de gran tamaño y muchos usuarios y movimiento de datos.

Independientemente de la categoría a la que pertenezca su infraestructura, hay algunas necesidades y expectativas comunes para todos. En esencia, los usuarios y los dispositivos deben poder ejecutar operaciones inmediatas para cumplir con las expectativas de los clientes y el rendimiento establecido en los acuerdos de nivel de servicio (SLA). Esto significa que las aplicaciones eficaces en esos entornos tienen que cumplir con parámetros de rendimiento muy precisos, y se las conoce como aplicaciones que responden con rapidez ante eventos específicos.

Antes de centrarnos en las aplicaciones, es importante conocer los conceptos básicos:

  • La latencia es el tiempo que transcurre desde que sucede un evento hasta que el sistema responde. La forma más sencilla de entender el concepto es analizar el tiempo que toma llegar desde el punto A hasta el punto B.
  • El ancho de banda (o ancho de banda de la red) es la cantidad de datos que se pueden trasladar en un período determinado; por lo general, se trata de megabits o gigabits por segundo. La cantidad real de datos que se transmiten en cierta cantidad de tiempo se denomina rendimiento. Podría decirse que es necesario elegir ente el ancho de banda alto (o el alto rendimiento) o la latencia baja: no es sencillo lograr ambos a la vez.
  • Los paquetes son los elementos de datos que se transportan.
  • La fluctuación es la variabilidad en la latencia que ocurre generalmente cuando se pierde la uniformidad en la comunicación de la red o cuando se ralentiza de forma intermitente.
  • La inmediatez implica que las operaciones se realicen en una cantidad de tiempo definida y específica. Generalmente, se mide en mili- o microsegundos. El concepto de inmediatez suele confundirse con el de rapidez, pero en realidad se relaciona más con el de determinación: la garantía de que la operación se ejecutará en un tiempo delimitado, independientemente de las otras operaciones o de la carga. En el procesamiento inmediato, cada operación es independiente, a diferencia del procesamiento por lotes, donde se ejecutan varias a la vez.
  • Los nodos del extremo de la red suelen ser los dispositivos o los servidores donde ocurre el edge computing.

La latencia es un indicador basado en el tiempo que se utiliza para medir el período de respuesta real de un sistema en comparación con el previsto. Por lo general, se evalúa el desempeño de la red, del hardware, del firmware y del sistema operativo, tanto de forma individual como de forma conjunta para todo el sistema. Para las aplicaciones que deben responder rápido ante los eventos, es bueno que la latencia sea baja porque implica que hay poca demora entre el momento en que se inicia la operación y la respuesta. Por el contrario, la latencia alta ralentiza el proceso y, según el tipo de datos, podría implicar la pérdida y omisión de los paquetes. Además, la latencia debe ser estable: si hay demasiada fluctuación, la red se torna poco confiable, incluso si la latencia promedio es la adecuada.

Un ejemplo de una aplicación que se ejecuta en el extremo de la red y que responde con rapidez ante los eventos es un vehículo autónomo con inteligencia artificial. La computadora integrada debe reconocer en tan solo milisegundos si hay algún peatón u otro objeto en la calle y determinar el cambio de rumbo. El procesamiento de los datos y la inteligencia artificial en su totalidad deben estar incluidos en el vehículo, así como también la telemetría activa que envía la información a la puerta de enlace o el centro de datos. Se trata de una aplicación crucial: puede que los usuarios estén disconformes si se ralentiza el procesamiento de una transacción con tarjeta de crédito o la reproducción de una conferencia en video, pero si se produce una falla durante la conducción autónoma, las consecuencias podrían ser graves. El Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) destaca que varias tecnologías modernas dependen de este tipo de aplicaciones.

Muchas personas creen que la latencia está relacionada con la velocidad, pero sería más preciso concebirla como un aspecto del rendimiento general del sistema. Se la analiza desde que se inicia un evento hasta que se completa, y los límites de tiempo pueden ser flexibles, según la aplicación. El caso del vehículo autónomo es un ejemplo de los límites estrictos: el procesamiento debe ser inmediato; de lo contrario, se pueden generar fallas graves en el sistema.

Algunas cargas de trabajo no requieren que la latencia sea baja. Es decir, el tiempo que transcurre desde que se inicia la operación hasta que se obtiene una respuesta puede ser bastante extenso y no es relevante para los usuarios: son cargas de trabajo asíncronas. Por ejemplo, la latencia alta es aceptable para los servicios como los de correo electrónico, donde el usuario final no puede determinar con facilidad el tiempo que lleva recibir un correo luego de su envío.

En los entornos complejos, ya sea con un solo sistema o varios que interactúan entre sí, los efectos de la latencia son acumulativos. Independientemente de que las operaciones deban completarse de manera secuencial o en paralelo, la efectividad de todo el sistema puede verse afectada por la totalidad de la latencia de las operaciones clave. En tal caso, la velocidad quizás no sea el factor principal, sino que el indicador más importante podría ser la uniformidad. Se la conoce como latencia determinística: la latencia esperada para cierta operación (o para todas las operaciones) es predecible y uniforme. Es fundamental cuando hay muchos dispositivos sincronizados, como un radar de antenas en fase, los equipos de telecomunicaciones o las máquinas de fabricación.

En resumen, una aplicación que responde rápidamente ante los eventos es cualquier aplicación inmediata cuyo rendimiento puede verse afectado por la latencia alta o variable, y cuyas operaciones deben ejecutarse dentro de un período determinado, el cual se suele medir en microsegundos. También se las conoce como aplicaciones de baja latencia.

Puede resultar útil distinguir entre las aplicaciones que responden rápidamente ante los eventos, cuyo rendimiento se ve afectado por la latencia, pero no dejan de funcionar, y aquellas que necesitan que la latencia sea baja porque, de lo contrario, se produciría una falla.

Mucha gente suele asociar la latencia con el rendimiento de la red, pero las aplicaciones que responden con rapidez ante los eventos ponen de manifiesto que, muchas veces, la calidad de la red no es la única causa de la latencia, sino que también se ve afectada por los factores que influyen en el procesamiento.

Con la virtualización y las máquinas virtuales, los distintos procesos se disputan el uso de los recursos de la CPU y los recursos compartidos, como la memoria y el almacenamiento. Incluso los ajustes de los sistemas, como la gestión de la energía y de las transacciones, pueden influir en el acceso de los distintos procesos a los recursos.

En los entornos del cloud computing, pueden presentarse desafíos similares. Mientras más capas de abstracción haya en el entorno del hardware, más compleja será la distribución de los recursos compartidos y del procesamiento para optimizar el tiempo y reducir la latencia de las aplicaciones más importantes. Los proveedores de nube, como Amazon Web Services (AWS), ofrecen implementaciones y mejoras para las aplicaciones que responden con rapidez ante eventos específicos y las que dejan de funcionar si la latencia es alta.

Cuando se trabaja con las aplicaciones que responden rápidamente a los eventos, el entorno operativo completo y el hardware subyacente son tan importantes para generar confiabilidad como lo son la infraestructura y la configuración de la red.

Es común hacer alusión a una cebolla para describir la arquitectura del extremo de la red, en la que los círculos concéntricos de las capas de hardware se van alejando del centro de datos principal. Cada capa posee su propia arquitectura y características, por lo que se necesitan diversas soluciones para los distintos casos prácticos.

Los aros externos de la arquitectura del extremo de la red son los más cercanos a las interacciones que generan datos, como los dispositivos de los usuarios y los clientes o los gestionados. Los extremos deben responder rápidamente a las condiciones cambiantes y los datos nuevos, por eso es más probable que se implementen en ellos las aplicaciones que responden con rapidez a los eventos o las que dejan de funcionar si la latencia es alta. También son las capas más lejanas al almacenamiento de datos compartido, y que suelen utilizar sistemas de hardware ligeros y pequeños, como las tabletas o los dispositivos del Internet de las cosas (IoT).

Para garantizar el rendimiento permanente de las aplicaciones y de todos los entornos del extremo de la red, los responsables de la TI pueden desarrollar políticas y procesos efectivos, y deben:

  • Tener procesos de desarrollo e implementación centralizados y claros
  • Contar con políticas uniformes de actualización y gestión, tanto para los sistemas de hardware como para los de software
  • Integrar las pruebas de rendimiento en todos los procesos
  • Automatizar todas las tareas que sea posible
  • Definir entornos operativos estándares para obtener uniformidad en el extremo de la red
  • Utilizar estándares y metodologías uniformes y abiertos para garantizar la interoperabilidad

Estas prácticas recomendadas son muy similares para el IoT industrial (IIoT), la informática de alto rendimiento y otras arquitecturas distribuidas. El edge computing y el IoT no representan estados finales, sino un medio para lograr un objetivo específico. Del mismo modo, la ventaja de las aplicaciones que responden con rapidez ante eventos específicos no radica solamente en su velocidad, sino que son útiles cuando el procesamiento veloz de los datos permite crear experiencias valiosas para los clientes o gestionar de forma segura y eficiente los equipos grandes, reaccionar a las condiciones operativas cambiantes y adaptarse a la información nueva.

El sistema operativo es tan importante en el extremo de la red y los entornos de nube como lo es en los centros de datos físicos y las salas de servidores. Ofrece funciones básicas, como la implementación y la gestión de los recursos, que son esenciales para las aplicaciones que responden con rapidez ante los eventos, así como otros requisitos de la TI, como la seguridad y la configuración de las redes.

La esencia de las aplicaciones que responden rápidamente a los eventos es la cantidad de datos que deben analizarse en el centro de datos o la nube, o bien si sería conveniente delegar la ejecución de ciertas actividades a los entornos locales. Se trata de un equilibrio entre la cantidad y la velocidad.

Si el riesgo de latencia tiene que ver con el procesamiento local, hay herramientas específicas que permiten mejorar el rendimiento del sistema. También se puede diseñar una arquitectura con distintas herramientas y tecnologías para reducir los efectos de la latencia.

La corrección de la latencia en la arquitectura

Según el enfoque que adopte, puede que priorice los requisitos sobre la latencia dentro de la red, lo cual significa que la arquitectura del extremo es fundamental para que los servicios se ejecuten con eficiencia. Con la latencia de la red, la arquitectura debe poder procesar los datos de manera local, en el mismo extremo, en lugar de enviarlos a un centro de datos para que los procese y envíe una respuesta. La posibilidad de asignar el procesamiento de las aplicaciones al extremo disminuye la dependencia de las redes con latencia alta.

Red Hat® Enterprise Linux® for Distributed Computing ofrece funciones optimizadas para el edge computing con las que puede implementar las cargas de trabajo de las aplicaciones en una arquitectura distribuida de nube híbrida: en el centro de datos, la nube y el extremo de la red, con un entorno operativo abierto y uniforme. La solución se puede instalar en las puertas de enlace y los extremos de la red para que las aplicaciones analicen y procesen los datos de manera local, y envíen las actualizaciones y la información pertinente a los servidores en la nube o en el centro de datos. Esto disminuye la dependencia de las redes con latencia alta, ancho de banda inestable y conexión intermitente.

La corrección de la latencia en el sistema

El tiempo es esencial para los entornos que se ven afectados por la latencia. Incluso si la arquitectura está bien diseñada, sería prudente contar con un sistema de alto rendimiento en el extremo de la red para que lleve a cabo el procesamiento de manera local.

Las aplicaciones que responden con rapidez ante eventos específicos necesitan un entorno operativo que sea flexible. Red Hat Enterprise Linux for Real Time es un paquete especial que sirve para implementar cambios en los algoritmos y los subsistemas diseñados específicamente para los entornos que se ven afectados por la latencia, donde la necesidad de previsibilidad y agilidad supera el ajuste normal del rendimiento.

Red Hat Enterprise Linux for Real Time incluye herramientas básicas que respaldan las configuraciones clave para mejorar el rendimiento inmediato:

  • Optimiza el hardware y las configuraciones de la memoria, así como también las aplicaciones desarrolladas con técnicas de programación concurrente.
  • Controla la ejecución de las aplicaciones con muchos procesos y subprocesos.
  • Verifica la idoneidad del sistema de hardware.
  • Define el comportamiento de almacenamiento en la memoria caché.

La seguridad de un ecosistema más amplio

Aquí es donde se destaca la importancia del ecosistema de Red Hat. Las configuraciones y los proveedores de hardware certificados para Red Hat Enterprise Linux for Real Time y Red Hat Enterprise Linux for Distributed Computing le ofrecen la tranquilidad de que las aplicaciones del extremo de la red se ejecutarán según sus requisitos.

Además, Red Hat Enterprise Linux se integra con Red Hat® OpenShift® para la organización y la implementación de los contenedores de Kubernetes, con Red Hat® Ansible® Automation Platform para la automatización y con Red Hat Middleware para la gestión de los procesos y las decisiones, los flujos de datos, la integración y otras herramientas.

El edge computing es una estrategia que permite ofrecer información valiosa y experiencias en el momento en que se las necesita. Red Hat Enterprise Linux for Real Time, Red Hat Enterprise Linux for Distributed Computing y toda la cartera de productos de Red Hat ofrecen la base sólida para implementar esa estrategia.

Artículos relacionados

Artículo

IoT y edge computing

El Internet de las cosas requiere llevar la potencia informática más cerca del lugar donde se encuentra el dispositivo físico o la fuente de datos, mientras que el edge computing proporciona esa fuente local de procesamiento y almacenamiento para el IoT.

Artículo

¿Qué es el edge computing?

El edge computing es un tipo de informática que ocurre en la ubicación física del usuario, de la fuente de datos, o cerca de ellas.

Artículo

El edge computing para el sector de las telecomunicaciones

Para muchos de los proveedores de servicios de telecomunicaciones, el edge computing se vuelve una prioridad a medida que modernizan sus redes y buscan nuevas fuentes de ingresos.

Más información sobre el edge computing

Productos

Base estable y probada con suficiente versatilidad para implementar aplicaciones nuevas, virtualizar los entornos y crear una nube híbrida más segura.

Plataforma de aplicaciones empresariales que ofrece servicios probados para lanzar aplicaciones al mercado en la infraestructura que usted escoja.

Cartera de sistemas de software empresariales optimizados para una implementación ligera en el extremo de la red.

Contenido adicional