¿Qué son los LLMOps?

Copiar URL

Los modelos de lenguaje de gran tamaño (LLM) son modelos de aprendizaje automático que realizan tareas relacionadas con el lenguaje, como traducir, responder preguntas, resumir contenido y conversaciones, y escribir código y contenido. Los LLM, como GPT-3, LLaMA y Falcon, son herramientas innovadoras que pueden entrenarse con conjuntos de datos para responder preguntas. A medida que estas herramientas evolucionan, las empresas necesitan conocer las prácticas recomendadas sobre el funcionamiento de estos modelos. Aquí es donde entran en juego las LLMOps.

Las operaciones de modelos de lenguaje de gran tamaño (LLMOps) son un conjunto de prácticas, técnicas y herramientas que se usan para la gestión operativa de estos modelos en los entornos de producción. Se ocupan específicamente de la gestión y automatización del ciclo de vida de los LLM, desde su perfeccionamiento hasta su mantenimiento con herramientas y metodologías. Los analistas de datos, los ingenieros y los equipos de TI pueden usar operaciones específicas de los modelos de gran tamaño para implementarlos, supervisarlos y mantenerlos de manera eficiente.

Si se considera que los LLM son un subconjunto de los modelos de aprendizaje automático, entonces las LLMOps son un modelo de lenguaje de gran tamaño equivalente a las operaciones de aprendizaje automático (MLOps). Las MLOps son un conjunto de prácticas para los flujos de trabajo cuyo objetivo es optimizar el proceso de implementación y mantenimiento de los modelos de aprendizaje automático. Pretenden establecer un proceso de evolución constante para integrar los modelos de aprendizaje automático al desarrollo de software. Del mismo modo, el objetivo de las LLMOps es que los equipos puedan experimentar con el ciclo de desarrollo e implementación de los LLM, repetir los procesos, implementarlos y mejorarlos de forma permanente.

Si bien las LLMOps y las MLOps comparten algunos aspectos, también tienen diferencias. Estas son algunas:

Aprendizaje: muchos modelos de aprendizaje automático tradicionales se crean o entrenan desde cero, pero los LLM se generan a partir de un modelo base y se perfeccionan con datos nuevos para mejorar su rendimiento en un área en particular.

Ajuste: en el caso de los LLM, el perfeccionamiento mejora el rendimiento de aplicaciones específicas y aumenta la precisión, lo cual aporta más información sobre un tema en especial. El ajuste de las indicaciones es un proceso eficiente y optimizado que permite que los LLM realicen mejor ciertas tareas. Otra diferencia radica en el ajuste de los hiperparámetros. En el aprendizaje automático tradicional, las tareas de ajuste se centran en mejorar la precisión u otros indicadores, mientras que, en el caso de los LLM, también son importantes para reducir los requisitos de potencia informática y los costos que conlleva el entrenamiento de los modelos y la generación de inferencias. Tanto los modelos clásicos de aprendizaje automático como los LLM obtienen beneficios del seguimiento y la optimización del proceso de ajuste, pero en relación con diferentes aspectos. Por último, es importante mencionar otro proceso que puede combinarse con el ajuste para mejorar la precisión de las respuestas: la generación aumentada por recuperación (RAG). Este proceso consiste en usar una base de conocimientos externa para asegurarse de que los datos que recibe el LLM durante las consultas sean actuales y precisos, de modo que genere mejores respuestas.

Retroalimentación: el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) representa una mejora en cuanto al entrenamiento de los LLM. A veces, las tareas pueden resolverse de diferentes maneras; por eso, es importante recibir comentarios de los usuarios finales de la aplicación para evaluar el rendimiento del modelo. Los LLM usan la retroalimentación humana para analizar la precisión y la coherencia de las respuestas a las indicaciones, mientras que los modelos de aprendizaje automático tradicionales lo hacen mediante indicadores específicos y automatizados.

Indicadores de rendimiento: los modelos de aprendizaje automático tienen indicadores de rendimiento claramente definidos, como la precisión, el área bajo la curva (AUC) y el valor F1, entre otros. En cambio, en el caso de los LLM, se aplica un conjunto diferente de valores e indicadores estándares, como Bilingual Evaluation Understudy (BLEU) y Recall-Oriented Understudy for Gisting Evaluation (ROUGE).

Actualmente, las operaciones LLMOps son el método ideal para supervisar y mejorar el rendimiento de los LLM a lo largo del tiempo, y se pueden analizar tres ventajas principales:

Eficiencia: las LLMOps permiten que los equipos agilicen el desarrollo de modelos y canales, distribuyan modelos de mayor calidad y los implementen en la etapa de producción más rápido. Así, resulta más sencillo que colaboren en una plataforma unificada donde pueden comunicarse y compartir información.

Capacidad de ajuste: las LLMOps ofrecen mayor capacidad de ajuste y gestión, ya que permiten supervisar, controlar y gestionar varios modelos para su integración y distribución o implementación continuas (CI/CD). Los canales de LLM fomentan la colaboración, reducen los conflictos y agilizan los ciclos de lanzamiento, y las LLMOps ofrecen a los usuarios una experiencia con mayor capacidad de respuesta al mejorar la latencia del modelo.

Reducción de riesgos: las LLMOps permiten aumentar la transparencia y responder a las solicitudes más rápido, y garantizan un mayor cumplimiento de las políticas de una empresa o sector. Las operaciones LLMOps avanzadas pueden mejorar la seguridad y la privacidad al priorizar la protección de la información confidencial para evitar que se generen puntos vulnerables y accesos no autorizados.

Las LLMOps tienen varios usos.

Integración y distribución continuas (CI/CD): la CI/CD tiene como objetivo optimizar, agilizar y automatizar el ciclo de vida del desarrollo de los modelos. Pueden usarse herramientas como Jenkins para diseñar y probar los proyectos permanentemente, lo cual facilita la integración de los cambios de los desarrolladores a los proyectos y la distribución de diseños novedosos a los usuarios. Así, es posible realizar actualizaciones y restauraciones sin inconvenientes, lo cual reduce al mínimo las interrupciones del servicio.

Recopilación, etiquetado y almacenamiento de datos: pueden recopilarse datos de varias fuentes, sobre distintas áreas y en diferentes idiomas. Cuando se etiquetan los datos con intervención humana, es posible que se sigan criterios complejos y específicos. El almacenamiento de datos con soluciones de almacenamiento y bases de datos adecuadas permite recopilar y mantener información digital durante todo el ciclo de vida del LLM.

Perfeccionamiento, interferencias y supervisión de modelos: con el perfeccionamiento, se optimizan los modelos para que realicen ciertas tareas de cada área. Las inferencias de los modelos permiten gestionar la producción según los conocimientos actuales y ejecutar acciones en función de la información inferida. Gracias a la supervisión de los modelos, que incluye los comentarios de personas, es posible recopilar y almacenar datos sobre el comportamiento de los modelos para entender la manera en que se relacionan con los datos de producción reales.

Las operaciones LLMOps tienen varias etapas o elementos, y hay prácticas recomendadas para cada una de ellas:

Análisis exploratorio de los datos (EDA): es el proceso que consiste en investigar datos para descubrir elementos, compartirlos y prepararlos para el ciclo de vida del aprendizaje automático mediante la creación de conjuntos de datos, tablas y visualizaciones.

  • Recopilación de los datos: el primer paso consiste en recopilar los datos que se usarán para entrenar el LLM de varias fuentes, como repositorios de código y redes sociales.
  • Limpieza de los datos: una vez recopilados, los datos deben limpiarse y prepararse para el entrenamiento. Esto implica eliminar los errores y los datos duplicados, y corregir las inconsistencias.
  • Análisis de los datos: el siguiente paso es analizar los datos para entender mejor sus características, lo cual incluye la identificación de casos atípicos y de patrones.

Preparación de los datos e ingeniería de las indicaciones: este proceso consiste en permitir que diferentes equipos consulten y compartan los datos, y en desarrollar indicaciones para que las consultas a los LLM sean estructuradas y confiables.

  • Preparación de los datos: los datos que se usan para entrenar un LLM se preparan de un modo específico, que implica eliminar las palabras vacías y organizar el texto.
  • Ingeniería de las indicaciones: se trata de la creación de avisos que se utilizan para generar texto y garantizar que el resultado sea el deseado.

Perfeccionamiento del modelo: se refiere al uso de bibliotecas open source conocidas, como PyTorch, para perfeccionar y mejorar el rendimiento del modelo.

  • Entrenamiento del modelo: después de que se preparan los datos, se entrena o perfecciona el modelo con un algoritmo de aprendizaje automático que busca patrones.
  • Evaluación del modelo: una vez que se entrenó el LLM, debe evaluarse su rendimiento. Para ello, se usa un conjunto de datos de prueba que no se utilizó durante el entrenamiento.
  • Perfeccionamiento del modelo: cuando el LLM no da buenos resultados, puede perfeccionarse, lo cual implica modificar sus parámetros para mejorar el rendimiento.

Revisión y control del modelo: es el proceso que consiste en descubrir elementos, compartirlos y realizar aportes a los diferentes modelos de aprendizaje automático mediante plataformas de MLOps open source, como MLflow y Kubeflow.

  • Revisión del modelo: una vez que se perfeccionó el LLM, debe revisarse para garantizar que sea seguro y confiable, lo cual incluye comprobar los sesgos y los riesgos de seguridad.
  • Control del modelo: se trata de la gestión del LLM durante todo su ciclo de vida e implica el seguimiento de su rendimiento, la incorporación de cambios a medida que sean requeridos y su eliminación cuando ya no sea necesario.

Inferencias y distribución del modelo: se trata del proceso de gestionar la frecuencia de actualización del modelo, los tiempos de solicitud de las inferencias y otros elementos de producción parecidos en las pruebas.

  • Distribución del modelo: una vez que se revisó y aprobó el LLM, puede llevarse a la producción y distribuirse a los usuarios mediante una interfaz de programación de aplicaciones (API).
  • Inferencia del modelo: una aplicación puede hacer consultas a la API para que genere texto o responda preguntas. Esto puede realizarse de varias maneras, por ejemplo, mediante una interfaz de programación de aplicaciones de transferencia de estado representacional (REST API) o una aplicación web.

Supervisión del modelo con retroalimentación humana: se refiere a la creación de canales de supervisión de datos y modelos con alertas tanto por los desajustes del modelo como por el comportamiento malicioso de los usuarios.

  • Supervisión del modelo: una vez que se implementó el modelo, es necesario supervisarlo para asegurarse de que su rendimiento sea el esperado. Esto incluye realizar un seguimiento, identificar problemas e implementar los cambios necesarios.
  • Retroalimentación humana: se usa para mejorar el rendimiento del LLM y puede llevarse a cabo proporcionando comentarios sobre el texto que genera o identificando los problemas de rendimiento que surjan.

Una plataforma de LLMOps ofrece a los analistas de datos e ingenieros de software un entorno colaborativo que simplifica el análisis de datos, funciones de trabajo en conjunto para realizar un seguimiento de las pruebas, ingeniería de las indicaciones y gestión de modelos y canales. También se ocupa del traslado, la implementación y la supervisión de los LLM en entornos controlados.

Con la plataforma, las bibliotecas pueden gestionarse con mayor eficiencia, lo cual reduce los costos operativos y permite que el personal con menor conocimiento técnico lleve a cabo más tareas. Entre estas operaciones se incluyen el procesamiento previo de los datos, y el entrenamiento, la supervisión, el perfeccionamiento y la implementación de modelos de lenguaje. Las operaciones LLMOps automatizan los aspectos del ciclo de vida del aprendizaje automático relacionados con el funcionamiento, la sincronización y la supervisión.

Red Hat® OpenShift®, la plataforma de aplicaciones de nube híbrida líder del sector que se basa en Kubernetes, agiliza la implementación de las aplicaciones que funcionan con inteligencia artificial en los diferentes entornos de nube híbrida, desde los centros de datos hasta el extremo de la red y varias nubes.

Con Red Hat OpenShift, las empresas pueden automatizar y simplificar la tarea repetitiva de integración de los modelos a los procesos de desarrollo de software, la implementación en la producción, la supervisión, el reentrenamiento y la reimplementación para lograr predicciones más precisas de forma permanente.

Red Hat OpenShift AI es una plataforma de MLOps flexible y con capacidad de ajuste que incluye herramientas para diseñar, implementar y gestionar las aplicaciones que utilizan la inteligencia artificial. Permite que los analistas de datos y los desarrolladores de aplicaciones simplifiquen la integración de la inteligencia artificial a las aplicaciones de manera segura y uniforme, según sea necesario. La plataforma OpenShift AI ofrece herramientas para respaldar todo el ciclo de vida de las pruebas y los modelos de inteligencia artificial/aprendizaje automático en las instalaciones y en la nube pública.

Al combinar las funciones de Red Hat OpenShift AI y Red Hat OpenShift en una única plataforma de aplicaciones de inteligencia artificial lista para las empresas, los equipos pueden trabajar juntos en un solo entorno colaborativo que promueve la uniformidad, la seguridad y la flexibilidad.

Más información sobre la inteligencia artificial y el aprendizaje automático

Productos

Una cartera de soluciones centradas en la inteligencia artificial que ofrece herramientas para entrenar, mejorar, distribuir, supervisar y gestionar los modelos y los experimentos con inteligencia artificial y aprendizaje automático en Red Hat OpenShift.

Una plataforma de aplicaciones empresariales que ofrece un conjunto unificado de servicios probados para lanzar aplicaciones al mercado en la infraestructura que usted escoja. 

Red Hat Ansible Lightspeed with IBM watsonx Code Assistant es un servicio de inteligencia artificial generativa que está diseñado por y para automatizadores, operadores y desarrolladores de Ansible. 

Recursos

ebook

Los aspectos principales en el diseño de un entorno de inteligencia artificial y aprendizaje automático listo para la producción

Informe de analistas

Total Economic Impact™ of Red Hat Hybrid Cloud Platform for MLOps

Webinar

Aproveche al máximo la inteligencia artificial con el open source y Kubernetes