Desarrolla, entrena, prueba e implementa el machine learning en la nube híbrida
Red Hat® OpenShift® AI es una plataforma de inteligencia artificial que te permite desarrollar, entrenar e implementar modelos y aplicaciones según sea necesario en entornos de nube híbrida.
Descripción general del producto
Con OpenShift AI, las empresas pueden implementar de forma eficiente un conjunto integrado de herramientas open source y de terceros comunes para crear modelos de inteligencia artificial/machine learning (aprendizaje automático). Los usuarios obtienen una plataforma y un conjunto colaborativo de herramientas open source para diseñar modelos de prueba, sin tener que preocuparse por la infraestructura. Luego, pueden ampliar esa plataforma base con herramientas de partners para adquirir más funciones. Los modelos se pueden poner a disposición en los entornos de producción de manera uniforme con un formato preparado para los contenedores en la nube híbrida, en las instalaciones y en el extremo de la red.
OpenShift AI forma parte de Red Hat AI. Permite realizar las operaciones de TI en un entorno que se puede gestionar con facilidad, mediante configuraciones sencillas en una plataforma comprobada, adaptable y centrada en la seguridad.
OpenShift AI se encuentra disponible como producto de software tradicional o servicio de nube gestionado. Además, es compatible con los modelos base de inteligencia artificial generativa más conocidos, lo que te permite perfeccionarlos y ponerlos a disposición en la etapa de producción. De este modo, podrás utilizar estos modelos entrenados previamente para tus casos prácticos particulares y con tus propios datos. También puedes distribuir las cargas de trabajo en varios clústeres de Red Hat OpenShift, independientemente de su ubicación. La plataforma se basa en OpenShift y permite aprovechar la agilización de los sistemas de inteligencia artificial de forma más sencilla, ya que es compatible con infraestructuras de hardware basadas en unidades centrales de procesamiento (CPU) y unidades de procesamiento gráfico (GPU), como los aceleradores de Intel, AMD y NVIDIA.
Para quienes recién comienzan con los modelos de inteligencia artificial generativa, OpenShift AI incluye los elementos de Red Hat® Enterprise Linux® AI, una plataforma de modelos base que permite desarrollar, probar y ejecutar modelos de lenguaje de gran tamaño (LLM) de Granite para impulsar las aplicaciones empresariales. Además de los modelos de Granite que se ofrecen con Red Hat OpenShift AI, el marco admite modelos de HuggingFace, de Stability AI y de otros repositorios.
Tabla 1. Características y beneficios de Red Hat OpenShift AI
Aspectos destacados
Reduce los costos del paso de la etapa de prueba a la de producción al ajustar y automatizar la infraestructura.
Aumenta la eficiencia operativa de la inteligencia artificial y el machine learning en todos los equipos con una experiencia del usuario uniforme que fomente la colaboración entre los analistas, los ingenieros de datos, los desarrolladores de aplicaciones y los equipos de DevOps.
Obtén la flexibilidad de la nube híbrida al desarrollar, entrenar, implementar y controlar las cargas de trabajo de inteligencia artificial/machine learning en las instalaciones, la nube o el extremo de la red.
Características | Beneficios |
Herramientas de diseño de modelos | Proporcionan una interfaz interactiva y colaborativa que se basa en JupyterLab para llevar a cabo análisis de datos exploratorios y entrenar, ajustar y poner a disposición en la etapa de producción los modelos. Los analistas de datos tienen acceso permanente a las bibliotecas básicas de inteligencia artificial/machine learning, marcos muy utilizados y una amplia variedad de imágenes y entornos de trabajo predefinidos y proporcionados por los clientes para acelerar las pruebas de los modelos. |
Proyectos de entrenamiento de modelos | Permite que los usuarios organicen los archivos de desarrollo de modelos, las conexiones de datos y los demás elementos que se necesitan para un proyecto determinado, lo que simplifica las pruebas y mejora el trabajo colaborativo. |
Cargas de trabajo distribuidas de entrenamiento de modelos | Utiliza varios nodos de clústeres simultáneamente para entrenar y perfeccionar modelos de inteligencia artificial generativa y predictiva de manera más eficiente. De esta manera, obtendrás la capacidad de ajuste necesaria para realizar tareas que, de otro modo, no serían factibles desde el punto de vista informático. |
GPU y aceleradores
| El personal de operaciones de TI (ITOps) proporciona un mecanismo de autoservicio de acceso a la GPU para definir su entorno de recursos de GPU con anticipación, tanto en las instalaciones como en la nube. De esta manera, los analistas de datos y los desarrolladores de aplicaciones seleccionen con facilidad las configuraciones para las tareas de sus proyectos. |
Canales de análisis de datos | Permite que los analistas de datos y los ingenieros de inteligencia artificial automaticen los pasos necesarios para poner a disposición los modelos en las etapas de desarrollo y producción, y probarlos. Se pueden crear versiones de los canales, hacer un seguimiento de ellos y gestionarlos para reducir los errores de los usuarios y simplificar los flujos de prueba y producción. |
Distribución de los modelos | Permite poner a disposición en la etapa de producción los modelos de proveedores y marcos como Hugging Face, ONNX, PyTorch y TensorFlow, entre otros, así como tiempos de ejecución conocidos como vLLM. Los recursos de los clústeres, como las CPU y las GPU, se pueden ajustar en varios nodos según lo requieran las cargas de trabajo. |
Supervisión de los modelos | Realiza un seguimiento de indicadores como la cantidad de solicitudes de inferencia exitosas y fallidas, los tiempos promedio de respuesta a las inferencias y el uso de recursos informáticos, con el fin de ajustar los recursos de manera preventiva si es necesario. |
Detección de desajustes | Supervisa los cambios en las distribuciones de datos de entrada para los modelos de machine learning implementados. Esto permite identificar el momento en el que los datos reales que se usan para la inferencia se alejan considerablemente de aquellos con los que se entrenó el modelo. |
Detección de sesgos | Ofrece herramientas para controlar si los modelos son justos e imparciales, tanto en función de los datos de entrenamiento como en términos de equidad cuando se implementan en el mundo real. |
Sistemas de seguridad de IA | Filtran el lenguaje de odio, abusivo o vulgar, la información de identificación personal, la información clave para la competencia y otras limitaciones específicas del área. |
Evaluación de los modelos | Proporciona información importante sobre la calidad de los modelos de LLM y permite evaluar su rendimiento en distintas tareas. |
Registro de modelos | Ofrece un lugar central donde ver y gestionar los modelos registrados, para que los analistas de datos puedan compartir los modelos de inteligencia artificial generativa, sus elementos y los metadatos, crear versiones de ellos, implementarlos y realizar un seguimiento. |
Entornos desconectados y extremo de la red | Simplifican la implementación de clústeres desconectados en una red restringida, que suele contar con la protección de un firewall, para respaldar a los sectores en los que la seguridad y el cumplimiento normativo exigen implementaciones aisladas. |
Además de las funciones de OpenShift AI, muchos productos de partners tecnológicos se integraron a la interfaz de usuario. Entre ellos, se encuentran Starburst para el acceso distribuido a datos a través de diversos conjuntos de datos, HPE para el linaje y la creación de versiones de datos, NVIDIA para la gestión del rendimiento de las GPU, Intel para la inferencia de alto rendimiento en hardware de Intel y Elastic para la base de datos vectorial con aplicaciones de generación aumentada por recuperación (RAG).
Próximos pasos:
Obtén más información sobre Red Hat OpenShift AI y mira el video informativo.
Úsala en el entorno de prueba (sandbox) para desarrolladores.