LLMOps - Chat Conversacional con Streamlit Azure OpenAI MCP SSE Server
The Machine Learning Engineer via YouTube
Overview
Coursera Flash Sale
40% Off Coursera Plus for 3 Months!
Grab it
Aprende a construir un chat conversacional completo utilizando Streamlit, servidores MCP SSE y un cliente MCP integrado con Azure OpenAI, todo desplegado en contenedores Docker para emular un entorno distribuido real. Desarrolla una plataforma de integración IA full-stack que proporciona interacciones impulsadas por inteligencia artificial con bases de datos de grafos Neo4j, sistemas CRM HubSpot y datos financieros de Yahoo Finance a través del Protocolo de Contexto de Modelo (MCP). Domina la implementación de cuatro componentes integrados: un cliente Streamlit con interfaz de chat IA segura y autenticación empresarial, un servidor MCP Yahoo Finance para análisis de datos financieros con algoritmos propietarios, un servidor MCP Neo4j para operaciones de base de datos de grafos mediante consultas Cypher, y un servidor MCP HubSpot para integración CRM completa con más de 25 herramientas y operaciones CRUD. Explora técnicas avanzadas de LLMOps incluyendo la configuración de contenedores Docker, la implementación de servidores SSE (Server-Sent Events), la integración de múltiples proveedores de IA, y el desarrollo de sistemas distribuidos escalables para aplicaciones de machine learning en producción.
Syllabus
LLMOps: Chat Conversacional con Streamlit Azure Openai MCP SSE server #machinelearning #datascience
Taught by
The Machine Learning Engineer