Evaluación de Razonamiento y Cálculo en LLMs: DeepSeek, Phi-3.5 y LLama 3.2
The Machine Learning Engineer via YouTube
AI Adoption - Drive Business Value and Organizational Impact
Master AI & Data—50% Off Udacity (Code CC50)
Overview
Coursera Flash Sale
40% Off Coursera Plus for 3 Months!
Grab it
Explore un análisis comparativo en video de las capacidades de razonamiento, cálculo lógico y matemático de tres modelos de lenguaje: DeepSeek R1 1.5B, Microsoft Phi3.5 3.8B y LLama 3.2 3B. Mediante el uso de Ollama y Langchain, junto con prompts diseñados con la técnica Chain of Thought (CoT), examina el rendimiento de estos modelos cuantizados a 4Int. Accede al notebook completo en GitHub para profundizar en la implementación técnica y los resultados detallados de esta evaluación comparativa.
Syllabus
LLM,s: Evaluación CoT DeepSeek, Phi3.5 y LLama 3.2t (Español) #datascience #machinelearning
Taught by
The Machine Learning Engineer