Capacitación técnica en Inteligencia Artificial y Agentes de IA

De la teoría al código: IA en producción para equipos de tecnología de PyMEs argentinas

Equipo de tecnología en un workshop de Inteligencia Artificial

Resumen ejecutivo

Workshops prácticos y orientados a la implementación: fundamentos de IA y LLMs, RAG, desarrollo de agentes, integración y automatización de procesos con IA. Incluye ejercicios guiados, guías de arquitectura, plantillas de código y checklists para acelerar el paso de prototipos a sistemas estables, medibles y auditables.

¿A quién está dirigido?

  • Desarrolladores/as backend y full-stack
  • Equipos de TI, soporte y tecnología
  • Equipos de Sistemas con foco en llevar IA a producción

Objetivos de aprendizaje (resultados concretos)

  • Comprender cómo funcionan los LLMs y su ecosistema (tokenización, embeddings, prompts, context windows).
  • Construir agentes de IA con flujos multi-paso,
  • Manejo de N8N y LangGraph
  • Diseñar e implementar RAG robusto (ingesta, chunking, embeddings, evaluación).
  • Integrar IA en aplicaciones (APIs, microservicios) con observabilidad y monitoreo.
  • Construcción de librerías de herramientas y MCP

Formatos y carga horaria

  • Bootcamp Intensivo (8–12 h / 1–2 jornadas): Ideal para un kickstart de capacidades y una prueba de concepto (PoC) guiada.
  • Programa Completo (20 h / 4 módulos): Enfocado en la implementación completa, con prácticas y evaluación de resultados.
  • Workshop a medida (4–8 h por tema): Perfecto para profundizar en áreas específicas como RAG, desarrollo de agentes o integraciones con N8N.

Modalidad

  • Modalidad virtual o presencial.
  • Grupos recomendados de 8 a 15 participantes.

Contenidos (Programa sugerido de 6 módulos)

M0. Diagnóstico y diseño de objetivos (opcional, 2 h)

  • Relevamiento rápido de casos de uso, datos y restricciones (on-prem/cloud).
  • Definición de métricas de éxito (KPIs) y criterios de aceptación.

M1. Fundamentos prácticos de IA y LLMs (4 h)

  • De embeddings a LLMs: arquitectura, tokens, context, latencia, costos.
  • Prompting avanzado (estructurado, roles, plantillas, few/zero-shot).
  • Hands-on: primer pipeline de inferencia con API y con modelo local.

M2. Agentes de IA y orquestación (4 h)

  • Agentes vs. asistentes: herramientas, memoria, planificación.
  • Frameworks: N8N y LangGraph.
  • Llamadas a herramientas (APIs/DB), seguridad y límites operativos.
  • Hands-on: agente que ejecuta tareas (ETL, ticketing, reportes).

M3. Desarrollo de agentes avanzados (4 h)

  • Desrrollo de herramientas y servidores MCP
  • Prompts guíados y técnicas de refuerzo

M4. Agentes RAG, RagGrpah y RagPath (4+4 h)

  • Ingesta y chunking con estrategias por tipo de documento.
  • Elección de vector DB (pgvector, Qdrant, Milvus): pros/cons.
  • Re-ranking, filtros, metadata y control de alucinaciones.
  • Herramientas avanzadas: RagGrpah y RagPath
  • Hands-on: RAG end-to-end con evaluación (RAGAS) y pruebas A/B.

Stack de referencia

  • Lenguajes: Python.
  • LLMs: OpenAI, Claude Sonnet, modelos locales vía Ollama.
  • Vectores: PostgreSQL + pgvector
  • Automatización: N8N
  • Orquestación: LangGraph
Se ajusta a on-prem, nube pública o escenarios híbridos con políticas de datos locales.

Metodología

  1. Aprender haciendo: cada concepto termina en un ejercicio práctico.
  2. Plantillas listas para producción: repos con blueprints y tests.
  3. Evaluación objetiva: métricas y criterios de aceptación claros.
  4. Acompañamiento: Q&A técnico y guía de decisiones (trade-offs).

Entregables

  • Repositorio base con:
    • Blueprint RAG (ingesta, búsqueda, re-ranking, evaluación).
    • Blueprint de Agentes (herramientas, memoria, políticas).
    • API de inferencia (FastAPI/Spring Boot) con tests y CI.
  • Checklists de hardening, costos y SLOs.
  • Documentación de todas las herramientas utilizadas

Requisitos

  • Conocimientos básicos de programación Python y Git.
  • Nociones de contenedores (Docker) y llamadas HTTP/REST.

Preguntas frecuentes

¿Necesitamos conocimientos técnicos?
Dado que se trata de cursos prácticos se recomienda contar con concimientos básicos de programación en python.

¿Usan modelos abiertos o cerrados?
Trabajamos con ambos; la elección depende de datos, costos, latencia y requisitos de seguridad. Proveemos guías de decisión.

¿Se puede dictar 100% on-prem?
Sí. Ofrecemos variantes con modelos locales y almacenamiento de vectores en su infraestructura. Sin embargo, por la naturaleza del curso y dado que no se trabajará con datos reales, se recomienda utilizar modelos en la nube.

¿Podemos usar datos propios?
Sí, bajo acuerdo de confidencialidad, sin embargo se debe tener en cuenta que dichos datos serán utilizados en modelos en la nube.