Модуль 1. LLM‑инженерия: модели, RAG и AI‑агенты
Старт с локальных LLM и open‑source моделей (Ollama), затем — работа с frontier‑моделями через API.
Мультимодальные приложения (генерация изображений/озвучка), интерфейсы на Gradio.
RAG‑системы: эмбеддинги, Chroma/FAISS, чанкинг, re‑ranking, query rewriting, GraphRAG‑подходы.
Переход от ML к DL и fine‑tuning: бейзлайны (scikit‑learn/XGBoost), PyTorch‑модели, SFT, LoRA/QLoRA, TRL, мониторинг в Weights & Biases.
Автономные и мультиагентные системы, структурированные выводы (Pydantic), оркестрация инструментов, serverless‑деплой (Modal).
Модуль 2. Агентный ИИ: фреймворки, инструменты и MCP
Практика на OpenAI Agents SDK (async/параллелизм, трассировка, guardrails, research‑агенты).
Командные агенты в CrewAI, графовые агентные системы в LangGraph, агентные чаты и распределённые агенты в AutoGen.
MCP (Model Context Protocol): подключение “экосистемы инструментов”, создание собственных MCP‑серверов, вопросы безопасности.
Модуль 3. Production AI: деплой, облака, IaC и наблюдаемость
Быстрый деплой на Vercel, затем production‑архитектуры и масштабирование на AWS.
Full‑stack: Next.js + FastAPI, аутентификация, подписки (billing), стриминг.
AWS‑компоненты для AI: Lambda, S3, Bedrock, CloudWatch, API Gateway/CloudFront; контейнеризация Docker, деплой через ECR/App Runner.
Terraform (IaC), GitHub Actions (CI/CD), мульти‑облако (Azure/GCP), SageMaker‑подходы для embedding/пайплайнов.
Наблюдаемость LLM‑систем (в т.ч. Langfuse‑подход) и защита от prompt injection.
Модуль 4. No‑code AI‑автоматизация: n8n, голосовые агенты и RAG
Построение AI‑воркфлоу в n8n (Cloud/self‑hosted), интеграции (Sheets/Drive/Gmail/Telegram/Slack/CRM).
Голосовые агенты на ElevenLabs, подключение через webhooks, сценарии “помощник/оператор”.
RAG‑пайплайны с Supabase Vector Store и эмбеддингами, agentic‑подходы и MCP‑интеграции.