Zero-Cost n8n + MCP with Docker 🔥| Smarter Agents in Minutes!

Zero-Cost n8n + MCP with Docker 🔥| Smarter Agents in Minutes!

Краткое содержание

В этом видео демонстрируется использование протокола контекста модели (MCP) для расширения возможностей больших языковых моделей (LLM) в рабочих процессах n8n. Рассматриваются проблемы интеграции LLM с внешними инструментами и источниками данных, а также преимущества MCP, такие как стандартизированная интеграция, совместимость инструментов и улучшенный контекст. Видео содержит пошаговое руководство по созданию агентного рабочего процесса с использованием n8n, Docker и MCP, включая подключение к API поиска Brave и добавление памяти для улучшения качества агента.

  • MCP стандартизирует интеграцию между приложениями ИИ, агентами, инструментами и источниками данных.
  • Docker используется для запуска n8n в изолированной среде.
  • Агент ИИ подключается к API поиска Brave через MCP для получения актуальной информации.
  • Добавление памяти улучшает способность агента сохранять контекст разговора.

Введение – Что мы строим (n8n + MCP + Docker)

В видео будет представлен протокол контекста модели MCP. Будут созданы клиенты MCP в рабочем процессе N8N, также будет показано, как создавать NN локально, поскольку локальный NN абсолютно бесплатен. Docker Desktop будет использоваться для запуска чего угодно. Будет рассмотрена концепция модельного контекстного протокола MCP. Будет показано несколько слайдов, чтобы рассказать, почему используется MCP и какова была причина того, что MCP фактически появился в мире Genai, затем будет создан новый рабочий процесс с нуля, добавлены клиенты MCP, поработано с клиентами MCP, а также подключено к одному из API, в качестве которого в этом видео выбран API поиска Brave, поэтому будут изучены возможности MCP в контексте рабочих процессов NAT.

Что такое MCP и почему это важно для агентов

MCP (Model Context Protocol) расширяет возможности LLM посредством стандартизированной интеграции. LLM обрабатывает входящий текст и генерирует вывод, но ограничен знаниями, имеющимися в его данных (например, GPT40 знает данные до конца 2024 года). LLM изолирован от внешних систем, инструментов и источников данных. Контекстная проблема заключается в ограничении информации в подсказке, отсутствии доступа к данным и информации о конкретном пользователе. Модели хороши настолько, насколько хорош предоставленный им контекст. Проблемы: отсутствие внешнего доступа, активного мониторинга, доступа к инструментам и исполнительной мощности. LLM не может напрямую манипулировать или инициировать действия в других приложениях, что ограничивает их возможности генерацией текста, изображений или видео.

Установка и запуск n8n с Docker

Первоначальные попытки подключения инструментов к LLM привели к фрагментированной экосистеме с проблемами интеграции. Для каждого API и инструмента требовалась отдельная реализация интеграции, что требовало от разработчиков специальных знаний и увеличивало время внедрения. Разные стандарты и протоколы усложняли подключение к различным API, что делало расширение приложений LLM неустойчивым и создавало ограничения при внедрении. MCP решает эти проблемы, предоставляя открытый протокол для бесшовной интеграции между приложениями ИИ, агентами, инструментами и источниками данных. MCP стандартизирует взаимодействие систем ИИ с внешними инструментами и контекстной информацией, создавая универсальный язык для цифрового мира.

Обзор community node MCP в n8n

Преимущества внедрения MCP включают стандартизированную интеграцию, снижение сложности разработки, совместимость инструментов (подключение один раз и работа с несколькими системами ИИ), улучшенный контекст (предоставление расширенных метаданных для улучшения понимания ИИ) и рост экосистемы (снижение барьеров для входа разработчиков и поставщиков). Основные элементы MCP: клиенты MCP (приложения, использующие возможности) и серверы MCP (подключаются к инструментам и источникам данных). MCP устанавливает новые стандарты для формата сообщений и инфраструктуры безопасности.

Настройка рабочего процесса n8n с нуля

Для создания агентного рабочего процесса с использованием MCP необходимо установить Docker, приложение для запуска контейнеров, которое упрощает создание изолированной среды для кодов. Docker доступен для различных ОС (Mac OS, Windows, Linux). После установки Docker Desktop можно запустить приложения N8N. NN предоставляет две версии: облачную (платную) и локальную (бесплатную). Для создания рабочего процесса на основе MCP необходимо создать NAN, перейдя на страницу nan.io и нажав на GitHub. На странице GitHub можно найти раздел, в котором рассказывается, как запустить NN с помощью Docker.

Подключение модели OpenAI

В каждом рабочем процессе в NHN необходимо создать триггер, определяющий, как начнется рабочий процесс. В данном случае используется чат-сообщение для связи с агентом. После этого подключается ИИ-агент и модель чата (OpenAI, GPT40). Для каждого узла необходимо указать ключ API для разных моделей API. Преимущество MCP заключается в том, что API предоставляется только один раз, а MCP занимается всеми различными инструментами и сложностью каждого API.

Добавление MCP к агенту

После получения API с веб-сайта OpenI API и вставки его, необходимо дождаться состояния проверки соединения. Затем узел переименовывается. Модель GPT4 выбирается для использования. Рабочий процесс сохраняется и тестируется. Модель не помнит имя, указанное в предыдущем чате, так как у ИИ-агента нет памяти. Для добавления памяти используется простая память, настраиваемая для обеспечения достаточного контекста окна для разговоров и взаимодействий. Значение 5 означает, что последние пять взаимодействий будут рассматриваться моделью как контекст.

Использование Brave Search API с MCP

Перед продолжением необходимо установить заметки сообщества. В настройках необходимо открыть узлы сообщества и установить nodes MCP. Необходимо принять на себя риски, связанные с узлами этого сообщества. После установки узла MCP его можно добавить в рабочий процесс. Необходимо установить конфигурации для этого узла: учетные данные, описание инструмента и эксплуатации. Для проверки подлинности используется API Brave Search.

Как работает системная подсказка и контекстные потоки

API поиска Brave позволяет искать и обобщать информацию, а также имеет функции для изображений, видео, новостей и т. д. Для использования API Brave необходимо зарегистрироваться и получить ключ API. После регистрации необходимо оформить бесплатную подписку (2000 запросов в месяц). Затем можно получить API-ключ.

Добавление памяти и улучшение качества агента

Для настройки сервера MCP необходимо перейти на страницу "Протокол контекста модели — серверы" и выбрать MPX. Необходимы аргумент команды (npx) и окружение (храбрый API-ключ с API-ключом). Для сред необходимо предоставить храбрый API-ключ с API-ключом.

Тестирование полного конвейера (n8n + MCP + Search + Memory)

MCP-клиент используется для составления списка инструментов. Данные из этого инструмента копируются и подключаются к агенту ИИ. Операция меняется на выполнение инструмента для передачи инструмента. Имя инструмента настраивается в режиме выражения. Параметры инструмента определяются автоматически моделью. В системное сообщение агента ИИ добавляются инструкции, сообщающие агенту о необходимости использовать клиент MCP для вывода списка инструментов и запуска инструментов.

Подведение итогов и следующие шаги для более умных рабочих процессов

Задается вопрос о кафе в Амстердаме. После обработки моделью и MCP получается результат, предоставленный MCP с помощью смелого поиска. Использовался только API-ключ от Brave и базовая конфигурация для сервера MCP для Brave. Не было никаких дополнительных настроек для подключения к Brave API и использования API. Параметры и все остальное обработано агентом. С серверов MCP можно подключиться ко многим другим инструментам и различным API, используя тот же протокол и стандарт.

Share

Summarize Anything ! Download Summ App

Download on the Apple Store
Get it on Google Play
© 2024 Summ