Подключаю Claude, GPT, Gemini и локальные модели к CRM, 1С, базам данных и мессенджерам. Интеграция по API, с контролем расходов и безопасностью данных.
Выбор модели - это всегда компромисс: качество ответов, расход токенов, доступность в РФ, требования к изоляции данных.
Лучший для работы с документами, код-анализа, длинных контекстов (до 200k токенов). Кейс: анализ юридических договоров с извлечением ключевых условий.
Универсал: чаты, function calling, генерация контента, тюнинг на своих данных. Кейс: бот техподдержки с fine-tuning на базе знаний клиента.
Сильный в мультимодальности: картинки, PDF, таблицы, видео. Контекст до 2M токенов. Кейс: парсинг сканов договоров и распознавание.
Когда данные нельзя отдавать публичным сервисам. На вашем сервере, GPU или CPU-оптимизированные варианты. Кейс: клиника с ПДн пациентов.
Шесть направлений. Если API есть - подключаюсь через официальный. Если нет - согласовываем парсинг с учётом рисков.
Webhooks, REST API, кастомные поля, роботы и триггеры. Двусторонние интеграции: ИИ читает и пишет обратно в CRM.
HTTP-сервисы 1С, ВК-ресурсы, обмен через брокер сообщений. SAP - ограниченно, под конкретные модули.
Прямое подключение, безопасные read-only пользователи для ИИ, SQL-генерация через function calling с валидацией.
Telegram Bot API, WhatsApp Business (официальный + неофициальные провайдеры), MAX Bot API, VK API. Один ИИ-бэкенд - четыре канала с двусторонней перепиской и контекстом.
Чтение входящих, классификация, автоответы, извлечение вложений. Работа с корпоративными почтовыми системами.
Любой API с документацией. Если документации нет - реверс-инжиниринг. Если API нет - парсинг с оговорками.
Пошаговый гайд. Остальные модели работают по похожей схеме.
Через console.anthropic.com. Из РФ - нужна карта с иностранным биллингом или реселлер. Альтернатива: корпоративный прокси на VDS в Европе.
pip install anthropic
# или для Node.js:
npm install @anthropic-ai/sdk
from anthropic import Anthropic
client = Anthropic(api_key="sk-ant-...")
response = client.messages.create(
model="claude-opus-4-7",
max_tokens=1024,
messages=[{"role": "user", "content": "Классифицируй заявку..."}]
)
print(response.content[0].text)
Архитектура: CRM → webhook на ваш backend → обогащение контекстом из БД → запрос в Claude API → парсинг ответа → запись обратно в CRM. Все шаги логируются.
Счётчик токенов на каждый запрос, суточные лимиты, алёрты в Telegram при превышении порога. Для B2B-проектов - отдельные бюджеты на клиента.
Логи всех пар запрос-ответ, разметка «хорошо/плохо» от операторов, регулярный A/B тест промптов. Без этого качество медленно деградирует.
Коротко про особенности. Полные гайды - в блоге на noltis.ru/blog/.
Ключ в platform.openai.com. Различия 4-turbo vs 4o vs 5 - по цене и скорости. Function calling - мощный инструмент для автоматизации действий в ваших системах. Для РФ - через Azure OpenAI (с российской картой) или реселлер.
Быстрый старт - через AI Studio (ключ за минуту). Продакшен - через Google Cloud Vertex AI с SLA. Сильная сторона: работа с видео, PDF и большими таблицами в одном запросе.
Публичные API не FZ-152 / GDPR compliant из коробки. Разбираю три рабочих сценария.
Перед отправкой в API заменяем ФИО, телефоны, адреса, email на токены. В ответе восстанавливаем. Данные уходят обезличенными.
YandexGPT, GigaChat (Сбер) - данные не покидают РФ. Пригодно для FZ-152, но качество моделей ниже топовых западных.
Qwen, Llama на вашем GPU-сервере. Данные вообще не покидают периметр компании. Полный контроль, максимальная безопасность.
Что спрашивают чаще всего, когда приходят с интеграцией.
Через форму на /brief/ или напрямую в Telegram @noemotionc. За сутки отвечу: какая модель подойдёт, архитектура интеграции, срок. Работаю лично, без sales-менеджеров.
С российских IP напрямую - нет, Anthropic блокирует. Варианта два: (1) корпоративный прокси на европейском/американском VDS, (2) через официальных партнёров-реселлеров с рублёвой оплатой. Оба рабочие, разница - в цене и SLA.
Три способа. (1) Маскирование PII до отправки: ФИО, телефоны, адреса заменяем токенами, восстанавливаем в ответе. (2) Azure OpenAI Service с европейским регионом и подписанным DPA - OpenAI не получает данные для обучения. (3) Локальная модель (Qwen, Llama) - данные вообще не покидают периметр.
RAG (Retrieval Augmented Generation) - это подача релевантных кусков документов в контекст модели, чтобы она отвечала по фактам из вашей базы знаний. Function calling - когда модель вызывает внешние функции: получить заказ по номеру, создать тикет, посчитать тариф. Часто используются вместе: RAG даёт знания, function calling - действия.
Да. Qwen, Llama, Mistral в квантизованных версиях запускаются даже на CPU или GPU средней мощности (RTX 4090 потянет модель 70B в 4-bit). Для серьёзной нагрузки - A100/H100 или аналог. Подберу конфигурацию под задачу и бюджет.
1С умеет HTTP-запросы через ВК-ресурсы - технически можно вызывать API напрямую. Но в продакшене я обычно ставлю прослойку на Python или Node.js: логирование, rate limiting, retry, обработка ошибок. 1С дёргает прослойку и спит спокойно.
Короткий ответ на FAQ: 500-1500 токенов. Разбор договора на 10 страниц: 20 000-40 000 токенов. Ваши документы + запрос + ответ = сумма. Считаем заранее, даю оценку бюджета до старта.
Для критичных сценариев закладываю fallback: два провайдера (Claude + GPT, переключение при ошибке), кеш типовых ответов, graceful degradation («не могу ответить, передал человеку» вместо белого экрана). Для некритичных - retry с экспоненциальной задержкой плюс алёрт в Telegram.
Предложу архитектуру и срок. За сутки, бесплатно.
Оставить заявку в бриф