Ответы на вопросы после митапа по AI

Pavel Veinik

Ответы на вопросы после митапа по AIКраткая история IT: От ткацкого станка до нейросетей

Карьера, будущее профессий и AI

- Кому больше может помочь ИИ - разработчику или продакту - с точки зрения затащить продук в одиночку?


Развитие мультиагентных систем в 2026 году радикально изменило баланс сил в соло-разработке. Если раньше разработчику не хватало экспертизы в кастдеве и маркетинге, а продакту в написании кода, то сейчас обе роли получили мощные рычаги, но с разным порогом входа в архитектуру.

Для продакта ИИ стал инструментом low-code сборки. С помощью агентов на базе Claude 3.5 Sonnet или Gemini 3 продакт может генерировать фронтенд через v0 от Vercel и связывать его с бекендом через Supabase, описывая логику естественным языком. Однако на этапе масштабирования продакт упирается в галлюцинации агентов и спагетти-код, который сложно поддерживать без понимания паттернов.

Разработчик выигрывает больше в долгосрочной перспективе. Инженер уже понимает архитектуру, инфраструктуру и CI/CD. ИИ-агенты забирают на себя рутину: написание бойлерплейта, тестов и базовой бизнес-логики. Для задач продакта разработчик использует специализированные LLM для генерации маркетинговых текстов, анализа конкурентов и синтетического тестирования гипотез на ИИ-персонах.

Технологии и лучшие практики:

  • Фреймворки: AutoGen и CrewAI для создания команд ИИ-агентов, где один агент пишет код, второй ревьюит, а третий проверяет UI.
  • Инструменты разработчика: Cursor, GitHub Copilot Workspace, Devin для автономного решения issue.
  • Инструменты продакта: v0, Bolt.new, и промпт-инжиниринг в ChatGPT Advanced Data Analysis для обработки метрик.

Что может пойти не так:

  • Эффект стеклянного потолка: проект быстро стартует, но останавливается при усложнении логики, когда контекстное окно забивается нерелевантными связями. Решается декомпозицией агентов на микросервисы.
  • Технический долг сгенерированного кода: без ревью человеком кодовая база быстро деградирует. Решается строгим линтингом в CI пайплайне.

Полезные материалы:


- ИИ приходит по ночам во сне и отнимает работу

Страх автоматизации естественен, но сегодня мы наблюдаем не замену инженеров, а их аугментацию. Модели уровня GPT-5 и Claude 4 отлично справляются с написанием типовых CRUD-сервисов и версткой, но они не умеют нести ответственность за архитектурные решения и бизнес-риски в условиях неопределенности.

Механика работы современных LLM базируется на вероятностном предсказании токенов. Даже самые продвинутые системы с RAG и графами знаний не обладают истинным пониманием контекста реального мира. Они блестяще решают задачи с четким ТЗ и известными ограничениями, но пасуют там, где требуется эмпатия, переговоры со стейкхолдерами или нестандартный системный дизайн.

Ваша задача сейчас — перейти от написания кода к проектированию систем и оркестрации ИИ-агентов. Инженер превращается в технического менеджера, где подчиненные — это специализированные модели.

Технологии и лучшие практики:

  • Переход к AI-Driven Development: использование Devin или SWE-agent для рутинных тикетов, пока ты фокусируешься на архитектуре.
  • Освоение MLOps и LLMOps: умение развернуть vLLM, настроить инференс и управлять жизненным циклом моделей становится базовым навыком.
  • Развитие системного мышления: фокус на распределенных системах, безопасности и масштабируемости.

Что может пойти не так:

  • Игнорирование трендов: попытка конкурировать с ИИ в скорости написания бойлерплейта приведет к выгоранию. Решается делегированием рутины.
  • Слепое доверие моделям: использование сгенерированного кода без понимания механики может привести к уязвимостям нулевого дня. Решается внедрением статического анализа.

Полезные материалы:


- Что могу стать безработным)

Этот риск существует только для специалистов, которые отказываются адаптироваться. Рутинные задачи джунов действительно автоматизируются с беспрецедентной скоростью. Однако спрос на сеньоров и архитекторов, умеющих интегрировать ИИ в энтерпрайз-процессы, в 2026 году превышает предложение в несколько раз.

Ключевой сдвиг на рынке труда — появление новых специализаций. Вместо чистого фронтенда или бекенда востребованы AI-инженеры, специалисты по RAG-системам, инженеры данных для тонкой настройки моделей и эксперты по безопасности больших языковых моделей.

Чтобы оставаться востребованным, необходимо сместить фокус с синтаксиса языков программирования на понимание пайплайнов машинного обучения, векторных баз данных и принципов работы трансформеров на уровне архитектуры.

Технологии и лучшие практики:

  • Изучение фреймворков оркестрации: LlamaIndex для продвинутых RAG-систем, LangChain для композиции промптов и вызова инструментов.
  • Тонкая настройка: освоение PEFT и LoRA для адаптации open-source моделей под специфичные бизнес-домены на локальном железе.
  • Локальный инференс: использование Ollama и llama.cpp для запуска компактных моделей на краевых устройствах для соблюдения приватности.

Что может пойти не так:

  • Распыление внимания: попытка изучить все новые инструменты поверхностно. Решается выбором одной ниши и глубоким погружением.
  • Недостаток фундаментальных знаний: работа только с высокоуровневыми API без понимания алгоритмов. Решается изучением архитектуры трансформеров.

Полезные материалы:


- Выявление и подтверждение действительности востребованности ИИ сервиса

В 2026 году рынок перенасыщен базовыми ИИ-обертками над публичными API. Чтобы сервис был востребован, он должен решать конкретную боль бизнеса, которую невозможно закрыть простым промптом в ChatGPT. Ключ к успеху — глубокая интеграция в процессы и работа с проприетарными данными.

Механика проверки гипотез сместилась в сторону быстрого прототипирования с использованием агентов. Вместо долгих кастдевов можно создать синтетических пользователей на базе реальных транскриптов интервью и прогнать продукт через них для первичной валидации UX и ценности.

Подтверждение востребованности требует метрик. Оценивайте не только вовлеченность, но и экономическую эффективность: сколько часов работы сэкономил сервис, как снизилась стоимость привлечения клиента или процент ошибок.

Технологии и лучшие практики:

  • Синтетические данные: использование фреймворков вроде DSPy для генерации качественных синтетических датасетов для валидации пайплайнов.
  • Аналитика ИИ: инструменты вроде Langfuse или Phoenix для мониторинга качества ответов, затрат на токены и задержки в реальном времени.
  • Версионирование промптов: использование Prompt Registry для A/B тестирования разных системных промптов на реальных пользователях.

Что может пойти не так:

  • Решение несуществующей проблемы: создание сложной мультиагентной системы там, где достаточно регулярного выражения. Решается строгим принципом простоты.
  • Экономика юнит-костов: затраты на инференс GPT-5 съедают всю маржу. Решается переходом на кастомные open-source модели через vLLM.

Полезные материалы:


- Введение палочной системы в разработке - 3 MR в неделю, один эпик в месяц

Метрики производительности, основанные на количестве мерж-реквестов, в эпоху генеративного ИИ полностью потеряли смысл. Инженер с доступом к Cursor и GitHub Copilot может генерировать десятки MR в день, состоящих из бойлерплейта и поверхностного рефакторинга, что только увеличит технический долг и нагрузку на ревьюеров.

Сегодня фокус сместился с количества написанных строк на бизнес-импакт и архитектурное качество. Палочная система провоцирует закон Гудхарта: когда метрика становится целью, она перестает быть хорошей метрикой. Разработчики начнут дробить задачи на микроскопические PR, саботируя реальный прогресс продукта.

Эффективный подход требует внедрения метрик DORA и оценки качества кода с помощью статического анализа и AI-ревьюеров, которые могут оценивать цикломатическую сложность и покрытие тестами в автоматическом режиме.

Технологии и лучшие практики:

  • AI Code Review: интеграция инструментов вроде CodiumAI или Reviewpad в CI/CD для автоматического ревью стилистики и поиска логических уязвимостей.
  • Метрики инженерного здоровья: использование LinearB или подобных платформ для отслеживания Cycle Time и Deployment Frequency.
  • Semantic PRs: строгая стандартизация коммитов через Conventional Commits с автоматической генерацией changelog-ов с помощью LLM.

Что может пойти не так:

  • Усталость от алертов: AI-ревьюер генерирует слишком много ложноположительных комментариев. Решается тонкой настройкой промптов ревьюера.
  • Демотивация команды: инженеры чувствуют себя винтиками. Решается переходом к OKR, где оценивается достижение продуктовых целей.

Полезные материалы:


- Разработка дисконтирована, хотя ее сложность по сути никуда не делась

Это одно из главных когнитивных искажений. Бизнес видит, как ИИ за секунды генерирует лендинги и базовые скрипты, и делает ложный вывод о снижении стоимости разработки сложных распределенных систем. На самом деле, стоимость написания символов упала до нуля, но стоимость проектирования, интеграции и поддержки возросла из-за роста энтропии.

Сложность никуда не делась, она перешла на уровень системного дизайна и управления состоянием. Интеграция LLM в продукт добавляет новые слои абстракции: векторные хранилища, пайплайны чанкинга, механизмы реранкинга и оркестрацию агентов. Эти компоненты требуют глубокого понимания согласованности данных в микросервисной архитектуре.

Архитекторам необходимо активно обучать бизнес-заказчиков, показывая разницу между прототипом в Jupyter Notebook и продакшен системой с отказоустойчивостью.

Технологии и лучшие практики:

  • Платформенный инжиниринг: создание внутренних Developer Portals для стандартизации ИИ-микросервисов и шаблонов.
  • MLOps инфраструктура: использование KubeFlow или Ray для управления распределенным инференсом и дообучением моделей в кластере.
  • Threat Modeling для LLM: внедрение фреймворков тестирования на безопасность, таких как Garak или Giskard, для предотвращения утечек данных.

Что может пойти не так:

  • Разрыв ожиданий: бизнес ожидает AGI, а получает хрупкий RAG-пайплайн. Решается прозрачной коммуникацией и метриками качества генерации.
  • Спагетти-архитектура: быстрые прототипы уходят в продакшен без рефакторинга. Решается строгим разделением экспериментальных и релизных веток.

Полезные материалы:


- Инфоцигане, создающие иллюзии простоты у C-level, показывая фокусы как быстро прикручивается темная тема к одностраничнику

Демо-инжиниринг стал серьезной проблемой индустрии. Продавцы красивых прототипов показывают работу передовых моделей на вылизанных датасетах из десяти строк, создавая у стейкхолдеров иллюзию, что внедрение корпоративного AI — это задача на пару выходных для одного мидла.

В реальности переход от демо к продакшену сталкивается с грязными данными, галлюцинациями, ограничениями API и проблемами с управлением доступом. Темная тема для лендинга — это детерминированная задача. ИИ в корпоративной среде — это вероятностная система, которую нужно загонять в строгие рамки.

Инженерам нужно уметь защищать свои оценки сроков, демонстрируя метрики надежности. Отличный аргумент — показать разницу между идеальным сценарием и обработкой краевых случаев, когда модель начинает выдумывать факты или сливать приватные данные клиентов.

Технологии и лучшие практики:

  • LLM Guardrails: внедрение жестких ограничений на вывод моделей с помощью фреймворков вроде NeMo Guardrails или Guardrails AI для валидации структуры и контента.
  • Data Lineage: инструменты для отслеживания происхождения данных в RAG-системах, чтобы доказать, откуда модель взяла конкретный факт.
  • Оценка стоимости владения: детальный расчет затрат на токены, векторные базы и содержание инфраструктуры MLOps.

Что может пойти не так:

  • Выгорание команды: давление руководства из-за нереалистичных сроков. Решается демонстрацией сложности через архитектурные диаграммы.
  • Деградация качества: модель обновляется по API, и старые промпты перестают работать. Решается регулярным синтетическим тестированием.

Полезные материалы:


- Какой ВПН купить и как получить американский номер чтобы зарегаться в чатгпт, Клод и т.д.

Сегодня обход гео-ограничений для доступа к проприетарным сервисам вроде OpenAI или Anthropic остается актуальным для разработчиков в некоторых регионах. Однако архитектурно правильный подход заключается в отказе от прямых B2C-аккаунтов в пользу корпоративных API или облачных провайдеров.

Вместо покупки виртуальных номеров на сомнительных сервисах и настройки персональных VPN, лучше использовать агрегаторы API или платформы облачных вычислений. Они предоставляют доступ к моделям как к сервису без жестких региональных блокировок на уровне оплаты криптой.

Для локальной разработки и тестирования гипотез гораздо безопаснее и легальнее развернуть open-source модели локально. Это полностью снимает проблему блокировок и утечек данных.

Технологии и лучшие практики:

  • Облачные провайдеры: использование Azure OpenAI, AWS Bedrock или Google Vertex AI через посредников, принимающих B2B оплату.
  • Агрегаторы API: платформы вроде OpenRouter или Together AI позволяют оплачивать доступ к топовым моделям через крипту без SMS.
  • Локальный инференс: LM Studio или Ollama для запуска Mistral или Qwen на локальном Mac или сервере с GPU.

Что может пойти не так:

  • Блокировка аккаунта: использование публичных VPN часто приводит к бану по IP на стороне провайдеров. Решается арендой выделенного сервера и настройкой собственного VPN-канала.
  • Утечка данных: передача проприетарного кода через агрегаторы без Enterprise-соглашений. Решается строгим фильтрованием приватной информации перед отправкой.

Полезные материалы:


- Какой AI лучше всего создаёт готовое решение - написание части проекта?

Ландшафт ИИ для кодогенерации разделился на два лагеря: автономные ИИ-инженеры для сквозного решения задач и ассистенты, интегрированные в IDE, для парного программирования. Выбор зависит от размера контекста и сложности архитектуры.

Для создания целых модулей или микросервисов с нуля лидируют агенты уровня Devin, SWE-agent или OpenDevin. Они способны самостоятельно читать задачи, клонировать репозиторий, писать код, запускать тесты в песочнице и открывать PR. Они используют топовые модели, которые отлично удерживают контекст больших кодовых баз.

Для написания конкретных функций, рефакторинга внутри файла или генерации тестов лучшим решением остается Cursor с его функцией Composer. Он позволяет выделить несколько файлов и сформулировать задачу естественным языком, интегрируя изменения прямо в ваш редактор.

Технологии и лучшие практики:

  • Интегрированные среды: Cursor, Windsurf, или GitHub Copilot Workspace. Они предоставляют мультифайловый контекст и индексацию репозитория.
  • Автономные агенты: OpenDevin или Aider для работы в терминале. Aider отлично работает в связке с Git, создавая осмысленные коммиты.
  • Выбор модели: для кодогенерации модели от Anthropic считаются золотым стандартом благодаря высокой точности следования инструкциям.

Что может пойти не так:

  • Деградация архитектуры: агент может решить задачу костылем, нарушая принципы SOLID. Решается предоставлением агенту файлов с архитектурными конвенциями.
  • Поломка зависимостей: при генерации целого модуля ИИ может использовать устаревшие версии библиотек. Решается жесткой фиксацией версий.

Полезные материалы:

- Обучение ии агентов


Обучение агентов — это не тренировка весов модели с нуля, а комбинация системного промптинга, предоставления инструментов вызова функций и создания надежной памяти. Агент — это LLM, снабженная циклом рассуждений по фреймворку ReAct: анализ, действие, наблюдение.

Процесс настройки агента начинается с определения его персоны и ограничений. Далее агент получает доступ к внешним API через функции. Ключевой момент обучения — это предоставление качественных примеров того, как агент должен рассуждать и какие инструменты вызывать в различных ситуациях.

Для сложных сценариев применяется многоагентная оркестрация, где задача разбивается на подзадачи, выполняемые узкоспециализированными агентами, которые общаются между собой.

Технологии и лучшие практики:

  • Фреймворки: LangGraph для создания графов выполнения с состояниями и поддержкой человека в цикле. CrewAI для быстрого прототипирования команд агентов.
  • Tool Calling: использование встроенных возможностей моделей для детерминированного вызова внешних скриптов с типизацией.
  • Обучение с подкреплением: для крупных энтерпрайз-проектов применяется тонкая настройка агентов на основе логов их успешных и неуспешных действий.

Что может пойти не так:

  • Бесконечные циклы: агент застревает в цикле ошибок, вызывая один и тот же инструмент с неверными параметрами. Решается установкой жестких лимитов на количество шагов.
  • Каскадные сбои: ошибка одного агента ломает весь пайплайн. Решается валидацией вывода каждого агента перед передачей следующему.

Полезные материалы:


- Есть опыт в использовании ИИ, который хотелось бы улучшить, но нет опыта в разработке ИИ

Переход от уверенного пользователя чат-ботов к разработчику ИИ-решений не требует степени по высшей математике. Современные инструменты абстрагируют сложность работы с тензорами, позволяя фокусироваться на логике приложения и потоках данных.

Лучший путь для старта — освоение концепции RAG. Это научит вас базовым принципам работы с эмбеддингами, векторными базами данных и чанкингом текста. Начните с создания локального чат-бота по вашим собственным документам.

Следующий шаг — изучение фреймворков для создания агентов и вызова API. Знание Python остается критически важным, так как вся экосистема MLOps и инструментария построена вокруг него. TypeScript также активно развивается, но Python дает доступ к передовым библиотекам на день релиза.

Технологии и лучшие практики:

  • Обучение на практике: использование визуальных конструкторов вроде Flowise или Langflow для сборки первых пайплайнов без написания кода, чтобы понять архитектуру.
  • Базовый стек для кода: Python, LlamaIndex для работы с данными, ChromaDB или Qdrant в качестве локальной векторной базы.
  • Развертывание: изучение Streamlit или Gradio для быстрого создания веб-интерфейсов к вашим ИИ-моделям и демонстрации портфолио.

Что может пойти не так:

  • Попытка изучить все с нуля: погружение в низкоуровневые вычисления и математику градиентного спуска без практической цели. Решается подходом от общего к частному.
  • Фрустрация от обновлений: инструменты в сфере ИИ устаревают за месяцы. Решается фокусом на фундаментальных концепциях, а не на синтаксисе конкретной библиотеки.

Полезные материалы: