AI-агенти: коли НЕ варто впроваджувати (5 кейсів)

AI-агенти: коли НЕ варто впроваджувати (5 кейсів)

08.05.202627 переглядів7 хв читання

Коротко

  • AI-агенти не підходять для: одноразових рішень з високою ставкою, роботи на 80% з суджень, регульованих рішень без audit-шляху, клієнтських сценаріїв із поламаною ескалацією та workflow, який сама команда не може описати.
  • "Чи можемо ми це зробити агентом?" — неправильне питання. Правильне — "Чи варто?".
  • 95% провалу пілотів (MIT 2025) — це переважно "should-we" провал, не провал моделі.

Найбільша помилка, яку я бачу у власників SMB з AI-агентами, — не "обрали не того вендора". Вона — "перетворили на агента той workflow, який мав залишитися людською розмовою". Шкода рідко видна у перший місяць, але майже завжди видна на четвертий.

П'ять workflow, де агенти провалюються

Кожен — категорія, не один приклад. Якщо ваш кандидат потрапляє хоча б в одну — впроваджуйте інше.

1. Високі ставки, одноразові рішення

Прайсинг стратегічного enterprise-діла. Затвердження критичного хайра. Вибір litigation-стратегії. У них три отруйні для агента властивості: низький обсяг (нема ітерацій), асиметричний downside (одна помилка перекриває 50 правильних) та судження, що накопичується роками.

Агенти добрі, коли "помилка" = "переробити". Жахливі, коли "помилка" = "втратити клієнта / справу / кандидата".

Визначення: Асиметричний downside — коли одна помилка коштує більше, ніж сума цінностей усіх правильних виходів. Агенти оптимізують середню точність, а не tail-risk.

2. Робота, що переважно є судженням

Якщо 80% часу йде на "обмірковування контексту, якого ніде не записано" — агент не має доступу до самої роботи. Він має доступ до артефактів (листа, документа, тікета) і впевнено вигадає правдоподібні припущення на місці прогалин.

Стенфордське дослідження 51 деплою це показує конкретно: escalation-routing агенти (агент робить структуру, людина — судження) дали ~71% lift'у продуктивності. Approval-routing (агент робить судження, людина підписує) — ~30%. Та сама модель, той самий домен. Різниця — лише у тому, де лишилося судження.

Якщо задача переважно про судження — лишайте її людині. AI як copilot, не як агент.

3. Регульовані рішення без audit-шляху

Штрафи EU AI Act — до €35M або 7% глобального обороту. Якщо ви працюєте в EU і ваш кандидат стосується кредитних рішень, найму, healthcare, освіти або біометрії — ви у high-risk зоні.

Це не означає "AI заборонений". Це означає: кожне рішення має бути залоговане, пояснюване, оборотне і прив'язане до людини, що відповідає. Більшість out-of-the-box agent-стеків цього не дають. Самостійна збірка коштує дорожче за productivity-lift.

Якщо workflow регульований і у вас ще нема compliance-команди, що розуміється на model risk management, — відкладіть агента. AI як advisory-вихід, який людина офіційно затверджує своїм ім'ям.

4. Клієнтська робота з поламаною ескалацією

Кейс Klarna 2025 з відкатом повністю-AI customer-service — канон. Агент технічно працював. CSAT впав, бо escalation-шлях ("що відбувається, коли агент не може допомогти") було спроєктовано погано. Клієнт залип у циклі — а "залипнути з AI" відчувається гірше за "висіти на лінії з людиною".

Робочий patrn — Intercom Fin: AI-first з обов'язковою швидкою і помітною людською ескалацією. Клієнт завжди знає, що людина за один клік. Якщо команда не спроєктувала escalation-шлях з тією ж ретельністю, що й агента — отримаєте Klarna у меншому масштабі.

Визначення: Escalation gap — затримка і тертя між "агент не зміг" і "людина вже спілкується з клієнтом". 3 секунди — невидимо. 3 хвилини — це churn.

5. Workflow, який команда не може описати

Тихий вбивця. Засновник просить сеньйора описати, як він робить роботу. Той каже "ну, залежить, треба подивитися". Допитуєш — отримуєш блок-схему, яка покриває 30% реальної логіки.

Якщо сеньйор не може зовнішньо описати workflow у чіткі правила, агент теж не зможе. Він видаватиме впевнені виходи, які пропускають 70% логіки в голові експерта. Команда буде відкидати виходи — агент згниє.

Полагодьте до деплою: два тижні shadowing'у, напишіть реальне дерево рішень, знайдіть прогалини. І потім вирішуйте, чи доречний агент. Часто після чесного запису дерева відповідь "ні — але ми щойно оновили SOP, що цінніше за майбутнього агента".

Manager scan (2-minute digest example)

Дайджест 3-го тижня у 90-особовому SMB, що ледь не зробив одну з п'яти помилок:

  • Plan: "Запустити AI-агента для прайсингу enterprise-угод" (Q2 commitment).
  • Fact: За квартал — 14 рішень. Avg deal $400K. Одне промахнуте у 2025-му коштувало $180K маржі.
  • Gap: Низький обсяг (кейс 1). Важке судження (кейс 2). CFO тричі намагався записати правила прайсингу — не сходиться з реальністю.
  • Plan: "AI-агент для тріажу saport inbound".
  • Fact: ~600 тікетів/тиждень, структурний вхід, повторювані категорії.
  • Gap: Це textbook агент №1.
  • Plan: "AI для скорингу хайр-скрінів" (HR-пропозиція).
  • Fact: Працюємо в EU.
  • Gap: Регульовано high-risk Annex III; audit-шлях не спроєктовано.

Такий дайджест переоформлює AI-рішення за 15 хвилин. Прайсинг — відкласти. Тріаж — go. Хайр — відкласти до compliance.

Tool tip (AIAdvisoryBoard.me): Хороша 7-денна діагностика не лише показує, куди йде час — а які саме години є кандидатом на агента. Прохід Plan → Fact → Gap вивозить наміри "ми запланували AI-фікувати це", реальний обсяг і ставки рішень та розрив, який і визначає, чи агент тут доречний. Приблизно 1 з 3 кандидатів у нашій практиці провалює should-we тест при ближчому погляді — діагностика виявляє це за дні, а не після 3-місячної розробки.

Що робити натомість для кожного з п'яти

  • Високі ставки одноразово: AI як генератор брифів і генератор контр-аргументів. Рішення — за людиною.
  • Судження-важкий: Escalation-routing (Стенфорд) — агент робить 30% структури, людина — 70% судження.
  • Регульований: AI як advisory-вихід, людина підписує і несе відповідальність. Audit-логування з дня один.
  • Клієнтський з поламаним escalation: Спочатку полагодьте escalation (один клік до людини, до 60 сек), потім деплойте агента.
  • Не можемо описати: Напишіть SOP. Часто саме SOP виявляється тим артефактом, якого бракувало.

Tool tip — другий прохід

Tool tip (AIAdvisoryBoard.me): Бонус Plan → Fact → Gap циклу після рішення НЕ деплоїти агента у певній зоні — у вас є hard data, чому, не "інтуїція засновника". Коли HR-керівник у наступному кварталі знов підніме хайр-скрінінг агента, діагностика показує: 14 хайрів за рік, важке судження, регульовано, нема audit-шляху. Рішення — data-driven, повторюване, defensible. Це і зупиняє щоквартальне зациклення тих самих розмов.

Micro-case (що змінюється за 7-14 днів)

200-особова professional-services фірма зайшла з планом задеплоїти три агенти одразу: прайсинг, скоринг хайр-скрінів, тріаж саппорту. Два тижні Plan → Fact → Gap показали: прайсинг — кейс 1 (низький обсяг, високі ставки), хайр — кейс 3 (регульовано, нема audit-шляху), і лише тріаж проходить усі п'ять тестів. Команда звузилася до тріажу як агента №1, прайсинг лишила як copilot-бриф, хайр припарковала до compliance. На 14-й день саппорт-агент уже у draft-пілоті, а партнер, що пропонував прайсингового агента, у retro визнав: оригінальна ідея була б 6-місячним 6-значним фейлом.

Note on this case: Цей приклад ілюстративний — спирається на типові патерни компаній 30-500 співробітників, не на одного клієнта. Цифри — округлені діапазони, не гарантії.

FAQ

"Зачекати" реально краще за "запустити недосконале"? Для п'яти категорій вище — так. Репутаційний урон публічного провалу всередині компанії відкочує AI-adoption на 6-12 місяців. 3 місяці затримки — значно дешевше.

А що, як конкурент уже використовує агента в одному з цих кейсів? Подивіться уважно. Більшість публічних "AI-агент" анонсів — це copilots або RAG, не автономні агенти. Реально автономні у регульованих сферах зазвичай молодші за 12 місяців і ще не пройшли перший аудит.

Що тоді робити з AI у компанії? Широке використання AI як copilot — кожен співробітник щодня для драфтів, саммарі, brainstorm — майже завжди цінніше за одного-двох флагман-агентів. Воно масштабується горизонтально.

"Судження-важкий" — це евфемізм для "ми не довіряємо AI"? Іноді. Але дослідження Стенфорда — емпіричне, не "відчуття". Lift escalation-routing удвічі більший за approval-routing. Дані збігаються з інтуїцією.

Як відрізнити судження-важкий від структурного? Попросіть сеньйора записати правила. Якщо за 90 хвилин у нього чітке дерево рішень — структурний. Якщо нотатки, винятки і "ну залежить" — судження-важкий.

Висновок

Сказати "ні, поки що" кандидату на агента важче, ніж сказати "так". І саме тут ховається цінність. Компанії, що у 2027-му виглядатимуть зрілими на AI, — переважно ті, що запустили 3-4 хороших агенти, а не 30 посередніх. Не запущені важать стільки ж, скільки запущені.

Якщо хочете систему, яка щодня показує Plan → Fact → Gap по всій компанії — подивіться, як працює 7-денна діагностика: https://aiadvisoryboard.me/?lang=en

Часті питання

AI-рішення

Готові трансформувати робочий процес команди?

AI Advisory Board допомагає командам автоматизувати щоденні стендапи, запобігати вигоранню та приймати рішення на основі даних. Приєднуйтесь до сотень команд, які вже економлять 2+ години на тиждень.

Економія 2+ годин на тиждень
Покращення морального стану команди
Аналітика на основі даних
Newsletter

Отримуйте щотижневі поради з управління командою

Приєднуйтесь до 2,000+ лідерів, які отримують наші найкращі поради щодо продуктивності та запобігання вигоранню.

Без спаму. Відписатися можна будь-коли.