
AI-навчання, тиждень 5: ризик і Responsible AI (на кейсах)
Коротко
- •Тиждень 5 — на кейсах, не на policy. Klarna, Builder.ai, Replika і shadow-AI — це і є curriculum.
- •Підсумок — однасторінкова Responsible-AI-плейбука, якою треки реально користуються, а не презентація.
- •Не делегуйте цей тиждень юристам — ведіть з чемпіонами, юристи присутні.
Коли GC fintech-компанії на 320 людей сказав мені, що рада хоче "Responsible AI training" перед схваленням розкатки, я відповів: не робіть compliance-лекцію. Прогоніть реальні кейси, які команда впізнає у понеділок зранку.
Чому Responsible AI — на тижні 5, а не на 1
Front-loading ризику в тиждень 1 убиває програму. Люди починають перестраховуватись замість експериментувати, і use case ніколи не з'являються. Back-loading далі за тиждень 5 — ризикова поведінка накопичується: до тижня 6 команда вже довезла агентів, що чіпають клієнтські дані, а governance не обговорювалось ні разу.
Тиждень 5 — точка калібрування. До цього часу команда побудувала промпт-судження (тижні 1-2), зробила tooling-вибори (тиждень 3), запустила агентів (тиждень 4). У них є конкретна поведінка, яку можна governance'ити — не абстракції. Близько 46% співробітників за останніми опитуваннями вставляли конфіденційні дані у публічні AI — це ваша baseline до тижня 5, і ціль — знизити цифру за згодою і ясністю, не загрозами.
Визначення: Responsible AI — операційна практика розкатки AI з увагою до приватності даних, надійності output, шляхів ескалації і регуляторної експозиції. Не презентація. Набір поведінок на роль.
Чотири кейси, яким реально вчить тиждень 5
Забудьте абстракції про "етичний AI". Кейси, що змінюють поведінку:
Кейс 1 — Klarna walk-back на customer service (2025)
Klarna запустила повністю автономного AI-агента customer-service, публічно святкувала, що замінила 700 співробітників, потім у 2025 відкотила після падіння CSAT. Кейс вчить escalation-gap: AI-агент без людського шляху ескалації виглядає чудово в demo і ламається на edge case'ах реального світу.
Висновок: ніколи не запускати клієнт-facing AI без задокументованого швидкого шляху ескалації. Поєднати з patterns Intercom Fin — AI-first, обов'язкова людська ескалація — як операційна модель.
Кейс 2 — Builder.ai, $1.3B колапс (2024)
Builder.ai продавав себе як "AI пише ваш софт", тихо використовуючи людей-розробників за лаштунками. У 2024 збанкрутував з боргами понад $1B. Кейс вчить чесності: не маркетингуйте AI-можливості, яких у вас немає, ні всередині, ні зовні.
Висновок: описуйте свою AI-augmented роботу чесно — клієнтам і власній команді. "Складено AI, ревʼю [імʼя]" — ок. "Тільки людьми", коли це не так — назавжди вбиває довіру.
Кейс 3 — штрафи EU AI Act + privacy-прецеденти
Стеля штрафів EU AI Act — €35M або 7% глобальної виручки. Свіжі privacy-кейси: Replika €5M в Італії, Clearview €30.5M у Нідерландах, OpenAI €15M в Італії. Кейс вчить регуляторного хвоста: навіть компанія на 30-500 людей може бути експонована, якщо обробляє EU-персональні дані з AI неcompliant способом.
Висновок: скартографуйте use case проти tier-ів AI Act і резидентства даних. Більшість SMB use case — limited-risk або minimal-risk, але вам треба знати, що є чим.
Кейс 4 — shadow AI всередині вашої компанії
Stanford "77% rule" — більшість AI-роботи невидима, неофіційна. Близько 46% співробітників вставляють конфіденційні дані у публічні AI. Кейс вчить лекції власного дому: найбільший Responsible-AI-ризик у вашій компанії — найімовірніше не policy gap, а відсутність санкціонованих інструментів, що відповідають реальним потребам воркфлоу.
Висновок: deep-dive тижня 3 — основна оборона проти shadow AI, не policy-memo.
Визначення: Shadow AI — використання співробітниками несанкціонованих AI-інструментів або несанкціонованих data-input у AI, зазвичай тому, що санкціоновані опції не пасують воркфлоу.
Як структурувати тиждень 5
Робочий формат:
- Понеділок — 60-хвилинна кейс-сесія. Чемпіони проводять когорту по чотирьох кейсах. По 15 хвилин на кейс. Дискусія, не лекція.
- Вівторок — 90-хвилинний риск-аудит треку. Кожен трек аудитує своїх агентів тижня 4 і use case тижня 2 проти чотирьох уроків.
- Середа — асинхронний one-pager. Кожен трек пише однасторінкову Responsible-AI-плейбуку.
- Четвер — 60-хвилинний legal review. GC або зовнішній юрист сидить, треки презентують, юрист red-line'ить.
- Пʼятниця — 30-хвилинне схвалення. Засновник схвалює крос-рольову плейбуку. Готово.
Tool tip (Course for Business): Чому Augment, don't replace — правильний операційний принцип тижня 5 (а не "AI небезпечний, заборонити все"): він за замовчуванням будує звичку human-in-the-loop. Більшість регуляторних і репутаційних ризиків приходять з над-автономного розкатування, не з над-обережного. 6-week program на https://course.aiadvisoryboard.me/business тримає тиждень 5 як кейс-дискусію під керівництвом чемпіонів з юристами, що сидять — ніколи юрист-only-брифінги, які дають policy-театр. (Course for Business)
Однасторінкова Responsible-AI-плейбука (шаблон)
Role-track: [Sales / CS / Finance / Ops / etc.]
Власник: [Імʼя чемпіона]
Останнє ревʼю: [Дата]
1. САНКЦІОНОВАНІ ІНСТРУМЕНТИ
- Основний: [інструмент з лабораторії тижня 3]
- Резервний: [secondary]
- Поза scope: [інструменти, не схвалені для даних цієї ролі]
2. ДАНІ, ЯКІ МИ НІКОЛИ НЕ ВСТАВЛЯЄМО
- [3-7 конкретних категорій: PII клієнтів, контракти під NDA тощо]
- Емпірика: якщо вам "було б соромно, якби протекло" — не вставляйте.
3. ПРАВИЛА HUMAN-IN-THE-LOOP
- Output клієнту: ЗАВЖДИ ревʼю [роль] перед відправкою.
- Фінансовий вплив > $[X]: ЗАВЖДИ ревʼю [роль].
- Внутрішні тільки: вибірковий контроль раз на тиждень.
4. ЕСКАЛАЦІЯ
- Якщо AI output помилковий/шкідливий: повідомити [імʼя] протягом 24 годин.
- Якщо клієнт запитує "це писав AI?" — чесно розкрити.
5. КАДЕНЦІЯ РЕВʼЮ
- Чемпіон ревʼюїть плейбуку раз на 4 тижні.
- Оновити після будь-якого інциденту.
Поміщається на одну сторінку. Якщо росте — це бюрократія. Зрізайте.
Хороші vs погані результати тижня 5
Погано: "У нас 40-сторінкова Responsible-AI-policy, яку ніхто не читає." Добре: "Кожен трек має one-pager під керівництвом чемпіона, у когортному Slack."
Погано: "Ми заборонили ChatGPT у корпоративних мережах." Добре: "Ми санкціонували [інструмент] для [клас даних] і навчили правильно користуватись. Shadow-use впав за два тижні."
Погано: "Юристи володіють Responsible AI." Добре: "Чемпіони володіють Responsible-AI поведінкою. Юристи володіють red-lines. Різні роботи."
Team scan (що чемпіони доповідають після тижня 5)
- Чотири кейси заходять сильніше за будь-яке policy-memo — Klarna і Builder.ai особливо резонують з лідерством.
- Близько 1 з 3 треків знаходить агента тижня 4, у якому треба додати human-in-the-loop — ловиться тут, не в проді.
- Shadow-AI-розмови незручні в день 1, нормальні у день 5 — називати поведінку, не людей.
- Найчастіше всплива: "ми вставляємо імена клієнтів у інструмент, у який не повинні" — фіксується за тиждень санкціонованими альтернативами.
- Чемпіони повідомляють: участь юристів обов'язкова, але юрист-led сесії дають зворотний ефект. Чемпіон-led, юрист-witness — робочий формат.
- Близько 1 з 4 когорт виявляє регуляторну експозицію, про яку не думали (HIPAA, PCI, GDPR, регіональні financial-services).
- Однасторінкова плейбука читається; багатосторінкова — ні. Довжина — найбільший предиктор реального використання.
- Пʼятничне схвалення — від засновника/CEO, не юриста — сигналізує операційний принцип, не compliance.
- Когорти, що пропускають тиждень 5 повністю, зазвичай отримують інцидент через 60-90 днів і panic-policy-розкатку.
- Більшість ризиків тижня 5 — людино-процесні, не технологічні (узгоджено з BCG 10-20-70).
Micro-case (що змінюється за 7-14 днів)
Regtech-фірма на 280 людей провела тиждень 5 як чотири кейси + рольові one-pager'и. На вході внутрішній counsel мав 47-сторінкову policy, яку ніхто не читав. До пʼятниці тижня 5 всі пʼять треків мали підписаний one-pager, і у трьох агентів тижня 4 додали human-in-the-loop крок, якого не було. До дня 14 несподіване внутрішнє опитування показало, що приблизно 70% співробітників можуть правильно назвати, який клас даних йде в який інструмент. Ось метрика — не повнота policy, а здатність співробітника відтворити під тиском. Для контрасту — peer-фірма провела одноразову 90-хвилинну юридичну лекцію як весь Responsible-AI-тренінг: за 6 місяців інцидент із вставленими клієнтськими даними тригернув заморожування всіх AI-інструментів і повний рестарт.
Note on this case: This example is illustrative — based on typical patterns we observe with companies of 30-500 employees, not a single named client. Specific numbers are rounded approximations of common ranges, not guarantees.
Tool tip (Course for Business): Стережіться пастки — дозволити тижню 5 перетворитись на юрист-led лекцію. Когорта, що збудувала Shoulder-to-Shoulder-судження у тижнях 1-4, тихо вийде з уваги, щойно відчує compliance-брифінг. Чемпіон-led, кейс-based, legal-witnessed — формат, що тримає увагу. 6-week program на https://course.aiadvisoryboard.me/business побудована саме на цьому розділі — і саме тому учасники виходять з тижня 5 впевненішими у AI-використанні, а не менш. (Course for Business)
FAQ
Чи наймати Responsible-AI-консультанта на тиждень 5? Ймовірно ні для SMB. Використайте чотири кейси, чемпіонів і свого юриста. Зовнішні консультанти зазвичай дають 40-сторінковий артефакт, що не виживає контакту з треками.
Що, якщо юристи наполягають на 30+ сторінках policy? Перемови: довга policy — як юридичний артефакт; для реального використання — one-pager на трек. Довге для аудитів; one-pager для понеділка зранку.
Чи треба окремий ethics committee? До 500 співробітників — ні. Чемпіони + засновник + counsel — це і є комітет. Понад 500 — питання інше.
Що з EU AI Act конкретно? Більшість SMB use case — limited-risk або minimal-risk. Скартографуйте свої, задокументуйте data flows, отримайте формальне sign-off, якщо агент чіпає biometric, employment-decision або critical-infrastructure-дані. (У нас окремо є daily-management advisory-продукт на aiadvisoryboard.me, але Responsible-AI-структура має бути in-house.)
Який сигнал, що тиждень 5 спрацював? Випадковий співробітник на питання "які дані не можна вставляти у ChatGPT?" відповідає конкретно і правильно за 10 секунд. Не може — плейбука не зайшла.
Висновок
Тиждень 5 — тиждень калібрування ризику. Чотири кейси, риск-аудит треків, однасторінкові плейбуки, чемпіон-led з юристом, що сидить. Output — не policy-документ, а поведінка, яка виживає понеділок. Кейс-based, не policy-based — і фінал тижня 6 ляже на стабільну основу.
Наступний крок: оберіть чотири кейси для своєї когорти (чотири вище — сильний дефолт) і поставте legal-review-сесію в календар до понеділка.
Якщо хочете, щоб кожен співробітник запустив свою першу AI-автоматизацію за пʼять днів, — забронюйте 30-хвилинний дзвінок, і ми спланувели перший тиждень для вашої команди: https://course.aiadvisoryboard.me/business
Часті питання
Готові трансформувати робочий процес команди?
AI Advisory Board допомагає командам автоматизувати щоденні стендапи, запобігати вигоранню та приймати рішення на основі даних. Приєднуйтесь до сотень команд, які вже економлять 2+ години на тиждень.
Отримуйте щотижневі поради з управління командою
Приєднуйтесь до 2,000+ лідерів, які отримують наші найкращі поради щодо продуктивності та запобігання вигоранню.
Без спаму. Відписатися можна будь-коли.
Читайте також

JCB досяг 83% місячного adoption Copilot — що вони зробили інакше
JCB вийшов на 83% monthly active Copilot — далеко вище за industry-typical drop-off. Дизайн програми за цим, і що з цього SMB може скопіювати.
Читати
Huber+Suhner вийшов на 99% adoption AI-пілоту — playbook
AI-пілот Huber+Suhner, за повідомленнями, досяг 99% adoption — outlier-цифра. Дизайн програми за цим і що SMB-власник може реально скопіювати.
Читати
AI-навчання, тиждень 6: чемпіони та фінальні проєкти
Тиждень 6 закриває шеститижневу корпоративну AI-програму випуском чемпіонів і shipped-фінальними проєктами на трек. Формат handover'у, що утримує адопшн після завершення когорти.
Читати