Всем привет! Меня зовут Паша Каменев, я работаю в Контуре в Центре ИИ, где мы внедряем AI-based решения в процессы компании.ПредупреждениеВ статье присутствуют Всем привет! Меня зовут Паша Каменев, я работаю в Контуре в Центре ИИ, где мы внедряем AI-based решения в процессы компании.ПредупреждениеВ статье присутствуют

Сделайте внедрение ИИ человечнее

2026/03/17 10:43
11м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу crypto.news@mexc.com

Всем привет! Меня зовут Паша Каменев, я работаю в Контуре в Центре ИИ, где мы внедряем AI-based решения в процессы компании.

Предупреждение

В статье присутствуют англицизмы; статью писал человек, но в редактуре участвовал ИИ. Тон может показаться панибратским.

Зачем вообще внедрять ИИ в процессы

Прогнозировать будущее тяжело, а оказаться не просто в последнем вагоне, а вне поезда — не хочется. Поэтому мы для себя решили: даже если рынок охладится, инвестиции сократятся, новые флагманские модели будут появляться реже или не будут появляться совсем, уже созданные системы никуда не пропадут. А если говорить про то, что можно развернуть локально, то в большой и даже средней компании ИИ наверняка станет рабочим инструментом, пусть не для всех задач и не для всех людей, но точно для некоторых ниш.

Вот мы и ищем эти ниши. Пробуем RAG, MCP, A2A и другие аббревиатуры в наших продуктах, параллельно пытаясь понять, что мешает людям использовать ИИ и что помогает — периодически проводим опросы. А в очередную итерацию получения обратной связи решили углубиться и разобрать немного эмоциональных барьеров/установок людей, которым приходится начинать работать рядом с мыслящими машинами.

Hidden text
Вайб человека, который внедряет ИИ, чтобы потом стать ненужным
Вайб человека, который внедряет ИИ, чтобы потом стать ненужным

Что мы сделали

Мы опросили 250+ человек из разработки Контура. С их слов, основная их деятельность характеризуется как (можно было выбрать до двух вариантов):

  • работа с кодом — около ~58.8%;

  • работа с людьми (коммуникации, ревью, синки) — ~56.5%;

  • письменные артефакты (документация, требования, отчёты, аналитика) — ~40.8%;

  • инфраструктура (деплой, мониторинг, инциденты) — ~14.5%.

Также просили их оценить частоту использования ИИ, переведя эту частоту в порядковую шкалу от 1 до 5, где 1 означает «не использую», а 5 — «несколько раз в день».

Сегментация по характеру работы
Сегментация по характеру работы

Мы опрашивали этих людей с целью понять их предпочтения по семи осям. Спрашивали несколько близких по смыслу утверждений, а потом усредняли оценку.

Почему мы задаём несколько похожих утверждений и усредняем

Одно утверждение всегда шумит: кто-то читает его слишком буквально, кто-то — слишком широко, кого-то цепляет слово, а кого-то — контекст. Несколько близких формулировок сглаживают случайный шум и дают более устойчивую оценку установки.

Оси (в скобочках указан пример вопроса):

  • Открытость к ИИ (ex.: «Мне интересно пробовать ИИ-инструменты в работе, даже если они иногда ошибаются»).

  • Доверие и ценность («Я ожидаю от ИИ достаточно высокого качества, чтобы он реально экономил время»).

  • Риски и ответственность («Меня беспокоит, что если ИИ накосячит, ответственность всё равно будет на мне»).

  • Угроза навыкам и работе («Меня беспокоит, что ИИ может обесценить навыки, за которые меня сейчас ценят»).

  • Социальные эффекты («Мне бывает неловко, если коллеги узнают, что я использовал(а) ИИ для выполнения задачи»).

  • Контроль и реакция на изменения («Если использование ИИ станет обязательным, я скорее буду внутренне сопротивляться»).

  • Правила и комплаенс («Прежде чем использовать ИИ в рабочем контексте, мне важно иметь однозначное подтверждение, что это допустимо»).

Почему именно такие оси

Мы их придумали на основе внешних источников и внутренней насмотренности. Наверное, точно такой же список не найти. По нашей задумке, оси отражают разные аспекты влияния внедрения новой технологии на людей. Ниже — источники вдохновения для некоторых осей, в ссылках или утверждениях.

  1. Принятие технологии обычно крутится вокруг ценности и полезности.

  2. Когда инструмент «делает работу за человека», встаёт тема доверия и корректной степени опоры на автоматизацию. Как, например, в Lee, See (2004) Trust in automation, или даже, более конкретно, про misuse, disuse и abuse технологий в Parasuraman, Riley (1997): Humans and Automation: Use, Misuse, Disuse, Abuse.

  3. А если инструмент начинают навязывать, часто включается психологическое сопротивление этому — Steindl et al. (2015): Understanding Psychological Reactance.

  4. Если первые впечатления от алгоритма плохие, люди начинают избегать его даже при дальнейших улучшениях (algorithm aversion). Яркий пример — аварии с беспилотными автомобилями.

  5. Отдельно есть страх выглядеть хуже в глазах коллег из-за использования ИИ. Затрагивается, например, тут: Reif et al. (2025, PNAS): social evaluation penalty for using AI.

Чем меньше используешь ИИ, тем больше не хочется начинать

Мы посчитали корреляцию между частотой использования и осями.

Как читать корреляцию Спирмена

Корреляция рангов Спирмена — это мера связи между двумя порядковыми величинами. Значение корреляции означает примерно следующее:

  • около 0 означает, что выраженной связи почти нет,

  • около 0.3 означает умеренную связь,

  • около 0.5 означает сильную связь для социальных данных.

Знак показывает направление связи: плюс означает, что величины растут вместе, минус означает, что при росте одной другая снижается.

Подробнее на википедии

Приводим наиболее интересные:

Чем реже человек использует ИИ, тем:

  • ниже его готовность пробовать новые ИИ-инструменты, даже если они иногда ошибаются. Корреляция около +0.49.

  • хуже он воспринимает сценарий ИИ как черновик или первый набросок, который потом дорабатывается человеком. Корреляция около +0.41.

  • сильнее его реакция на принуждение. Если использование ИИ становится обязательным, такие люди чаще ожидают внутреннее сопротивление. Корреляция около -0.46.

  • чаще он избегает ИИ в задачах, где ошибка может привести к заметным последствиям, например, повлиять на качество, безопасность или сроки. Корреляция около -0.34.

  • чем чаще человек использует ИИ, тем чаще в типовых задачах доверяет результату после короткой верификации. Корреляция около +0.32.

Связь частоты использования ИИ с установками
Связь частоты использования ИИ с установками

Отдельно, про связь частоты использования с сопротивлением. Кажется, если человек редко использует ИИ, он будет активно сопротивляться его внедрению:

Сопротивление обязательности по группам частоты использования
Сопротивление обязательности по группам частоты использования

Как это объясняется?

Psychological reactance и Algorithm Aversion

Что это такое

Algorithm aversion — это эффект, когда люди начинают избегать алгоритма после того, как увидели его ошибки, даже если в среднем алгоритм полезен. На практике это делает первые впечатления критичными: если ранняя версия системы ошибается заметно и часто, часть аудитории может просто перестать давать ей второй шанс.

Psychological reactance — это эмоциональное реакция на меняющееся окружение, приводящее к стремлению вернуть «всё как было», на практике, в нашем случае — неконструктивное отторжение потенциально полезных инструментов. Не путать с конструктивным отторжением!

Мы видим, что чем реже человек использует ИИ, тем сильнее его реакция на обязательность. В таком состоянии навязывание поведения, особенно административное, может усиливать сопротивление, а не снижать его. Сырость используемой ИИ-системы, небольшие раздражающие ошибки усугубляют эффект — человек дал шанс, попробовал, а там — баги и ожидания расходятся с реальностью. Каждый следующий раз убеждать дать шанс всё сложнее и сложнее.

Вредный совет:

  • Если есть группа людей, которая не хочет использовать ИИ-инструменты (по своим причинам).

  • В компании, в которой они работают, хотят, чтобы они их использовали (по своим причинам).

  • Добавьте этих людей в фокус-группу вне зависимости от их желания, и выдайте им забагованное LLM-нечто.

  • Вы получите микросообщество, которое отторгает инновации на эмоциональном уровне.

Это не то, к чему мы хотим идти в Контуре. Каких правил мы стараемся придерживаться:

  • Необходимо дать пользователю небольшой контроль. Даже минимальная возможность немного изменить результат снижает отторжение и повышает готовность пользоваться. Есть даже серия экспериментов, где людям давали прогноз алгоритма и разрешали слегка его подправить — они становились более благосклонными.

Пример из нашей практики

Мы внедряли функциональность, которая при каждом открытии merge request автоматически писала комментарий: changelog, рекомендации, правки описания. Пока это было автоматически и без возможности подстроить под свой стиль, часть пользователей воспринимала это как навязчивое вмешательство.

Ситуация стала заметно лучше, когда мы добавили простой механизм контроля: файл с правилами проекта, где команда может задать тон и ограничения для агента. По смыслу это то же самое, что сейчас оформляется как AGENTS.md: отдельное место в репозитории, где человеку удобно задать агенту контекст и предпочтения.

  • Необходимо чётко определять целевую аудиторию, в процессы которой внедряется ИИ-продукт. В идеале — позволить людям самим определить, готовы ли они сталкиваться с ошибками на ранней стадии развития продукта, или предпочитают подождать более зрелой версии.

Второй пример из нашей практики

Когда мы раскатывали инструмент, который ищет баги в коде, ранние версии были достаточно сырыми. На командах, где было меньше амбассадоров и ниже терпимость к ошибкам, мы видели падение retention. Retention — это метрика, которая показывает, возвращается ли пользователь к продукту.

Дальше, по мере того, как мы снижали количество собственных багов и улучшали качество результатов, эффект стал заметно слабее: при внедрениях в похожие команды retention падал меньше или переставал падать.


Разработчики любят рисковать

До разбора результатов опроса у меня было ожидание, что некая более техническая специализация как-то коррелирует с тем, что отношение к ИИ более понятное просто потому, что человек понимает, как это устроено более явно, правильно формирует свои ожидания. Но в данных этого почти не оказалось.

Например, работа с кодом почти никак не связана с открытостью к экспериментам:

Открытость к ИИ (ex.: «Мне интересно пробовать ИИ-инструменты в работе, даже если они иногда ошибаются») — корреляция ~0.012 (не значимая).

И так же почти нет связи с восприятием полезности:

Доверие и ценность (ex.: «Я ожидаю от ИИ достаточно высокого качества, чтобы он реально экономил время») — корреляция ~0.015 (не значимая).

То есть сам факт, что человек больше пишет код, чем менеджерит, сам по себе не делает его автоматически более открытым или более доверяющим. Однако:

Написание кода связано с более низкой тревогой насчёт ответственности.

На вопросы типа «Меня беспокоит, что если ИИ накосячит, ответственность всё равно будет на мне» чистые разработчики отвечали так, что их не особо что-то и беспокоит. Это похоже на разницу в том, как разные группы понимают слово «риск» (ну или на то, что разработчики Контура вообще не беспокоятся, а это не так :)).
Действительно, эксперты и неэксперты могут по-разному оценивать цену риска, а иногда даже по-разному понимать, что именно считается риском. Если человек уверен, что может быстро проверить результат, откатить изменения, поймать ошибку тестами или ревью, субъективная цена риска падает.

А когда люди получают прирост эффективности и при этом не видят высокой цены ошибки, то появляется паттерн shadow IT.

Что такое shadow IT

Shadow IT есть использование сотрудниками инструментов без одобрения со стороны коллег, которые отвечают за безопасность. Как следствие, такие инструменты почти гарантированно не покрываются мониторингом, политиками и прочим, и в итоге могут стать каналом утечки или точкой атаки.
Короткое, но точное определение от центра кибербезопасности Великобритании.

Это некий дикий Запад, созданный с молчаливого согласия или по незнанию собственников. Было бы неловко, если бы кто-то дал доступ, например, к Clawdbot, находясь при этом в рабочей сети и тот, например, начал бы неконтролируемо удалять письма. Хочется этого избежать. Если компания не предложила понятные способы взаимодействия с ИИ-инструментами, и не сделала соблюдение правил простым, трансформация может происходить незаметно, и работодатель узнает о ней последним.

В Контуре мы стремимся дать хотя бы необходимый минимум чётких правил. Например — не использовать внешние языковые модели в сценариях с персональными данными.


Страх обесценивания навыков связан с социальной неловкостью

Есть ещё одна интересная связка. Люди, у которых выше индекс по оси:

Угроза навыкам и работе (ex.: «Меня беспокоит, что ИИ может обесценить навыки, за которые меня сейчас ценят»)

чаще имеют и более высокий индекс по оси:

Социальные эффекты (ex.: «Мне бывает неловко, если коллеги узнают, что я использовал(а) ИИ для выполнения задачи»)

Угроза навыкам и социальные эффекты
Угроза навыкам и социальные эффекты

Это похоже на то, что страх про ценность навыков в этой выборке живет не только в технической плоскости, но и в социальной: как это будет интерпретировано окружающими, что это говорит обо мне как о специалисте. Пропагандируйте ИИ внутри своей компании, помогайте преодолевать психологический барьер!


Какие выводы мы для себя сделали

Мы пока не пытаемся вывести единственную правильную стратегию внедрения. Однако несколько выводов мы для себя сделали.

  1. Если у части людей сильная реакция на обязательность, то начинать с принуждения рискованно. Это может закрепить сопротивление, а не снизить его.

  2. Если инструмент сырой, лучше начинать с людей, которые готовы к ошибкам и будут помогать доводить сценарии до устойчивых. Массовый пилот ранней версии может закрепить негативный опыт у группы, которая и так не готова пробовать.

  3. Нужно снижать стоимость первого шага. Переход от «не использую» к «пробую» должен быть максимально простым и безопасным.

  4. Если нет понятных правил и удобной безопасной альтернативы, то риск теневого использования становится выше. Чем проще и быстрее правильный путь, тем меньше стимул уходить в обходные контуры.

  5. В части случаев принятие связано не с качеством модели, а с социальной нормой. Если людям неловко, что коллеги узнают про использование ИИ, то нужны не только инструкции, но и нормализация профессионального использования.


Заключение

Внедрение ИИ в процессы компании может принести прибыль в обозримом будущем, а может в долгосрочном, а может и не окупиться так, как хотелось бы. Но, в любом случае, важно помнить, что внутри процессов работают живые люди.

ИИ — это не просто новая кнопка в интерфейсе. Это новая сущность, которая имитирует деятельность человека, оставляет похожие на человеческие артефакты, иногда говорит с нами и от которой хочется чего-то ожидать. У части сотрудников это вызывает дискомфорт и опасения по разным причинам. Этот фон даёт стресс, а стрессующие работники почти всегда менее эффективны, чем спокойные. Дополнительно, стресс рождает сопротивление внедрению.

В наших данных это видно как самоподдерживающайся процесс: чем реже человек использует ИИ, тем меньше ему хочется начинать, тем сильнее реакция на обязательность и тем проще закрепляется режим избегания. Если не работать с эмоциональным фоном и ранним опытом пользователей, вы просто оттягиваете внедрение полезной технологии, даже если технически она уже готова.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.