← Back to overview ← К обзору

06 / ONCE BITTEN 06 / ОБЖЁГШИЕСЯ

The Once Bitten, Twice Shy Problem Обжёгшись на молоке, дуют на воду

Evidence, Data, and Understanding of Causes Данные, доказательства и понимание причин

42%
of companies abandoned most AI initiatives in 2025 компаний свернули большинство ИИ-инициатив в 2025
Enterprise AI adoption surveys, 2024–2025; up from 17% in 2024

Executive Summary

Краткое резюме

  • People who tried early AI tools and left disappointed are now a substantial barrier segment for modern AI adoption. Their resistance is not ignorance — it is the predictable psychological consequence of negative first experiences with a category that has since transformed.
  • Люди, попробовавшие ранние инструменты ИИ и оставшиеся разочарованными, сегодня составляют значительный сегмент сопротивления. Их позиция — не невежество, а предсказуемое психологическое последствие негативного первого опыта с категорией, которая с тех пор кардинально изменилась.
  • Ipsos (July 2024) offers the most granular segmentation of non-users: 26% don't trust AI as accurate or useful — the trust-deficit segment most likely containing tried-and-disappointed users.
  • Ipsos (июль 2024) даёт наиболее детальную сегментацию неиспользующих ИИ: 26% не доверяют ИИ как точному или полезному — сегмент с дефицитом доверия, в котором вероятнее всего находятся те, кто попробовал и разочаровался.
  • At the enterprise level, 95% of AI pilots delivered no measurable P&L impact (MIT NANDA), and 42% of companies abandoned most AI initiatives in 2025 — up from 17% in 2024.
  • На корпоративном уровне 95% пилотных проектов ИИ не показали измеримого влияния на прибыль (MIT NANDA), а 42% компаний свернули большинство ИИ-инициатив в 2025 году — вдвое больше, чем в 2024 (17%).
  • Andrej Karpathy named the core mechanism: recency and tier of use — people's views are anchored to whichever old, free model they last touched, while capabilities have leapt forward by orders of magnitude.
  • Андрей Карпатый назвал ключевой механизм: давность и уровень использования — представления людей закреплены на старой бесплатной модели, которую они в последний раз пробовали, тогда как возможности выросли на порядки.
  • A decade of underwhelming voice assistants (Siri, Alexa, Cortana) pre-trained millions of users to expect failure from the entire "AI" category — creating a disappointment transfer to architecturally unrelated LLMs.
  • Десятилетие неоправдавших ожидания голосовых помощников (Siri, Alexa, Cortana) сформировало у миллионов пользователей ожидание провала от всей категории «ИИ» — создав перенос разочарования на архитектурно не связанные LLM.
  • The most effective re-engagement strategy is the "Model Update" signal — explicitly communicating that the technology has fundamentally changed, not merely improved (Pareek et al., ACM FAccT, 2024).
  • Наиболее эффективная стратегия повторного вовлечения — сигнал «обновление модели»: явное сообщение о том, что технология принципиально изменилась, а не просто стала лучше (Pareek et al., ACM FAccT, 2024).
  • The once-bitten effect is not demographically neutral — it acts as a multiplier of other gaps. Groups already underrepresented in AI adoption (women, older adults, lower-income users) were disproportionately routed into worse first experiences, face compounding confidence barriers, and have thinner peer networks of power users who could correct their priors. The result is an intersection, not a sum.
  • Эффект «обжёгшегося» не является демографически нейтральным — он действует как множитель других разрывов. Группы, уже недостаточно представленные в освоении ИИ (женщины, пожилые люди, пользователи с низким доходом), непропорционально часто получали худший первый опыт, сталкиваются с накапливающимися барьерами уверенности и имеют более тонкие сети знакомых-экспертов, которые могли бы скорректировать их ожидания. Результат — не сумма барьеров, а их пересечение.

Part 1 — The Evidence

Часть 1 — Доказательства

1.1 Scale of the Segment 1.1 Масштаб сегмента

Survey data increasingly captures the tried-and-abandoned population, though the segmentation remains surprisingly underdeveloped. Most major surveys ask "have you ever used AI" — they do not distinguish active users from people who tried once and stopped. The actual burned-user segment is almost certainly larger than the available estimates suggest.

Данные опросов всё чаще фиксируют сегмент попробовавших и бросивших, хотя сегментация остаётся удивительно неразвитой. Большинство крупных опросов спрашивают «использовали ли вы когда-либо ИИ» — но не различают активных пользователей и тех, кто попробовал один раз и остановился. Реальный размер сегмента разочарованных почти наверняка больше, чем показывают имеющиеся оценки.

SegmentFigureSource СегментПоказательИсточник
Non-users who don't trust AI as accurate/useful26%Ipsos, July 2024 Неиспользующие, не доверяющие точности ИИ26%Ipsos, июль 2024
Non-users: "no need"33%Ipsos, July 2024 Неиспользующие: «нет необходимости»33%Ipsos, июль 2024
Non-users: "see no benefit"19%Ipsos, July 2024 Неиспользующие: «не вижу пользы»19%Ipsos, июль 2024
AI pilots with no measurable P&L impact95%MIT NANDA Initiative Пилотные проекты ИИ без влияния на прибыль95%MIT NANDA Initiative
Companies abandoning most AI initiatives (2025)42%Enterprise surveys, 2025 (up from 17% in 2024) Компании, свернувшие большинство ИИ-инициатив (2025)42%Опросы, 2025 (рост с 17% в 2024)

1.2 The Karpathy Diagnosis: Recency and Tier of Use 1.2 Диагноз Карпатого: давность и уровень использования

On approximately April 8–9, 2026, Andrej Karpathy posted a thread on X that named the phenomenon precisely. He described two groups now speaking past each other.

Примерно 8–9 апреля 2026 года Андрей Карпатый опубликовал тред в X, точно назвавший этот феномен. Он описал две группы, которые перестали слышать друг друга.

"Judging by my tl there is a growing gap in understanding of AI capability. The first issue I think is around recency and tier of use. I think a lot of people tried the free tier of ChatGPT somewhere last year and allowed it to inform their views on AI a little too much."
— Andrej Karpathy, X (formerly Twitter), April 2026

«Судя по моей ленте, разрыв в понимании возможностей ИИ растёт. Первая проблема — давность и уровень использования. Многие попробовали бесплатную версию ChatGPT где-то в прошлом году и позволили этому опыту слишком сильно сформировать их представление об ИИ.»
— Андрей Карпатый, X (бывш. Twitter), апрель 2026

The first group — disappointed early triers — sampled free-tier ChatGPT, hit hallucinations and limitations, and formed lasting negative opinions based on old, deprecated models. The second group — power users paying $200/month for frontier models — watches AI systems solve in minutes what would normally take days — work that would cost a team of professionals thousands of dollars. For this group, Karpathy coined the term AI Psychosis.

Первая группа — разочарованные ранние пользователи — попробовала бесплатный ChatGPT, столкнулась с галлюцинациями и ограничениями и сформировала устойчивое негативное мнение на основе устаревших моделей. Вторая группа — продвинутые пользователи, платящие $200/месяц за передовые модели — наблюдает, как ИИ за минуты решает задачи, на которые у специалистов ушли бы дни и тысячи долларов. Для этой группы Карпатый ввёл термин AI Psychosis.

Karpathy identified the core driver as recency and tier of use — people's views are anchored to whichever old, free model they last touched. Capabilities are also peaky: concentrated in code and math, not general search or writing. Non-technical users who tried AI for everyday tasks got the weakest version of the experience.

Карпатый определил ключевой фактор — давность и уровень использования: представления людей закреплены на той старой бесплатной модели, с которой они последний раз взаимодействовали. Возможности ИИ также неравномерны: сконцентрированы в программировании и математике, а не в обычном поиске или письме. Нетехнические пользователи, пробовавшие ИИ для повседневных задач, получили самую слабую версию опыта.

1.3 The Voice Assistant Legacy 1.3 Наследие голосовых помощников

The tried-and-abandoned segment did not form only with ChatGPT. A decade of underwhelming AI assistants pre-trained millions of users to expect failure from the entire category.

Сегмент попробовавших и бросивших сформировался не только из-за ChatGPT. Десятилетие разочаровывающих ИИ-ассистентов приучило миллионы пользователей ожидать провала от всей категории.

ProductOutcomeSource ПродуктРезультатИсточник
Amazon AlexaOn track to lose $10B in 2022; employees called it a "colossal failure of imagination"Business Insider, 2022 Amazon AlexaУбытки до $10 млрд в 2022; сотрудники называли «колоссальным провалом воображения»Business Insider, 2022
Cortana, BixbyFailed to gain traction; fewer Americans used voice assistants in 2021 than 2020Industry reports, 2021 Cortana, BixbyНе завоевали аудиторию; в 2021 голосовыми помощниками пользовались реже, чем в 2020Отраслевые отчёты, 2021
Satya Nadella's verdict"Dumb as a rock" — Microsoft CEO's summary of pre-LLM assistantsPublic statement Вердикт Сатьи Наделлы«Тупые как пробка» — резюме CEO Microsoft о помощниках до эпохи LLMПубличное заявление

When ChatGPT arrived using fundamentally different LLM architecture, it entered a market where the consumer concept of "AI assistant" had been shaped by years of command-and-control systems that could barely handle compound requests. This created a disappointment transfer problem: users who had been burned by Siri, Alexa, and Cortana grouped all AI under the same failing category label — and applied their negative priors to LLMs that are architecturally unrelated.

Когда ChatGPT появился на принципиально другой архитектуре LLM, он вышел на рынок, где потребительское понятие «ИИ-ассистент» было сформировано годами командно-управляемых систем, едва справлявшихся с составными запросами. Это создало проблему переноса разочарования: пользователи, обжёгшиеся на Siri, Alexa и Cortana, объединили весь ИИ под одним ярлыком провала — и перенесли негативные ожидания на архитектурно не связанные LLM.

1.4 The Abandonment Lifecycle (HCI Evidence) 1.4 Жизненный цикл отказа (данные HCI)

Human-Computer Interaction researchers have extensively documented the adoption-to-abandonment pipeline. The foundational study is Cho et al. (2019) at ACM DIS, which tracked eight first-time Amazon Echo households over 12 weeks and identified five phases:

Исследователи человеко-компьютерного взаимодействия (HCI) подробно задокументировали путь от принятия к отказу. Основополагающее исследование — Cho и др. (2019) на ACM DIS, которое отслеживало восемь семей с Amazon Echo в течение 12 недель и выделило пять фаз:

PhaseDescription ФазаОписание
1. CuriosityInitial excitement and exploration 1. ЛюбопытствоПервоначальный интерес и исследование
2. ExperimentationTesting capabilities and limits 2. ЭкспериментированиеПроверка возможностей и границ
3. FrustrationEncountering failures, limitations, and errors 3. РазочарованиеСтолкновение с ошибками, ограничениями и сбоями
4. Routinization or AbandonmentEither narrow use develops or device is abandoned 4. Рутинизация или отказЛибо формируется узкое применение, либо устройство забрасывается
5. Residual AttitudeLasting impression shapes future technology evaluation 5. Остаточная установкаСформировавшееся впечатление влияет на оценку будущих технологий

The core driver across all studies: mismatch between conversational expectations and actual capabilities. Trajkova and Martin-Hammond (ACM CHI, 2020) found older adults concluded Alexa was "a toy." Carnegie Mellon's 2024 CHI paper identified six downstream harms from voice assistant errors, including emotional harm and identity-related microaggressions — particularly affecting non-standard English speakers.

Ключевой фактор во всех исследованиях: несоответствие между ожиданиями от разговорного интерфейса и реальными возможностями. Trajkova и Martin-Hammond (ACM CHI, 2020) обнаружили, что пожилые люди сочли Alexa «игрушкой». Исследование Carnegie Mellon (CHI, 2024) выявило шесть типов вреда от ошибок голосовых помощников, включая эмоциональный ущерб и микроагрессии по отношению к носителям нестандартного английского.

Part 2 — Understanding the Causes

Часть 2 — Понимание причин

The persistence of burned-user resistance is not mysterious. It sits at the intersection of at least six well-documented psychological mechanisms that individually are robust — and collectively create a trap. No single mechanism is specific to AI. Together they produce an outcome that is: the people most likely to benefit from modern AI are among the least likely to try it again.

Устойчивость сопротивления обжёгшихся пользователей не загадка. Она находится на пересечении как минимум шести хорошо задокументированных психологических механизмов, каждый из которых по отдельности надёжен, а вместе они создают ловушку. Ни один механизм не специфичен для ИИ. Вместе они приводят к результату: люди, которые больше всего выиграли бы от современного ИИ, с наименьшей вероятностью попробуют его снова.

2.1 Algorithm Aversion — The Foundational Framework 2.1 Алгоритмическая неприязнь — базовая концепция

The most directly relevant academic concept is algorithm aversion, coined by Dietvorst, Simmons, and Massey (2015, Journal of Experimental Psychology: General). Their experiments showed that people who observe an algorithm make errors become significantly less willing to use it — even when the algorithm still outperforms human judgment by 13–97%. A single machine mistake signals to users that the system is irrevocably flawed.

Наиболее релевантная научная концепция — алгоритмическая неприязнь (algorithm aversion), введённая Dietvorst, Simmons и Massey (2015, Journal of Experimental Psychology: General). Их эксперименты показали, что люди, наблюдавшие ошибку алгоритма, значительно менее склонны его использовать — даже когда алгоритм всё ещё превосходит человеческое суждение на 13–97%. Одна ошибка машины сигнализирует пользователю, что система непоправимо ущербна.

Follow-up research identified two paths out. Berger et al. (2021): demonstrating that the algorithm can learn from mistakes resolves aversion. Reich, Kaju, and Maglio (Oklahoma State, 2022): consumers fundamentally expect algorithms cannot learn — simply relabeling a system as a machine learning algorithm increased trust by implying capacity for improvement.

Последующие исследования выявили два выхода. Berger и др. (2021): демонстрация того, что алгоритм может учиться на ошибках, снимает неприязнь. Reich, Kaju и Maglio (Oklahoma State, 2022): потребители по умолчанию считают, что алгоритмы не учатся — простое переименование системы в алгоритм машинного обучения повышало доверие, подразумевая способность к улучшению.

2.2 The Six-Mechanism Cascade 2.2 Каскад из шести механизмов

Once a negative impression forms, a cascade of reinforcing mechanisms locks it in:

После формирования негативного впечатления каскад подкрепляющих механизмов закрепляет его:

MechanismHow it works МеханизмКак работает
1. Anchoring biasFirst impression disproportionately shapes all subsequent evaluation 1. Эффект якоряПервое впечатление непропорционально влияет на всю дальнейшую оценку
2. Confirmation biasUsers seek evidence that confirms their negative view; ignore counter-evidence 2. Предвзятость подтвержденияПользователи ищут подтверждение негативного мнения; игнорируют обратное
3. Status quo bias"I've already decided AI isn't for me" — the cost of changing position exceeds perceived benefit 3. Предвзятость статус-кво«Я уже решил, что ИИ не для меня» — цена пересмотра превышает видимую пользу
4. Category-level judgmentOne bad experience with Siri/Alexa/ChatGPT taints the entire "AI" label 4. Суждение на уровне категорииОдин плохой опыт с Siri/Alexa/ChatGPT компрометирует весь ярлык «ИИ»
5. Social reinforcementBurned users share stories in peer networks, creating group-level resistance 5. Социальное подкреплениеОбжёгшиеся делятся историями в своём кругу, создавая групповое сопротивление
6. Avoidance loopThose who avoid re-trying never encounter improved versions — their anchor remains frozen in time 6. Петля избеганияТе, кто избегает повторных попыток, не сталкиваются с улучшенными версиями — их якорь остаётся замороженным во времени

A 2024 case study in the Journal of Decision Systems documented this exact dynamic at DB Schenker: users hesitate to use the system after encountering negative experiences. This reluctance persists even when the issues have been addressed and fixed.

Кейс 2024 года в Journal of Decision Systems задокументировал эту динамику в DB Schenker: пользователи избегают системы после негативного опыта. Нежелание сохраняется даже когда проблемы были устранены и исправлены.

2.3 Academic Frameworks 2.3 Академические теории

Expectation-Confirmation Theory (Bhattacherjee, 2001; MIS Quarterly, 7,900+ citations). Users form expectations → use the technology → compare performance against expectations → when negative disconfirmation occurs, they form lower perceived usefulness and satisfaction → discontinuance. Bhattacherjee specifically addressed the acceptance-discontinuance anomaly: why users who initially adopt technology subsequently abandon it.

Теория подтверждения ожиданий (Bhattacherjee, 2001; MIS Quarterly, 7 900+ цитирований). Пользователи формируют ожидания → используют технологию → сравнивают с ожиданиями → при негативном опровержении формируется низкая оценка полезности и удовлетворённости → отказ. Bhattacherjee специально описал аномалию принятия-прекращения: почему пользователи, изначально принявшие технологию, впоследствии от неё отказываются.

Innovation Resistance Theory (Ram & Sheth, 1989). Resistance is not merely the absence of adoption — it is a distinct psychological state requiring separate theoretical treatment. Five barriers: usage (conflicts with workflow), value (not worth the change), risk, tradition, and image. The key insight: consumers have an inherent desire for psychological equilibrium.

Теория сопротивления инновациям (Ram & Sheth, 1989). Сопротивление — не просто отсутствие внедрения, а самостоятельное психологическое состояние, требующее отдельного теоретического подхода. Пять барьеров: использование (конфликт с рабочим процессом), ценность (не стоит перемен), риск, традиция и имидж. Ключевое наблюдение: потребители стремятся к психологическому равновесию.

Trust Repair Research (Pareek, Velloso & Goncalves, ACM FAccT, 2024). Once trust is eroded by AI errors, accuracy improvement alone leads to partial but not total trust recovery. The most effective trust repair strategy was the Model Update signal — telling users the AI model was upgraded. This intervention restored trust above pre-violation levels. Implication: communicating that modern LLMs are architecturally different from Siri-era AI may be the most effective re-engagement strategy.

Исследование восстановления доверия (Pareek, Velloso & Goncalves, ACM FAccT, 2024). После подрыва доверия ошибками ИИ одно лишь повышение точности ведёт к частичному, но не полному восстановлению доверия. Наиболее эффективной стратегией оказался сигнал «обновление модели» — информирование пользователей о принципиальном обновлении. Этот приём восстановил доверие выше уровня до нарушения. Вывод: сообщение о том, что современные LLM архитектурно отличаются от ИИ эпохи Siri, — возможно, самая эффективная стратегия повторного вовлечения.

2.4 Why the Trap Is Self-Reinforcing 2.4 Почему ловушка самоподкрепляющаяся

The burned-user problem has a structural feature that makes it uniquely persistent: the people who avoid re-trying AI are the ones whose mental model of AI is most outdated. Time does not help — it makes the problem worse, because the gap between what they remember and what exists grows with every model generation. Meanwhile, their peer networks contain other burned users who reinforce the shared negative narrative.

Проблема обжёгшихся пользователей обладает структурной особенностью, делающей её уникально устойчивой: люди, избегающие повторных попыток, — это те, чья ментальная модель ИИ наиболее устарела. Время не помогает — оно усугубляет проблему, потому что разрыв между тем, что они помнят, и тем, что существует, растёт с каждым поколением моделей. Тем временем их окружение состоит из таких же разочарованных, подкрепляющих общий негативный нарратив.

This dynamic has no analogue in the other five gaps. The gender gap is driven by confidence, not past failure. The income gap is about access. The language gap is about genuine current quality failure. The age gap includes technology history but is primarily about socialization. The education gap tracks institutional exposure. Only the once-bitten gap is driven by a specific past experience that has since become empirically false — and persists precisely because the correction mechanism (re-trying) is blocked by the injury itself.

У этой динамики нет аналогов среди других пяти разрывов. Гендерный разрыв обусловлен уверенностью, а не прошлым провалом. Разрыв по доходам — это вопрос доступа. Языковой разрыв — о реальных текущих проблемах с качеством. Возрастной разрыв включает историю технологий, но в основном связан с социализацией. Разрыв по образованию зависит от институционального опыта. Только разрыв обжёгшихся обусловлен конкретным прошлым опытом, который с тех пор стал эмпирически ложным, — и сохраняется именно потому, что механизм коррекции (повторная попытка) заблокирован самой травмой.

But while the once-bitten mechanism is unique, its distribution is not. It does not fall evenly across demographics — it concentrates in the same groups already facing the other gaps, where it functions not as an additional burden but as an amplifier of existing ones.

Однако хотя механизм «обжёгшегося» уникален, его распределение — нет. Он распределяется неравномерно — концентрируется именно в тех группах, которые уже сталкиваются с другими разрывами, и там функционирует не как дополнительная нагрузка, а как усилитель существующих.

2.5 The Multiplier Effect: Once-Bitten Amplifies Other Gaps 2.5 Эффект множителя: «обжёгшиеся» усиливают другие разрывы

The six mechanisms in 2.2 are not demographically neutral. Their intensity depends on structural conditions that vary systematically across the other five gaps in this report. Being burned by early AI does not hit all groups equally — it concentrates in the same populations that already face gender, age, income, and language disadvantages. The once-bitten effect does not merely add to existing gaps; it multiplies them.

Шесть механизмов из раздела 2.2 не нейтральны демографически. Их интенсивность зависит от структурных условий, которые систематически различаются между пятью другими разрывами этого доклада. Негативный первый опыт с ИИ бьёт не по всем одинаково — он концентрируется именно в тех группах, которые уже сталкиваются с гендерным, возрастным, доходным и языковым неравенством. Эффект «обжёгшегося» не просто прибавляется к существующим разрывам — он их перемножает.

Four pathways operate simultaneously:

Действуют четыре одновременных пути:

1. Selection into worse first experiences. The income gap routes lower-earning users disproportionately into free-tier tools — precisely the layer Karpathy identified as generating the most disappointment. Older adults were concentrated in voice assistant interfaces: the Cho et al. (2019) study that documented the abandonment lifecycle specifically tracked older adult households, who concluded devices were "a toy." Non-standard English speakers received demonstrably worse voice assistant outputs — Carnegie Mellon's 2024 CHI paper documented emotional harm and identity microaggressions from these errors. Each of these groups entered the AI category through its worst door, then formed their lasting impression from that entry point.

1. Отбор в более плохой первый опыт. Разрыв по доходам направляет пользователей с низким доходом непропорционально в бесплатные инструменты — именно тот уровень, который Карпатый назвал источником наибольшего разочарования. Пожилые пользователи концентрировались в голосовых интерфейсах: исследование Cho и др. (2019), задокументировавшее жизненный цикл отказа, отслеживало именно домохозяйства пожилых людей — они называли устройства «игрушками». Носители нестандартного английского получали заметно худшее качество от голосовых помощников: исследование Carnegie Mellon (CHI, 2024) зафиксировало эмоциональный ущерб и микроагрессию. Каждая из этих групп входила в категорию «ИИ» через худшую дверь и формировала устойчивое впечатление именно на основе этого входа.

2. Compounding with the confidence barrier. Algorithm aversion works partly by making users blame the tool when it fails. But the gender gap research shows that women's lower AI self-efficacy (self-assessed knowledge explains ~75% of the gender gap, HBS 2024) creates a double attribution problem: when an AI tool fails, women with low tech self-efficacy are more likely to attribute the failure both to the tool and to themselves. This double attribution makes aversion stronger and re-engagement harder. The injury compounds the pre-existing wound — not additively, but multiplicatively, because the self-attribution blocks the most direct re-engagement pathway: being shown the tool works. Plausible · underresearched

2. Сложение с барьером уверенности. Алгоритмическая неприязнь отчасти работает так: когда инструмент даёт сбой, пользователь винит инструмент. Но исследование гендерного разрыва показывает, что низкая самооценка женщин в отношении ИИ (самооценка знаний объясняет ~75% гендерного разрыва, HBS 2024) создаёт двойную проблему атрибуции: когда инструмент ИИ даёт сбой, женщины с низкой технической самоэффективностью склонны обвинять и инструмент, и себя одновременно. Эта двойная атрибуция делает неприязнь сильнее, а повторное вовлечение — труднее. Травма усугубляет существующую рану — не аддитивно, а мультипликативно, поскольку самообвинение блокирует самый прямой путь к повторному вовлечению: просто показать, что инструмент работает. Вероятно · недоисследовано

3. Thinner peer networks of power users. Section 3.2 identifies trusted peer testimonials as the highest-leverage re-engagement vector. But the social networks of lower-income, older, less-educated, and female populations are systematically less likely to contain heavy AI power users — the people who could demonstrate frontier capabilities and challenge an outdated mental model. The trust-repair pathway that research says works best is, for exactly these groups, least available. Plausible · underresearched

3. Более тонкие сети пользователей-экспертов. Раздел 3.2 называет доверенные отзывы коллег наиболее эффективным вектором повторного вовлечения. Но социальные сети людей с низким доходом, пожилых, менее образованных и женщин систематически с меньшей вероятностью включают активных пользователей ИИ — тех, кто мог бы продемонстрировать возможности передовых моделей и оспорить устаревшую ментальную модель. Путь восстановления доверия, который исследования признают наиболее эффективным, для именно этих групп наименее доступен. Вероятно · недоисследовано

4. The language gap's frozen-clock problem. AI quality for non-English languages has improved faster, in relative terms, than for English — the gap between GPT-3-era Kyrgyz or Turkish outputs and current frontier model outputs is substantially larger than the equivalent gap for English. This means a non-English speaker who tried AI in 2022 and found it useless for their language is now operating on a mental model that is more outdated, not less, than an English-speaking skeptic from the same period. Yet the correction mechanism — trying a new model, ideally at the premium tier where multilingual performance is strongest — requires exactly the behaviors that once-bitten skeptics are least likely to perform: proactive re-engagement and willingness to pay. The skeptic does not regularly audit new model generations. The premium paywall, which in low-income language communities carries additional purchasing-power friction, blocks the tier where the language gap has actually narrowed most. The result is a sealed loop: the language gap burned them, the avoidance loop keeps them away, and the premium barrier ensures the improvement is invisible. Plausible · underresearched

4. Проблема остановившихся часов в языковом разрыве. Качество ИИ для неанглоязычных языков улучшилось быстрее, в относительном выражении, чем для английского — разрыв между выводами GPT-3 на кыргызском или турецком и нынешними передовыми моделями существенно больше, чем аналогичный разрыв для английского. Это означает: неанглоязычный пользователь, попробовавший ИИ в 2022 году и нашедший его бесполезным для своего языка, сегодня работает с ментальной моделью, которая устарела сильнее, а не меньше, чем у англоязычного скептика того же периода. Но механизм коррекции — попробовать новую модель, желательно на премиум-уровне, где многоязычные возможности наиболее сильны, — требует именно тех действий, которые обжёгшиеся скептики с наименьшей вероятностью совершат: проактивного повторного взаимодействия и готовности платить. Скептик не проверяет регулярно новые поколения моделей. Платный барьер — который в малодоходных языковых сообществах несёт дополнительное трение покупательной способности — блокирует именно тот уровень, где языковой разрыв реально сократился. Результат — запечатанный цикл: языковой разрыв обжёг их, петля избегания удерживает в стороне, а ценовой барьер гарантирует, что улучшение остаётся невидимым. Вероятно · недоисследовано

The practical implication: demographic groups already underrepresented in AI adoption are not facing a single barrier that sums with the once-bitten effect. They are facing an intersection where the once-bitten mechanism is simultaneously stronger (worse first experiences), harder to override (confidence compounding), less correctable (thinner peer networks), and — for non-English speakers specifically — self-sealing: the very improvements that should draw them back are locked behind the premium tier they are least likely to reach. Treating these as additive problems will systematically underestimate the difficulty of closing the gap.

Практическое следствие: демографические группы, уже недостаточно представленные в освоении ИИ, сталкиваются не с одним барьером, который складывается с эффектом «обжёгшегося». Они находятся на пересечении, где механизм «обжёгшегося» одновременно сильнее (хуже первый опыт), труднее преодолим (сложение с дефицитом уверенности), менее поддаётся коррекции (более тонкие сети) — а для неанглоязычных пользователей ещё и самозапечатывается: именно те улучшения, которые должны были бы вернуть их, заперты за премиум-барьером, до которого они доберутся с наименьшей вероятностью. Рассмотрение этих барьеров как аддитивных систематически недооценивает сложность закрытия разрыва.

Part 3 — Synthesis and Interventions

Часть 3 — Синтез и рекомендации

3.1 The Self-Reinforcing Cycle 3.1 Самоподкрепляющийся цикл

The burned-user trap is not a single barrier — it is a self-reinforcing loop that becomes harder to exit the longer it persists: negative first experience → anchored negative impression → avoidance of re-engagement → impression remains frozen → peer reinforcement of shared narrative → category-level rejection of "AI" as a whole → growing gap between remembered AI and actual AI → re-engagement becomes increasingly unlikely with each passing model generation.

Ловушка обжёгшихся — не единичный барьер, а самоподкрепляющийся цикл, из которого тем труднее выйти, чем дольше он длится: негативный первый опыт → закреплённое негативное впечатление → избегание повторного взаимодействия → впечатление остаётся замороженным → социальное подкрепление общего нарратива → отторжение всей категории «ИИ» → разрыв между запомненным ИИ и реальным ИИ растёт → повторное вовлечение становится всё менее вероятным с каждым поколением моделей.

This loop does not operate in isolation from the other five gaps — it intersects with them as a multiplier. Women's lower AI self-efficacy makes a failed experience more psychologically costly, because failure gets attributed both to the tool and to the self. Older adults were routed into the voice assistant interfaces that generated the most disappointment — the Cho et al. abandonment lifecycle was literally studied in older adult households. Lower-income users landed on free-tier tools with the worst capability-to-expectation ratio. The burned-user mechanism is, in each case, amplifying a pre-existing disadvantage. Which means that closing the gender, age, and income gaps without addressing the once-bitten effect will be slower than models predict — and that addressing the once-bitten effect in these specific populations requires interventions that are sensitive to their other gap dimensions simultaneously.

Этот цикл не работает изолированно от других пяти разрывов — он пересекается с ними как множитель. Более низкая самооценка женщин в отношении ИИ делает неудачный опыт психологически более дорогостоящим: провал приписывается и инструменту, и себе. Пожилые пользователи были направлены к голосовым интерфейсам, породившим наибольшее разочарование — жизненный цикл отказа, задокументированный Cho и др., буквально изучался на домохозяйствах пожилых людей. Пользователи с низким доходом попали на бесплатные инструменты с наихудшим соотношением возможностей и ожиданий. Механизм «обжёгшегося» в каждом из этих случаев усиливает уже существующее неравенство. Это означает: закрытие гендерного, возрастного и доходного разрывов без работы с эффектом «обжёгшегося» будет медленнее, чем предсказывают модели, — а его преодоление в этих конкретных группах требует одновременно чувствительных к другим разрывам вмешательств.

3.2 What Works — Evidence-Based Interventions 3.2 Что работает — доказательные методы

  • The "Model Update" signal is the highest-leverage messaging intervention. Explicitly communicating that the technology has fundamentally changed — not merely improved — disrupts category-level judgment. It works because it bypasses the update-within-a-rejected-category problem and restarts evaluation from scratch. (Pareek et al., 2024; Reich et al., 2022.)
  • Сигнал «обновление модели» — наиболее эффективный коммуникационный приём. Явное сообщение о том, что технология принципиально изменилась, а не просто стала лучше, нарушает суждение на уровне категории. Это работает потому, что минует проблему обновления внутри отвергнутой категории и запускает оценку заново. (Pareek et al., 2024; Reich et al., 2022.)
  • Demonstrate learning ability. Showing that the AI can improve from mistakes resolves aversion more effectively than demonstrating current accuracy. Users expect algorithms not to learn — proving they can is counter-expectation and attention-grabbing. (Berger et al., 2021.)
  • Продемонстрируйте способность к обучению. Показать, что ИИ может учиться на ошибках, снимает неприязнь эффективнее, чем демонстрация текущей точности. Пользователи ожидают, что алгоритмы не учатся — доказательство обратного ломает ожидание и привлекает внимание. (Berger et al., 2021.)
  • Hands-on, low-stakes, personally relevant first tasks. The binding constraint is the negative anchor, not skill or access. Abstract capability demonstrations don't move it — personally experiencing success on a task that matters to the individual does.
  • Практические, безрисковые, лично значимые первые задачи. Главное ограничение — негативный якорь, а не навык или доступ. Абстрактные демонстрации возможностей не работают — работает личный опыт успеха в задаче, которая важна конкретному человеку.
  • Trusted messengers, not tech companies. Burned users have low trust in technology company marketing by definition. Peer testimonials from similar-profile individuals carry more weight. (EY/Microsoft/OpenAI, N=2,515, 2025.)
  • Доверенные посредники, а не технологические компании. Обжёгшиеся по определению мало доверяют маркетингу технологических компаний. Отзывы от людей со схожим профилем имеют больший вес. (EY/Microsoft/OpenAI, N=2 515, 2025.)
  • Separate LLMs from the Siri/Alexa category explicitly. The disappointment transfer problem requires active counter-messaging. Reframing current AI as a fundamentally different technology — not a better version of what failed them — is necessary to break the category-level rejection.
  • Явно отделите LLM от категории Siri/Alexa. Проблема переноса разочарования требует активной контркоммуникации. Переосмысление текущего ИИ как принципиально другой технологии — а не улучшенной версии того, что подвело, — необходимо для преодоления отторжения на уровне категории.

3.3 What Does Not Work 3.3 Что не работает

  • General AI awareness campaigns. Burned users are already aware — that's what makes them burned rather than oblivious. Information provision does not move anchored judgments.
  • Общие кампании по повышению осведомлённости об ИИ. Обжёгшиеся и так в курсе — именно это отличает их от неосведомлённых. Информирование не сдвигает закреплённые суждения.
  • Accuracy metrics and benchmark comparisons. Users with algorithm aversion are not responding to rational evidence; they are responding to past personal experience. Showing GPT-5 benchmarks to someone who remembers Siri getting their calendar wrong achieves very little.
  • Метрики точности и сравнения бенчмарков. Пользователи с алгоритмической неприязнью реагируют не на рациональные доказательства, а на прошлый личный опыт. Показывать бенчмарки GPT-5 человеку, помнящему, как Siri путала его календарь, практически бесполезно.
  • Product improvement alone, without communication. The most insidious feature of the burned-user problem is that the people least likely to encounter any re-engagement message are precisely the ones who need it most — they've already tuned out.
  • Улучшение продукта само по себе, без коммуникации. Самая коварная черта проблемы обжёгшихся: люди, которые менее всего вероятно увидят сообщение о повторном вовлечении, — именно те, кому оно нужнее всего. Они уже отключились.

3.4 The Research Gap 3.4 Пробел в исследованиях

Despite the rich theoretical landscape, no published study has specifically tracked burned AI users longitudinally — measuring initial experience, reasons for abandonment, resistance to re-engagement, and what interventions successfully bring them back. The never-tried versus tried-and-abandoned distinction has enormous practical implications for adoption strategy but remains remarkably underdeveloped as a formal research segmentation.

Несмотря на богатый теоретический ландшафт, ни одно опубликованное исследование не отслеживало обжёгшихся пользователей ИИ лонгитюдно — не измеряло первоначальный опыт, причины отказа, сопротивление повторному вовлечению и какие интервенции успешно возвращают таких пользователей. Различие между «никогда не пробовавшими» и «попробовавшими и бросившими» имеет огромное практическое значение для стратегии внедрения, но остаётся поразительно неразвитым как формальная исследовательская сегментация.

The specific hypothesis that prior disappointment with Siri/Alexa-generation AI creates measurable resistance to ChatGPT/LLM adoption — a disappointment transfer across architecturally distinct technologies grouped under the same consumer label — remains formally untested. The psychological mechanisms are individually well-established. Their compound effect on AI re-adoption is a clear research gap.

Конкретная гипотеза о том, что разочарование в ИИ поколения Siri/Alexa создаёт измеримое сопротивление к внедрению ChatGPT/LLM — перенос разочарования между архитектурно различными технологиями, объединёнными под одним потребительским ярлыком, — остаётся формально не проверенной. Психологические механизмы по отдельности хорошо задокументированы. Их совокупное влияние на повторное внедрение ИИ — явный пробел в исследованиях.

Selected Sources

Избранные источники

Authors / SourceYearTitle / Publication АвторыГодНазвание
Dietvorst, Simmons & Massey2015Algorithm Aversion: People Erroneously Avoid Algorithms After Seeing Them Err. J. Experimental Psychology: General Dietvorst, Simmons & Massey2015Algorithm Aversion. J. Exp. Psychology: General
Bhattacherjee2001Understanding Information Systems Continuance. MIS Quarterly, 7,900+ citations Bhattacherjee2001Understanding IS Continuance. MIS Quarterly, 7 900+ цит.
Ram & Sheth1989Consumer Resistance to Innovations: The Marketing Problem and its Solutions. Journal of Consumer Marketing Ram & Sheth1989Consumer Resistance to Innovations. J. Consumer Marketing
Pareek, Velloso & Goncalves2024Trust Repair After AI Errors. ACM FAccT Pareek, Velloso & Goncalves2024Trust Repair After AI Errors. ACM FAccT
Berger et al.2021Can Algorithms Learn from Mistakes? Resolving Algorithm Aversion Berger et al.2021Can Algorithms Learn from Mistakes?
Cho et al.2019Adoption-to-Abandonment Pipeline in Smart Speaker Use. ACM DIS Cho et al.2019Adoption-to-Abandonment Pipeline. ACM DIS
Karpathy, AndrejApril 2026Thread on AI capability gap. X (formerly Twitter) Карпатый, Андрейапрель 2026Тред о разрыве в понимании ИИ. X (бывш. Twitter)
IpsosJuly 2024Global Views on AI: Non-user Segmentation Ipsosиюль 2024Global Views on AI: Segmentation
MIT NANDA Initiative2025AI Pilot Outcomes Research MIT NANDA Initiative2025AI Pilot Outcomes Research
Trajkova & Martin-Hammond2020Older Adults and Voice Assistants. ACM CHI Trajkova & Martin-Hammond2020Older Adults and Voice Assistants. ACM CHI
Reich, Kaju & Maglio2022Machine Learning Labels and Trust. Oklahoma State University Reich, Kaju & Maglio2022Machine Learning Labels and Trust. Oklahoma State Univ.