В январе 2024 года финансист гонконгского офиса компании Arup получил письмо от CFO из лондонской штаб-квартиры. Речь шла о конфиденциальной сделке. Сотрудник заподозрил фишинг — и правильно сделал. Но потом его пригласили на видеозвонок, где он увидел того самого CFO и ещё нескольких знакомых коллег. Они обсудили детали, всё выглядело убедительно. Сотрудник сделал 15 переводов на общую сумму $25,6 миллиона. Все участники звонка, кроме него, были дипфейками. Деньги так и не вернули.
Как показало исследование Ассоциации директоров по маркетингу, 93% российских CMO используют генеративный ИИ в работе. Каждый день. Для создания контента, который потом читаете вы.
С одной стороны — инструменты, которые делают синтетический контент неотличимым от настоящего. С другой — индустрия, которая массово эти инструменты использует. И где-то между ними — вы, который должен как-то разобраться, что из этого правда.
Эта статья — попытка разобраться. Не в философском смысле «что есть истина», а в практическом: как конкретно вы можете отличить реальный контент от сгенерированного, дипфейк — от настоящего видео, честный отзыв — от накрутки. И главное — зачем это вообще нужно делать, если все вокруг уже махнули рукой.
По ходу повествования я буду использовать цитаты из одной из моих любимых книг — романа Диего Вита Видаля «Вита: последние дни настоящего». Это фантастика про PR, манипуляции и глобальные заговоры, написанная ещё до нынешнего бума нейросетей. Но читаешь её сейчас — и местами становится не по себе от того, насколько точно автор предсказал нашу реальность.
«Любой человек, обладающий хоть мало-мальски развитым критическим мышлением, уже к двадцати годам отчётливо понимает, что мир устроен вовсе не так, как ему рассказывали с детства. Но есть тут одна небольшая загвоздка... Как же понять, какой он на самом деле?»
— Диего Вита Видаль, «Вита: последние дни настоящего»
Прежде чем переходить к практике, давайте посмотрим на масштаб проблемы — потому что без понимания масштаба легко отмахнуться в духе «ну меня-то точно не обманут».
По данным Surfshark, потери от дипфейк-мошенничества достигли $1,56 миллиарда к 2025 году. Причём больше миллиарда — только за 2025-й. Для сравнения: за весь период с 2019 по 2023 год потери составили $130 миллионов. То есть за два года проблема выросла в 12 раз.
В первом полугодии 2025 года зафиксировали 580 дипфейк-инцидентов — почти в четыре раза больше, чем за весь 2024 год (150 инцидентов). По данным Keepnet Labs, количество дипфейк-файлов выросло с 500 000 в 2023 году до 8 миллионов в 2025-м. А Deloitte прогнозирует, что к 2027 году потери от ИИ-мошенничества в США достигнут $40 миллиардов.
Кейс Arup из начала статьи — не единичный случай. Мошенники пытались провернуть похожую схему с CEO рекламного холдинга WPP, используя клонированный голос и отредактированные видео с YouTube для звонка в Microsoft Teams. Не вышло — сотрудник что-то заподозрил. А вот с Ferrari чуть не получилось: мошенники клонировали голос CEO Бенедетто Виньи с его южноитальянским акцентом. Звонок прервали только после того, как собеседник задал вопрос, ответ на который знал только настоящий Виньи.
В России ситуация не лучше. По данным ВЦИОМ, 51% россиян обращались к нейросетям в 2025 году. При этом 63% пользователей используют ИИ для работы с информацией — задают вопросы ChatGPT, GigaChat или Алисе, получают ответы и принимают их за чистую монету. Не проверяя.
И вот тут начинается самое интересное. Нейросети иногда врут. Не со зла — просто так устроены. Они генерируют правдоподобный текст на основе статистических закономерностей, а не на основе фактов. И когда больше половины населения начинает получать «факты» из источника, который принципиально не отличает правду от выдумки, мы имеем проблему посерьёзнее, чем мошенники с дипфейками.
«К определённому возрасту к вранью привыкают все. Это как дефекация — все знают, что это делает каждый, но об этом не принято говорить открыто».
— Диего Вита Видаль, «Вита: последние дни настоящего»
Начну с неприятного: человеческий мозг эволюционно не приспособлен к информационной среде XXI века. Миллионы лет он учился экономить энергию, принимая быстрые решения на основе минимума данных. Услышал шорох в кустах — беги, Форест, беги! Потом разберёшься, была там опасность или нет. Те, кто останавливался анализировать, становились жертвами естественного отбора.
Эта же экономия работает, когда вы листаете ленту в три часа ночи. Мозг не хочет включать критическое мышление на каждый пост — это энергозатратно. Он предпочитает быстро решить: «похоже на правду» или «не похоже», и двигаться дальше. А «похоже на правду» для мозга — это то, что соответствует уже имеющимся убеждениям.
В психологии это называется confirmation bias, склонность к подтверждению. Штука древняя, но в связке с алгоритмическими лентами она превращается в идеальную ловушку. Вы верите, что X — хороший продукт. Алгоритм показывает вам контент, который подтверждает эту веру. Вы укрепляетесь в убеждении. Алгоритм видит, что вам это нравится, и показывает ещё больше подобного контента. Через какое-то время вы искренне уверены, что X — лучший продукт на рынке, хотя реально не видели ни одного критического отзыва (они есть, просто алгоритм их скрыл).
Но это ещё полбеды. Настоящая проблема в том, что мы, маркетологи, знаем про confirmation bias и активно его эксплуатируем. Мы таргетируем рекламу на людей, которые уже склонны к покупке. Мы пишем тексты, которые подтверждают их ожидания. Мы создаём «социальное доказательство» — отзывы, кейсы, комментарии, — которое убеждает сомневающихся.
Не осуждаю — я сам этим занимаюсь, да и все мы этим занимаемся. Проблема в том, что грань между «хорошим маркетингом» и «манипуляцией» становится всё тоньше. А с появлением генеративного ИИ она практически исчезла.
Окей, хватит теории. Давайте к конкретике — как понять, что текст написала нейросеть, а не человек.
Сразу оговорюсь: универсального способа нет. Детекторы ИИ-текста (GigaCheck, Copyleaks, ZeroGPT и другие) дают точность 70–90% на нередактированных текстах, но стоит автору слегка причесать результат — и точность падает. Более того, эти детекторы регулярно палят живых авторов, обвиняя их в использовании ИИ. Так что полагаться только на них нельзя.
Но есть признаки, которые можно отследить вручную.
Слишком гладкий текст без шероховатостей. Живой автор делает ошибки, использует разговорные обороты, иногда пишет коряво. Нейросеть выдаёт стерильно-правильный текст, где каждое предложение как из учебника. Если статья читается слишком идеально — это повод насторожиться.
Отсутствие конкретных личных деталей. Человек пишет: «Когда я работал в агентстве X, мы однажды запороли кампанию для Y — потеряли 200 тысяч бюджета за неделю». Нейросеть пишет: «Многие специалисты сталкиваются с неудачными кампаниями, которые приводят к финансовым потерям». Живой опыт против обобщения — разницу видно сразу.
Характерные фразы-маркеры. «В современном мире», «важно отметить, что», «следует подчеркнуть», «это позволяет достичь», «комплексный подход», «синергия». Если текст пестрит такими конструкциями — скорее всего, его писал ИИ. Или очень плохой копирайтер, что, впрочем, одно и то же.
Логическая непоследовательность. Нейросети иногда противоречат сами себе в рамках одного текста — в начале утверждают одно, в конце другое. Живой автор обычно следит за логикой (хотя бы пытается). Если статья сначала говорит «X — лучшее решение», а потом «специалисты рекомендуют Y» без объяснения противоречия — это звоночек.
Списки вместо аргументации. ИИ обожает списки. «5 причин», «7 способов», «10 признаков». Это удобно для генерации: не нужно выстраивать логику повествования, можно просто набросать пункты. Если весь текст — это списки без связной аргументации между ними, вероятно, его писала машина.
«Чем чудовищнее правда, тем сложнее людям в неё поверить».
— Диего Вита Видаль, «Вита: последние дни настоящего»
С видео и аудио сложнее, потому что технологии развиваются быстрее, чем наша способность их распознавать. По данным Keepnet Labs, люди распознают качественные видео-дипфейки с точностью всего 24,5%. То есть три из четырёх раз мы ошибаемся.
В январе 2024 года фейковые изображения Тейлор Свифт набрали 47 миллионов просмотров на X, прежде чем их удалили. Платформе пришлось временно заблокировать поиск по её имени. Фанаты запустили хэштег #ProtectTaylorSwift и начали заливать позитивные фото, чтобы вытеснить фейки из выдачи. Но это Тейлор Свифт — у неё миллионы преданных поклонников. У вашего CEO такой армии нет.
Что реально работает при распознавании дипфейков?
Смотрите на границу лица и волос. Это самое уязвимое место большинства дипфейков. Волосы — сложная структура, и нейросети до сих пор не научились идеально их обрабатывать. Если на границе лица и волос видны странные артефакты, размытость или «плавающие» пиксели — скорее всего, видео синтетическое.
Обращайте внимание на уши и украшения. Серьги, очки, наушники — всё, что находится на границе лица, часто выдаёт дипфейк. Они могут «проваливаться» в лицо, менять форму при движении или просто выглядеть неестественно.
Попросите человека повернуться в профиль. Совет от Fortune: если камера не может нормально показать профиль собеседника или лицо искажается при повороте — это повод насторожиться. Можно также попросить взять в руку карандаш или изменить освещение.
Следите за морганием. Люди моргают примерно 15–20 раз в минуту. В дипфейках моргание часто либо слишком редкое, либо слишком частое, либо неестественно синхронное. Это не стопроцентный признак, но дополнительный маркер.
Проверяйте источник. Если видео появилось в анонимном телеграм-канале без указания источника — это уже повод для подозрений. Если его распространяют только боты и сомнительные аккаунты — тем более. Настоящие новости обычно можно проверить через несколько независимых источников.
Используйте обратный поиск по кадрам. Сделайте скриншот из видео и загрузите в Google Images или Яндекс.Картинки. Иногда дипфейки создают на основе публичных видео, и поиск покажет оригинал.
Важно понимать: даже специализированные детекторы дают сбои. По данным DeepStrike, эффективность ИИ-инструментов для обнаружения дипфейков падает на 45–50%, когда их выносят из лабораторных условий в реальный мир. Так что полагаться только на технологии — плохая стратегия.
Отдельная боль — фейковые отзывы. Исследование Mar Consult показало (ноябрь 2025, 1200 респондентов), что 45% россиян видят проблему накрутки отзывов повсеместно, ещё 43% подозревают манипуляции, но не могут это доказать. И только 8% верят, что высокие рейтинги отражают реальное качество.
А по данным Markway и Anketolog.ru (сентябрь 2024, 2000 респондентов), 70,8% пользователей утверждают, что видели фейковые отзывы за последний год. При этом 92,5% людей при выборе товара в первую очередь смотрят именно на отзывы — важнее оказалась только цена.
С появлением генеративного ИИ эта проблема только обострилась. На бирже Kwork в 2024 году было более 20 000 активных предложений по продвижению на Wildberries, значительная часть которых связана с отзывами. ФАС уже разбирала дело «банды продавцов наушников», где 27 селлеров координировали фейковые заказы и отзывы.
Как отличить реальный отзыв от фейкового?
Смотрите на профиль автора. Если у аккаунта 3 отзыва, и все — восторженные пятёрки на разные товары, написанные в один день, это накрутка. Реальные люди оставляют отзывы нерегулярно и не только положительные.
Ищите конкретику. «Отличный товар, всем рекомендую» — скорее всего, фейк. «Заказала в пятницу, привезли в понедельник, упаковка помялась, но сам товар целый, пользуюсь неделю, пока всё норм» — похоже на живого человека. Конкретные детали сложно выдумать массово.
Обращайте внимание на фото. Фото товара в реальной обстановке (на столе, в руке, с домашним бардаком на фоне) — хороший знак. Идеально студийные фото или фото без товара вообще — подозрительно.
Читайте средние оценки. Парадоксально, но товары с рейтингом 4.7 обычно надёжнее, чем с 5.0. Идеальный рейтинг — признак накрутки. У реальных товаров всегда найдётся недовольный покупатель.
«В мире, где её все с детства обманывали, она сочла правду самым ценным артефактом именно по причине дефицита».
— Диего Вита Видаль, «Вита: последние дни настоящего»
Теперь самая неудобная часть. Мы, диджитальщики, — одновременно и жертвы, и соучастники. Мы используем те же инструменты, которые используют мошенники. Просто (обычно) для менее очевидного вреда.
Когда вы пишете продающий текст с помощью ИИ — формально это не преступление. Но если текст содержит преувеличения, которые вы не проверили, потому что «ИИ же написал, наверное, знает», вы транслируете потенциальную ложь. Когда агентство закупает отзывы «для раскачки» — формально это серая зона. Но в итоге эти фейковые отзывы видят реальные люди и принимают на их основе решения.
Я не призываю к немедленному отказу от всех инструментов автоматизации — это нереалистично и не нужно. Но призываю к осознанности.
Проверяйте факты, которые генерирует ИИ. Если нейросеть написала, что «по данным исследования X, конверсия выросла на 47%», найдите это исследование. Его может не существовать. Или существовать, но говорить совсем другое.
Не создавайте контент, который вы сами бы посчитали обманом. Простой тест: если бы вы получили такой текст как потребитель, вы бы почувствовали себя обманутым? Если да — не публикуйте.
Отличайте маркетинг от манипуляции. Маркетинг — это показать реальные преимущества продукта в выгодном свете. Манипуляция — это придумать преимущества, которых нет, или скрыть существенные недостатки. Грань тонкая, но она есть.
Помните про долгосрочные последствия. Фейковые отзывы могут дать краткосрочный буст продаж. Но когда люди поймут, что их обманули (а они поймут), репутационный ущерб будет больше, чем вся выгода.
Напоследок — конкретный список инструментов, которые помогают отличать правду от лжи. Не панацея, но полезное дополнение к критическому мышлению.
Ни один детектор не даёт 100% гарантии. Используйте их как один из сигналов, не как окончательный вердикт.
Проведите конкурс среди участников CMS Magazine
Узнайте цены и сроки уже завтра. Это бесплатно и займет ≈5 минут.