Искусственный интеллект способен создавать тексты быстро, убедительно и стилистически безупречно, однако за внешней безупречностью могут скрываться ошибки. О том, почему даже самые продвинутые алгоритмы не снимают с человека ответственности за проверку фактов, мы поговорили с Юрием Чеховичем — кандидатом физико-математических наук, экспертом в области академической этики, машинного обучения и ИИ, а также основателем сервиса интеллектуальной проверки академических работ domate.
Машинные «галлюцинации» могут обернуться не только репутационными потерями, но и прямыми финансовыми убытками. Яркий пример — недавний инцидент с консалтинговой компанией Deloitte Australia. Организация направила в Департамент занятости и трудовых отношений отчёт, в котором оказались серьёзные ошибки: ссылки на несуществующие научные публикации, вымышленные цитаты из решений Федерального суда и даже некорректно указанное имя судьи. На несоответствия обратил внимание академик Кристофер Радж из Сиднейского университета, предположив, что документ был подготовлен с использованием ChatGPT.
Этот факт получил широкий общественный резонанс. Сенатор Дебора О’Нил иронично заметила, что «у Deloitte проблемы с человеческим интеллектом», и предложила австралийскому правительству просто оформить подписку на ChatGPT. Для консалтингового гиганта, активно продвигающего услуги на базе ИИ, этот эпизод стал ощутимым ударом по репутации — особенно с учётом того, что сама компания регулярно подчёркивает необходимость человеческой валидации результатов работы алгоритмов.
По итогам разбирательств руководство Deloitte признало допущенные ошибки и согласилось вернуть часть вознаграждения — речь шла о сумме в 440 тысяч долларов.
Этот кейс стал показательным для международного научного и профессионального сообщества. Компания, входящая в «большую четвёрку» крупнейших мировых консалтинговых и аудиторских фирм, официально подтвердила использование искусственного интеллекта при подготовке отчёта для австралийского правительства и в результате была вынуждена компенсировать почти полмиллиона долларов из-за неточностей в тексте.
Почему эта история так важна? Потому что Deloitte традиционно ассоциируется с надёжностью и высочайшими стандартами качества. Их отчёты воспринимаются как эталон, а высокая стоимость услуг объясняется именно репутацией и уровнем экспертизы. Однако даже «лучшие из лучших» доверили часть работы ИИ и не проверили финальный документ на наличие галлюцинаций — фактически отказались от полноценного фактчекинга. Этот пример наглядно демонстрирует: без человеческого контроля искусственный интеллект может подвести даже тех, кто привык работать с предельной точностью.
Как правило, ошибки, связанные с применением ИИ, становятся заметны лишь у крупных игроков — когда проблема выходит в публичное поле и превращается в скандал. В малом бизнесе ситуация иная: если алгоритм допустил неточность, она, скорее всего, останется незамеченной для широкой аудитории. Статистика таких случаев не ведётся, ведь клиенты уверены, что специалисты внимательно выполняют свою работу, даже если на практике значительная часть задач уже давно делегирована алгоритмам.
Состоялась конференция разработчиков высоконагруженных систем Saint HighLoad++ 2025
Кто отвечает за ошибки?
Утраченная репутация зачастую обходится бизнесу куда дороже любых санкций и штрафов. Поэтому вопрос ответственности за непроверенные факты, вымышленные данные и иные неточности сегодня становится критически важным для компаний, активно внедряющих ИИ в свои рабочие процессы.
Если при подготовке отчётов, исследований или аналитических материалов используются ИИ инструменты, это должно быть прямо и однозначно зафиксировано в договорных отношениях с заказчиком.
При этом исполнитель обязан отвечать за качество итогового продукта вне зависимости от того, кто именно участвовал в его создании — человек или алгоритм. В случае обнаружения ошибок ответственность лежит на поставщике услуги: именно он должен организовать корректную проверку информации, внести необходимые исправления и, при необходимости, компенсировать причинённый ущерб.
Многих подобных ситуаций удалось бы избежать при наличии отлаженной системы внутреннего контроля качества. В крупных организациях финальную ответственность за документ обычно несёт конкретный сотрудник, утверждающий итоговую версию своей подписью, либо специализированная команда, задача которой — проверить соответствие результата установленным стандартам. Однако на практике такой контроль требует почти сопоставимых ресурсов с самой подготовкой отчёта, из-за чего механизм часто работает нестабильно. Выход здесь — в создании прозрачных, но жёстких процедур проверки и в обучении сотрудников ответственному и этичному применению ИИ-инструментов.
Как выстроить корректный фактчекинг
Фактчекинг — это не формальное действие в конце работы и не техническая «галочка», а полноценный этап создания текста, особенно если в процессе участвовал искусственный интеллект. Основная проблема сегодня даже не в склонности ИИ к галлюцинациям, а в отсутствии последующей проверки как таковой. Стоит сделать её обязательной и системной — и большая часть рисков будет снята автоматически.
Любое утверждение, каждая цифра и каждая ссылка, полученные при использовании нейросети, должны проходить проверку. Если в тексте присутствуют источники, необходимо убедиться, что они действительно существуют и соответствуют описанию. В случае с научными и библиографическими ссылками важно проверить сам факт публикации работы и наличие в ней тех данных, на которые ссылается автор. Генеративные модели нередко создают правдоподобные, но полностью вымышленные статьи, цитаты и фамилии.
То же самое относится к фактам и статистике. Любые числовые данные требуют обращения к первоисточнику: важно не только подтвердить их существование, но и оценить корректность интерпретации. Используемые источники должны быть надёжными — официальными, рецензируемыми и признанными в профессиональной среде.
Галлюцинация — это не случайная опечатка, а уверенно сформулированное ложное утверждение, поданное как достоверный факт. Модель может заявлять, что использовала реальные исследования или привела данные в нужном формате, хотя на самом деле таких источников не существует. Это напрямую связано с природой генеративных ИИ: они не оперируют понятием истины, а лишь воспроизводят наиболее вероятные языковые конструкции. В результате текст может выглядеть убедительно, оставаясь при этом полностью оторванным от реальности.
Одна из самых распространённых иллюзий сегодня — убеждённость в том, что ИИ экономит время и ресурсы. На практике всё часто оказывается наоборот: материалы, созданные алгоритмами, почти всегда требуют тщательной и вдумчивой перепроверки. В противном случае автоматизация может обернуться для компании или автора серьёзными репутационными и финансовыми потерями.
Поэтому при работе с текстами, созданными ИИ, стоит придерживаться простого принципа: проверять всё — и лучше исходить из того, что доверять нельзя.
Представьте, что вы получили материал от незнакомого автора, чья экспертиза вам неизвестна. Текст может выглядеть логично и аккуратно, но за каждой цифрой и цитатой могут скрываться ошибки или искажения. Именно в таком «режиме паранойи» следует подходить к проверке контента, сгенерированного нейросетью.
С живыми экспертами ситуация иная: если вы знаете специалиста, понимаете границы его компетенций и уже не раз убеждались в точности его выводов, уровень вашего доверия к нему выше. С ИИ так не получится. Даже если однажды модель выдала идеальный результат, это не гарантирует отсутствия ошибок при следующем запросе — каждый новый текст требует новой проверки.
Наконец, важно помнить, что ИИ-системы постоянно эволюционируют. Они не являются статичными: обновляются алгоритмы, меняются внутренние параметры, корректируются механизмы генерации ответов. Иногда на качество работы влияет даже текущая нагрузка на инфраструктуру — при большом количестве запросов модель может упрощать ответы и упускать значимые детали. Всё это делает поведение ИИ по своей природе непредсказуемым.
Какова цена ошибки
Риски, связанные с использованием ИИ в текстах, выходят далеко за рамки случайных опечаток или неточных формулировок. Когда речь заходит о медицине, праве или даже планировании поездок за границу, цена неверного ответа может оказаться критически высокой.
Если чат-бот ошибётся в рецепте, последствия, скорее всего, ограничатся испорченным ужином. Но в ситуациях, где пользователь ищет рекомендации по приёму лекарств или юридическую консультацию, ошибка способна обернуться потерей здоровья, времени или денег. То же касается и путешествий: выясняя, требуется ли виза для въезда в другую страну, надёжнее обратиться к официальному сайту посольства, чем полагаться на ответ алгоритма.
Подобные примеры демонстрируют: в вопросах, затрагивающих безопасность и благополучие человека, доверие к ИИ без дополнительной проверки недопустимо. Даже самые совершенные модели могут галлюцинировать и уверенно транслировать неверную информацию. Именно поэтому критическое мышление и системный фактчекинг остаются ключевыми навыками для всех, кто работает с искусственным интеллектом.
Несмотря на стремительное развитие технологий, проверка фактов по-прежнему во многом остаётся ручной работой — особенно когда речь идёт о текстах и научных источниках. Да, существуют профессиональные команды и сервисы, которые занимаются верификацией общественно значимой информации, например разоблачением фейков или распространённых мифов. Однако для большинства пользователей инструменты гораздо проще: самостоятельно искать первоисточники, переходить по сгенерированным ссылкам, внимательно читать материалы и не принимать на веру убедительно оформленные, но неподтверждённые утверждения.
Как научить студентов проверять информацию при работе с ИИ
Одной из ключевых задач современного образования становится встраивание фактчекинга в учебные процессы. Проверка информации должна быть не дополнительной опцией, а обязательной частью обучения академическому письму — начиная с базового уровня. Студенты должны уметь не только формулировать мысли, но и подтверждать их источниками. Если в работе обнаруживаются фактические ошибки — например, вымышленные источники или недостоверные данные, — ответственность полностью лежит на авторе, то есть на студенте.
Для преподавателей полноценная проверка фактов в студенческих работах требует значительных ресурсов, поэтому на практике они часто вынуждены опираться на детекторы ИИ и косвенные признаки, характерные для машинно сгенерированных текстов.
Последствия выявления нарушений во многом зависят от правил конкретного учебного заведения. Чаще всего студенту предлагают переработать работу или выполнить альтернативное задание, чтобы подтвердить свои знания самостоятельно. При серьёзных нарушениях возможны и более жёсткие меры. Если работа содержит ложные факты, это означает, что на данный момент студент не подтвердил свои знания и навыки. Оценка должна отражать уровень квалификации студента – вот что главное.