ИИ — не угроза гуманитарным профессиям, а самый полезный инструмент, который у них когда-либо был. Чтобы он стал полноценной опорой, будущим редакторам, исследователям, дизайнерам и создателям контента нужно одно — научиться работать с нейросетями так же уверенно, как с «Вордом».
Существует устойчивый миф: ИИ — инструмент для технарей. Будто он создан исключительно для программистов, математиков и инженеров, а гуманитариям с ним делать нечего. На самом деле всё скорее наоборот, и в отдельных областях гуманитарии осваивают ИИ даже быстрее. Парадокс ещё и в том, что люди с техническим образованием нередко смотрят на модели осторожно, так как лучше понимают, как те устроены: на что способны алгоритмы, а на что — нет. Когда знаешь внутреннюю механику работы модели, отношение к ее результатам становится гораздо критичнее.
Можно вспомнить волну заголовков трёхлетней давности в СМИ о том, что разные нейросети «убьют» какие-то профессии. Чаще всего неутешительные прогнозы касались веб-дизайнеров, журналистов, программистов и копирайтеров. Заголовки были громкими, но по законам жанра — гипертрофированными.
Медиа работают, как описано в одном из фильмов: если на горизонте появилась обычная туча, заголовок должен звучать примерно так — «страшный ураган надвигается на город». А если урагана не случилось — «город чудом спасён от урагана». Так работают новостные схемы, но не реальность.
Спустя годы мы видим: не исчезла ни одна профессия. Но и без изменений не обошлось — инструменты стали мощнее, поменялась структура задач. Но так было и до появления ИИ: любое удешевление ресурса чаще всего увеличивает его потребление, а не наоборот. Да, искусственный интеллект ускорил выполнение задач, но проектов меньше не стало — наоборот, их число увеличилось. Производительность выросла, и потребность в специалистах тоже.
На примере разработчиков программного обеспечения — программистов: есть специалисты разных уровней — джуны (могут решать задачи под присмотром более опытных специалистов), мидлы (могут решать задачи, но не берутся за проекты) и сеньоры (могут самостоятельно выполнять проекты, раздавая задачи менее опытным специалистам). Появление инструментов вроде Cursor или Copilot действительно повысило эффективность сеньоров и мидлов. Но это привело к другому эффекту: вход в профессию для новичков, джунов, стал сложнее. Младших специалистов сейчас берут реже, но не потому, что они больше не нужны, а потому что ими сложнее заниматься. ИИ не учит архитектуре, инженерному мышлению и подходам к разработке.
Но вот что важно: сеньоры не появляются из воздуха — это те самые джуны, которые пришли в профессию несколько лет назад, причем не в пропорции один к одному. Только один из 5 или 10 новичков вырастает до старшего специалиста. Если сегодня ограничить приток новичков, через 3–5 лет мы получим дефицит квалифицированных разработчиков. В отрасли этот цикл уже заметен.
Вот здесь как раз и скрыто главное заблуждение насчёт ИИ. Суть в том, что алгоритмы отлично работают с информацией. Текст, аргументация, структура, смысл — всё это и составляет классическую территорию гуманитариев. И в задачах, где важно интерпретировать данные, формулировать мысли, объяснять сложные концепции или создавать новые смыслы, гуманитарии, использующие ИИ, оказываются в более выгодной позиции.
В ближайшие годы именно гуманитарные навыки, такие как критическое мышление, работа с источниками, логика и описание нарратива, станут ключом к тому, чтобы использовать ИИ осознанно, а не вслепую. Это касается журналистики, образования, коммуникаций, права, социологии, менеджмента и науки.
Сегодня владение ИИ пока еще не является обязательным навыком наряду с умением работать с текстовыми редакторами или поисковыми системами, но это вопрос времени. Инструменты на базе искусственного интеллекта становятся естественной частью рабочего процесса — настолько же привычной, как понятие «загуглить», то есть найти в интернете. Велика вероятность, что в нашем повседневном языке появятся новые глаголы, описывающие выполнение задач с помощью ИИ-сервисов.
Гуманитариям искусственный интеллект помогает решать задачи поиска и структурирования информации. С его помощью можно быстро погрузиться в новую предметную область, когда, например, нужно за короткое время разобраться в теме, ранее не знакомой пользователю. Вместо классического поиска специалисты всё чаще используют Perplexity, DeepSeek, ChatGPT или «Яндекс GPT» (список можно продолжать очень долго), позволяющие изучить материал и собрать первичную базу знаний.
К базовым возможностям ИИ также относятся орфографическая и стилистическая правка текста, первичная литературная редактура, а также перевод. При работе с неизвестными пользователю языками нейросеть позволяет оценить общую адекватность текста и избежать грубых смысловых искажений. В хорошо проработанных языковых парах вроде «русский–английский» алгоритмы сегодня достигают довольно высокого качества перевода.
Однако сфера применения ИИ гуманитариями не ограничивается только лишь текстами. Алгоритмы активно используются для работы с изображениями, аудио и видео. Отсюда и растущая тревога в творческих профессиях: дизайнеры, иллюстраторы, композиторы и монтажёры обсуждают риски автоматизации и возможные изменения рынка. Вспоминается, как в девяностые в России в связи с компьютеризацией предрекали исчезновение профессии бухгалтера, так как «один компьютер может заменить десятки бухгалтеров со счётами». По прошествии десятков лет ясно, что эти опасения не оправдались и хорошие бухгалтеры продолжают быть востребованными специалистами. Насколько оправданы нынешние тревоги — вопрос открытый, но очевидно одно: искусственный интеллект уже стал инструментом, который меняет способы производства контента во многих областях.
Прогнозы об исчезновении профессий не сбываются
А при чём тут гуманитарии?
Хотим мы этого или нет, но в ближайшие годы подавляющее число текстов так или иначе будут создаваться с помощью ИИ-инструментов. Формы этой помощи могут быть разными — от получения примеров официальных писем и изучения структуры документа до поиска информации по новой теме. Для студентов это особенно полезно там, где требуется быстро разобраться в незнакомой области и понять её специфику, где часто требуется «объяснить по-простому».
Использование ИИ для работы со структурой текста, стилистикой, поиском данных или формированием черновиков — оправданная практика, если она не подменяет личный вклад автора. Проблемы начинаются тогда, когда нейросети становятся средством маскировки неэтичного поведения. Например, если студент использует ИИ для перефразирования фрагментов плагиата, чтобы скрыть источник, — это прямое нарушение академической этики.
Важно учитывать и требования конкретного задания. Если преподаватель прямо запрещает использование ИИ, его применение становится нарушением. Отдельный риск — безусловное доверие результатам нейросетей. Это эквивалентно ситуации, когда студент открывает первую попавшуюся ссылку в поисковике и принимает её за истину без проверки. Любой текст, созданный с помощью ИИ, требует фактчекинга.
Кроме того, искусственный интеллект может стать своего рода репетитором для специалиста. Допустим, что у студента уже есть какой-то готовый текст, — эссе, глава диплома или аналитическая записка — тогда ИИ может выступать в роли «электронного собеседника»: предложить замечания, сформулировать вопросы к работе, подсказать возможные ответы. По сути, это функциональный ассистент, который помогает взглянуть на материал под другим углом.
Ситуация меняется, когда речь идёт об изучении совершенно новой темы. ИИ, к сожалению, пока нельзя воспринимать как абсолютно надёжный источник знаний. В знакомой области человек способен распознать ошибки, увидеть логические несостыковки и неудачные формулировки. Но для новых сфер внутренний фильтр не работает: модель может выдавать убедительно оформленный, но наполненный ложными фактами материал. Новичку будет сложно отличить правду от вымысла.
Использовать ИИ для первичного погружения в новую тему можно, но с максимальной осторожностью. Важно всегда запрашивать источники, самостоятельно проверять эти ссылки и подтверждать данные, которые они содержат. На практике нередко оказывается, что ссылки ведут на нерелевантные материалы или же вовсе не включают нужной информации. Это может привести к проблемам.
Яркий пример — недавняя ситуация с издательством Springer Nature, которое отозвало книгу по машинному обучению из-за фальшивых цитат. Проверка показала, что в книге Mastering Machine Learning: From Basics to Advanced 25 из 46 цитат не существует — это типичный признак контента, сгенерированного нейросетью.
Как ИИ влияет на продуктивность гуманитариев?
Граница между добросовестным применением ИИ и академическими нарушениями проходит не по факту использования инструмента как такового, а по характеру результата. Главный признак корректной работы — отсутствие типичных маркеров генерации, когда текст не несёт в себе видимых следов функционирования моделей. Бывает, что в студенческой работе остаются фрагменты переписки с чат-сервисом или формулировки, которые явно указывают на машинное происхождение текста. Такие примеры нельзя отнести ни к грамотному использованию технологий, ни к интеллектуальной работе.
Что касается академического мошенничества, оно может быть технически безупречным, если автор сознательно использует ИИ для сокрытия нарушений, например, для перефразирования плагиата.
Важно понимать, что проверка на плагиат и детекция ИИ — разные задачи, и подходы к ним различаются. Если система оценивает только процент совпадений, то формальное «снижение» уровня плагиата достигается перефразированием. Эта практика очевидна и неэтична, но она широко применима, в том числе и благодаря помощи нейросетей.
С детекцией ИИ ситуация сложнее. На мой взгляд, сейчас генеративные модели развиваются быстрее, чем инструменты, определяющие машинное происхождение текста. Поэтому нередки случаи, когда даже необработанный фрагмент остаётся недетектируемым. Более того, есть сервисы, которые специализируются на «очеловечивании» текста — они устраняют типовые признаки машинной генерации вроде нарушения порядка слов, убирают неестественную пунктуацию, нетипичные для людей синтаксические конструкции.
Но наиболее надёжный способ защитить свою работу от детектора — это не только вычитать и отредактировать текст, но и полностью погрузиться в смысл написанного, принять ответственность за содержание. Чем больше автор работает над материалом, тем меньше формальных признаков машинного происхождения в нём остаётся.
Любопытный нюанс: иногда и полностью написанный человеком текст может быть ошибочно отнесён к машинному по результатам детекции, что демонстрирует пределы точности актуальных сегодня технологий.
Как этично использовать ИИ в работе?
Мой прогноз на будущее: массовых увольнений и исчезновений целых профессий не случится. Произойдёт трансформация ролей и обязанностей, а ключевыми станут специалисты, которые смогут встроить новые инструменты в свою работу. То есть востребованными станут те, кто за счёт ИИ сократят сроки выполнения задач, снизят затраты и повысят качество.
Наверняка появятся «погонщики ИИ», но они всё равно не смогут заменить людей на 100%. Трудно представить совещание, где директор распределяет задачи между десятью моделями ИИ — всё равно нужны люди, которые понимают контекст, принимают решения и оценивают результат. В конечном счёте именно живые специалисты могут отличать хорошее от плохого, спрогнозировать, «зайдет» креатив или нет.
Да, ИИ можно научить повышать вероятность удачного результата, но работать в категориях «сделай классно» или «сделай смешно» ему всё ещё трудно. И в этом пространстве человеческий вкус и насмотренность остаются решающим фактором.
Как трансформируются гуманитарные профессии в будущем?
Точного рецепта нет, но ясно одно: фундамент должен состоять не только из способности обращаться с нейросетями, но и личные soft skills. Студенты должны постоянно отслеживать изменения, осваивать новые инструменты и думать, как встроить их в свою работу. Иными словами — непрерывно учиться и уметь работать с инновациями.
Вторая важная компетенция — критическое отношение к результатам ИИ. Если вы не эксперт в теме, проверка фактов обязательна, да и экспертность зачастую не является индульгенцией от ошибок. Естественно, что проверки требуют времени, но сегодня это необходимость. Пока ещё не создан такой инструмент, который всегда оказывается точнее специалиста и не требует контроля.
Пять лет назад многие ожидали, что к 2025 году ИИ станет «полноценным интеллектом», которому можно доверять безоговорочно. Но что мы видим сегодня? Да, модели стали работать быстрее, но ошибки, галлюцинации и подмена фактов никуда не делись.
Думаю, что путь к надёжным результатам лежит через минимизацию галлюцинаций. Если бизнес увидит экономическую выгоду в этом направлении, нейросети будут переобучены и смогут признавать свои ограничения, сообщать: «нет уверенности в результате, обязательно проверь» или «мне нужно уточнение задачи, чтобы ответить». То есть в большей степени вести себя как человек, который сомневается и проверяет факты. Но пока таких систем нет, поэтому ответственность за достоверность информации продолжает оставаться на человеке.
Статья написана по материалам интервью с Чеховичем Юрием Викторовичем, кандидатом физико-математических наук, экспертом в области академической этики, машинного обучения и ИИ, заведующим лабораторией №42 в ИПУ РАН и основателем сервиса интеллектуальной проверки академических работ «Думейт».
Чему университеты должны учить гуманитариев в эпоху ИИ