Опасности сверхинтеллекта: как нейросети меняют академическое образование и рынок труда

Недавно студент РГГУ за сутки написал диплом с помощью нейросети Chat GPT и успешно его защитил. Молодой человек рассказал об этом в соцсетях — и столкнулся с тем, что на его уловку написали жалобу руководству университета. Правда, все ограничилось беседой — студент благополучно выпустился, и диплом аннулировать не стали.
В учебе и на работе нейросети используют уже давно. Нередко люди создают ложные профили в соцсетях и резюме с помощью чат-бота, генерируют фотографии и даже синтезируют голос для прохождения собеседования. Получается, нейросети могут формировать искусственную репутацию, писать академические работы и выполнять рабочие задания за человека. Но законно ли использовать их во всех этих целях? И не переоцениваем ли мы потенциал чат-ботов? Могут ли они действительно в будущем заменить человека или останутся только незаменимыми помощниками, как уже стали другие онлайн-инструменты? Вместе со специалистом по искусственному интеллекту, лингвистом, HR-директором, юристом и методистом в сфере образования рассматриваем проблему с разных сторон.
Как это работает сейчас
Получается, можно эффективно использовать чат-бот в первую очередь для реферирования — при такой работе вы находите чужие мысли и «вылавливаете» свою идею для повествования. То же самое способен сегодня делать и искусственный интеллект, при этом у него есть доступ к большему количеству знаний, чем у любого пользователя — по сути, ко всем данным из интернета. Нейросеть также может переформулировать созданный ранее текст, написать на основе заданных человеком данных относительно небольшой и несложный материал вроде анонса, письма, заметки, сводки. Например, соискатели могут обратиться к нейросети, чтобы та помогла выполнить тестовое задание и отредактировала их резюме.
Но важно понимать, что для любой работы чат-бота все равно необходимо участие человека — он должен «вести» нейросеть. Например, студент, который создал выпускную работу с помощью Chat GPT, указал чат-боту, какие в тексте должны быть разделы, построил план; обозначил субъект и объект исследования; задал нужные вопросы. Если чат-бот писал недостаточно раскрывает какой-то вопрос, студент может дать задачу расширить каждый из тезисов, добавить между ними дополнительную информацию, цитаты, исследования И чат-бот, отталкиваясь от всего этого, делает такую же работу, как если бы студент сам искал информацию в сети, брал ее из разных источников и переписывал. Но, обратившись к искусственному интеллекту, студент значительно ускоряет эту рутинную работу. В итоге в ВКР выпускника РГГУ, о котором мы говорили во вступлении, было 82% оригинальности. Поэтому решение выпускной комиссии не отменили даже после того, как молодой человек признался в использовании ChatGPT.
Как показывают опросы, студенты и преподаватели за рубежом уже внедрили новую технологию в свою повседневную жизнь. В опросе, проведенном журналом Intelligent, 30% студентов американских вузов признались, что использовали ChatGPT в выполнении письменных заданий. А согласно исследованию Impact Research, 22% студентов используют чат-бот раз в неделю или чаще, в том числе для написания курсовых работ. Зарубежные педагоги тоже признаются, что активно используют нейросеть: пишут с помощью нее электронные письма родителям, составляют планы уроков, придумывают тесты и другие задания для учащихся. Правда, в некоторых учебных заведениях использование ботов и нейросетей, напротив, под запретом.
«Это действительно большой прогресс. Именно такие возможности нейросети порождают теории о “революции”, изменении всех существующих и привычных нам порядков, — уверен Илья Макаров. — Но важно понимать, что технология пока работает со множеством проблем: чат-бот может генерировать абсурд, а еще у него есть этические ограничения, и одновременно способы их обойти. Это значит, что к нейросети следует относиться с осторожностью, как и к любой новой технологии. Не стоит всецело доверять ответам чат-бота. На данном этапе включение в работу человека актуально: сгенерированный контент следует внимательно вычитывать и редактировать».Например, защитивший ВКР с помощью чат-бота московский студент рассказывал, что изначально план работы предложил ему сам ChatGPT. Но научная руководительница этот вариант отклонила: он не подходил по методическим рекомендациям. В итоге студент сам переписал план по шаблону из методички. Пришлось также перепроверять источники, на которые ссылалась нейросеть: она предлагает не только достоверную информацию, но и выдумывает собственную, и порой эти два сценария смешиваются. ChatGPT может рассказывать даже абсолютно несуществующие факты и ссылаться на выдуманные источники — а человеку нужно увидеть эти фрагменты и потом еще переписать их. Поэтому финальный вариант работы студенту пришлось сильно отредактировать: привести к единой структуре, поменять формулировки, поправить примеры из исследований.
Другой важный момент — в сгенерированном чат-ботом нет и не может быть теоретической новизны. А дипломные работы и диссертации, научные статьи и творческие материалы предполагают именно это: выдвижение гипотез, которые надо проверить, анализ данных и разработку собственных идей. Обученный на огромном количестве данных, алгоритм понимает, что за одним словом и предложением следует другое, составляет связный текст. Но, в отличие от человека, не может превратить это в новое знание.
«Это проблема, которая концептуальна не решена, — рассказывает лингвист, доцент НИУ ВШЭ, соосновательница коммьюнити DH-CLOUD. Анастасия Бонч-Осмоловская. — Да, чат-бот не повторяет “копи-пэйстом” взятое из сети: сама архитектура сети устроена так, что внутри нее есть механика, которая преобразует собранную информацию и по-своему выстраивает ее. Таким образом, например, обходится антиплагиат. Но научная или творческая работа содержит инсайт, прозрение, в этом ее суть — что-то новое открыл, по-новому классифицировал, описал явление или проблему. А Chat GPT пока что не умеет этого сделать».Что (не) изменил чат-бот
Цифровые технологии редко создают совсем новые сценарии, гораздо чаще они используют уже имеющиеся, уверена Анастасия Бонч-Осмоловская. Они могут их упрощать или ускорять, но не более того. Например, в фейк-резюме или дипломной работе, написанной не самостоятельно — нет никакого нового сценария, люди делали подобное и раньше. Менялся только способ: сначала списывали от руки, потом копировали из интернета, теперь же достаточно сделать запрос чат-боту.
Понятны и все методы, которые этому противодействуют. Например, для проверки академических работ придумали антиплагиат. Но никакие системы для проверок на заимствования не дают 100-процентного эффекта. Обходы все равно были и есть - например, существуют программы для перефразирования, которые “обманывают” антиплагиат, есть люди, которые пишут авторские научные работы на заказ и продают их. Разница теперь может быть только в том, что у этих людей появился конкурент в виде искусственного интеллекта. А для выявления того, был ли использован ИИ в работе, возможно, понадобится отдельная нейронная сеть ( и кстати, такие уже существуют и неплохо себя показывают).
«В России появление такого искусственного интеллекта, как Chat GPT, не меняет кардинально ситуацию в сфере науки и образования, а только обращает внимание на уже давно существующую и остро стоящую в стране проблему, — считает Анастасия Бонч-Осмоловская. — Регулярно защищается много либо созданных не самим автором, либо не имеющих никакой научной ценности работ. Последние не открывают ничего нового, только повторяют другими словами уже сказанное кем-то. Написано ли подобное человеком или чат-ботом, не имеет значения. Проблема в том, что в принципе можно написать и защитить подобное”.
Что касается упрощения старых сценариев — чат-бот может быть вполне полезен в написании научных работ. Он способен быстрее человека написать обзорную часть — ту, которая строится на анализе литературы более ранних исследований. А главный возможный положительный эффект чат-бота — это оптимизация рабочих процессов. GPT позволяют автоматизировать многие простые задачи и освободить время сотрудников для более сложной работы. Например, пресс-релизы, биржевые сводки, заметки с прогнозом погоды уже сейчас могут создаваться с помощью чат-бота — качество таких материалов высокое, и это действительно новшество: ранее искусственный интеллект не создавал настолько связные тексты.
В связи с использованием нейросетей как никогда обязательны собеседования, уверена Валерия Мазанова. Задача HR-специалиста при встрече — «прощупать», каких результатов кандидат добивался на самом деле и что он сможет делать на новом месте. Если за резюме, составленным чат-ботом, ничего нет, хороший HR-специалист это заметит и не предложит работу такому человеку. Но, конечно, случаи, когда кандидат умело «продает» себя на собеседовании, а на самом деле ничего не умеет, бывали и раньше. Тогда соискателя могут пригласить на работу, но всё встанет на свои места в первый месяц работы. Получается, обращаться к чат-боту за помощью, не обладая реальными знаниями и экспертизой, не имеет смысла: без необходимых навыков человек все равно не сможет работать на полученной должности.
А это вообще законно?
Важно понять, что создавать объекты авторского права с помощью нейросети нельзя, обращает внимание глава юридической практики Роскомсвободы, управляющий партнер DRC Group Саркис Дарбинян. То есть пользователь не может запатентовать, подписать собственным именем и распространять в коммерческих целях сгенерированное чат-ботом изображение как объект авторского права. На это есть несколько причин: во-первых, автором объекта авторского права может быть только человек; во-вторых, невозможно определить творческий вклад в сгенерированное нейросетью. Участвовал ли вообще пользователь в генерации, или чат-бот сам работал по принципу «черного ящика»?
Не менее важный момент — это использование нейросетью объектов чужого авторского права. Чат-бот обращается для создания контента к различным материалам в сети — среди них есть объекты авторского права третьих лиц. И в случае коммерческого использования этих материалов вы нарушаете исключительное право третьих лиц. Кроме того, раз в создании нового продукта используются чужие объекты авторского права, то результат работы нейросеьи может быть признан юристами производным произведением. А создание такого произведения требует согласия изначального правообладателя. Например, если некий пользователь набирает базу из 1000 чужих фото, на основе них делает свой продукт и выкладывает его в соцсеть как арт-проект — это на самом деле неправомерное использование чужого объекта авторского права.
Некоммерческое использование же объектов чужого авторского права допустимо. В РФ оно регулируется в рамках так называемого свободного использования. Получается, правомерная работа чат-бота возможна только при использовании работ, которые находятся в общественном достоянии или распространяются по модели свободных лицензий.
В реальности на эти правила пока мало кто обращает внимание. Так, один из пользователей ChatGPT создал бот Эдуарда Лимонова, который говорил, как писатель, на основе его записей и книг. Это нарушение исключительного права автора или правообладателя (ст. 1229 ГК РФ). По факту, правообладатель может подать на пользователя, создавшего бот, в суд. Зато создать бот, например, Александра Пушкина на основе его дневников и писем, можно — все эти произведения находятся в общественном достоянии.
То же самое касается и музыки, написанной нейросетью. Допустим, мы вы загрузили в чат-бот треки известной группы, и на их основе нейросеть «написала» свой альбом — как, например, еще семь лет назад случилось с творчеством «Гражданской обороны». Легально это будет только в случае свободного, некоммерческого использования. Получать с этого произведения выгоду — незаконно. При этом есть хитрость — некоторые создатели конечного продукта могут не раскрывать исходники, то есть эмпирическую базу для обучения нейросети. В таком случае доказать неправомерное использование и нарушение прав автора первоначального произведения может оказаться непростой задачей. Практических примеров такой юридической борьбы практически нет.
«Само по себе использование Chat GPT не противозаконно, особенно когда речь идет о некоммерческом использовании. Право по большей части технологически нейтрально и неважно, используете ли вы ChatGPT в какой-либо деятельности или нет, — объясняет Саркис Дарбинян. — Например, фейковые фото и резюме могут регулироваться в рамках гражданско-правовых отношений, только если стороны поставили предоставление фотографий или резюме в качестве юридических значимых условий или же это была частью заверений об обстоятельствах».С другой стороны, подчеркивает юрист, — ничего не мешает нам и без всяких нейросетей общаться с работодателем по электронной почте или через мессенджер, используя не свое изображение, а чужую картинку или аватар.
Чего ждать в будущем
Нейросеть с такими возможностями, как у Chat-GPT, может поменять профессиональные алгоритмы и академические стандарты, уверена методист проекта «Как читать медиа?» Ксения Лученко. Чат-бот вскоре может стать онлайн-помощником, ускоряющим и облегчающим работу людей, как уже стал, например, Google-переводчик. Даже профессионалы используют эту программу, затем тщательно сверяя с оригиналом и редактируя полученный текст. Так же успешно и удобно это может работать у специалистов разного профиля и с ChatGPT.
В академической сфере могут не запрещать использовать нейросеть, а, например, признать необходимым указание — «работа выполнена с использованием ИИ». Так уже делают в нидерландском университете Неймегена: на сайте вуза студентов предупреждают, что «использование текста или программного кода, сгенерированного ChatGPT, без упоминания об этом считается плагиатом».
Участие человека в работе нейросети, скорее всего, вскоре станет еще меньше. Например, сейчас фактура написанного чат-ботом нуждается в серьезной проверке, а ошибки подобного рода могут дорого стоить специалисту — за них своим именем отвечает он, а не искусственный интеллект. Но с новыми доработками нейросети, ситуация может улучшиться, уверена Анастасия Бонч-Осмоловская. Уже скоро создаваемый ботом текст станет намного надежнее — хотя человек не будет полностью исключен из процесса, ему в любом случае нужно будет проверять и редактировать сделанное ИИ.
На рынке труда некоторые специалисты действительно уже скоро могут стать невостребованными — работу за них быстрее и дешевле сделает нейросеть. Прежде всего это касается специальностей, которые подразумевают рутинные, повторяющиеся задачи. Например, нейросеть может делать машинный перевод бульварных романов и даже писать подобные вместо гострайтеров. Но на замену исчезнувших профессий появятся другие специальности и рабочие места - так это работает всегда, уверена Анастасия Бонч-Осмоловская. Можно вспомнить, что еще в середине 20 века профессия машинистки была очень востребована, а сегодня такого специалиста не предусматривает ни одна организация. Зато до 1960-х не было «айтишников», а с 1990-х годов их становится все больше и больше.
«Нейросеть может взять на себя работу, построенную на алгоритмах. Но везде, где важна человеческая составляющая, люди незаменимы. Например, хороший карьерный консультант проводит глубинное интервью, помогает в профориентации, добирается до опыта, сильных сторон, в том числе личных качеств, человека. ИИ пока не может делать такого, — объясняет Валерия Мазанова. — Кроме того, всегда будут востребованы профессионалы, которые решают проблемы на более сложном уровне. Например, HR-специалист, знающий нюансы трудового кодекса, погружен в проблему и обладает опытом, которого нет у нейросети. А значит, чтобы «остаться на плаву» и не быть вытесненным с рынка труда искусственным интеллектом, необходимо обладать квалификацией и повышать свою экспертизу».Выходит, нейросеть сможет упростить некоторые процессы, но полностью освободить человека от работы у нее не получится. Все также упирается в креативность, которая нужна во многих сферах, полагает Анастасия Бонч-Осмоловская. Например, мы читаем авторскую колонку и хотим узнать, что думает определенный человек, а не робот. Что уж говорить о качественной художественной литературе — в ней тем более важна индивидуальность не только автора, но и переводчика. Машины здесь не справятся.
«Новые технологии часто в первое время воспринимаются нами как магия. В нас просыпается какое-то средневековое отношение к машине как к волшебной палочке, — говорит Анастасия Бонч-Осмоловская. — Глупо было бы отрицать революционность происходящих сейчас изменений: ты можешь получать от ИИ внятные тексты. Разработчиками действительно преодолены многие проблемы, которые были с нейросетями раньше. Но по факту чат-бот лишь воспроизводит общие места, складно повторяет то, что уже наговорили и написали люди. И полностью заменить человеческий интеллект искусственным сейчас невозможно, и вряд ли это получится в будущем».
Материалы по теме
Материалы по теме
