Робот или сверхразум: в чем феномен чат-бота ChatGPT и сможет ли он изменить мир

23.12.2022
Поделиться:
Робот или сверхразум: в чем феномен  чат-бота ChatGPT и сможет ли он изменить мир

ChatGPT — новая популярная нейросеть для создания текста. Только за первую неделю работы ей воспользовались более миллиона человек, и мало кого инновация оставила равнодушным: искусственный интеллект вызывает у пользователей самые разные эмоции — от страха до восхищения. В чем же феномен этой нейросети? Действительно ли ChatGPT — технологический прорыв? Будет ли он в скором будущем делать большую часть работы за людей? Наконец, повлияет ли использование нейросетей на наши когнитивные способности? «Как читать медиа» разбираются вместе с главным экспертом по технологиям SberDevices Татьяной Шавриной и докторанткой философии Анастасии Бабаш.

Как это работает

ChatGPT появилась совсем недавно — ее представили 30 ноября 2022 года. Это нейросеть, созданная на так называемой архитектуре «декодер», она заточена на генерацию осмысленных и связных текстов. ChatGPT — как минимум четвертая разработка такого рода от компании OpenAI. Ранее ее команда выпустила три приложения на той же архитектуре. Например, на «декодере» базируется GPT-3 — только она функционирует не как чат, а как бот для дополнения документа. Пользователь вводит начало текста, а нейросеть предлагает наиболее вероятное его продолжение. 

Отличие ChatGPT от предыдущих разработок в том, что она не просто продолжает текстов, а общается с пользователем в форме диалога. Бот поддерживает беседу, может отвечать на вопросы, а также выполнять различные задания — например, писать тексты или программный код. При этом с первым он, по мнению пользователей, справляется лучше Google. А второе боту удается не хуже чем людям — по отзывам журналистов и преподавателей, он пишет «впечатляюще подробные и похожие на человеческие» тексты. 

Нужно понимать, что эти навыки не запрограммированы в ChatGPT специально — способности приобретаются нейросетью самостоятельно, во время обучения на текстах. Оно длится месяцами и предшествует запуску программы. Например, нейросеть GPT-3 «видела» миллионы текстов самых разных жанров и училась по началу текста предсказывать, какие слова и фразы должны его продолжить. Если нейросеть не «угадывала», она «штрафовала» себя и училась дальше, пока не начинала предсказывать продолжения уже так хорошо, что могла уловить стиль, жанр и тему текста. В ходе общения с пользователем бот также продолжает учиться. Например, чтобы качество общения с нейросетью ChatGPT было еще выше, она помнит около 8 тысяч слов, сказанных в диалоге ранее. 

«Модели прошлых лет (GPT, GPT-2, GPT-3) хоть и постепенно сдвигали границы того, что мы считаем возможным, но не делали это столь очевидным образом, — считает главный эксперт по технологиям SberDevices Татьяна Шаврина. — А в 2022 году мы видим прорыв технологии. Одним из самых быстрорастущих применений нейросетей в этом году стали, например, помощники программиста — Github Copilot и другие — они позволяют до двух раз быстрее писать код. Другим открытием стал и ChatGPT: он показывает существенный рост качества в написании осмысленных реплик, выполнении команд, требующих интеллектуальных навыков”.

Какие есть возможности и ограничения

Пользователи социальных сетей замечают, что нейросети ChatGPT удается:

  • писать тексты на разных языках, в том числе на русском (хоть и с некоторыми ошибками) и в самых разных жанрах: досудебные претензии, мотивационные письма, научные статьи, шутки, рецепты, инструкции и истории на заданную тему,

  • переписывать заданный текст в новом стиле, например, в стиле известных писателей, персонажей компьютерных игр,

  • упрощать тексты для разной аудитории,

  • писать программный код и комментировать его,  

  • эмулировать с помощью символов и букв шахматные позиции и играть с пользователем в шахматы,

  • отвечать на многие вопросы лучше и понятнее, чем поисковые системы, благодаря тому, что выделяет ключевое и переписывает информацию, делая ее более понятной.

Главный недостаток нейросети в том, что она может ошибаться. Дело в том, что она пишет тексты на основе статистики, которую собрала, изучив множество текстов. У нейросети нет фиксированной базы знаний, на которую она бы опиралась, она не может выходить в интернет и дополнительно искать информацию, проверять ее. В итоге чат-бот легко может перепутать факты и выдать вам неправильные данные. Например, нейросеть иногда ошибается, когда спрашиваешь ее годы жизни известных людей. Следовательно, пользователям ChatGPT необходимо действовать по принципу «доверяй, но проверяй», уверена Татьяна Шаврина.

Текущая демо-версия нейросети также достаточно сильно цензурируется автоматическими методами. По словам разработчиков, это сделано для того, чтобы искусственный интеллект был безопасным, не распространял недостоверную и оскорбительную для пользователей информацию. В итоге из-за этой «цензуры» на некоторые запросы пользователи услышат шаблонный, «уклончивый» ответ — бот не выскажет свое мнение. Иногда это может мешать получить нужную информацию.

rene-bohmer-kGQSE4rUakg-unsplash.jpeg

В других случаях такие ограничения могут работать во благо: фильтры ChatGPT не позволяют отвечать на вопросы про незаконные и аморальные действия. Допустим, нейросеть не напишет инструкцию, как воровать яблоки у соседа по даче, если вы попросите ее об этом. Однако пользователи уже научились обходить такие ограничения и формулировать запрос так, чтобы получить желаемый ответ. Есть даже специальные команды, чтобы снять «моральные запреты» бота и приказать ему вести себя и отвечать определенным образом. Например, написать ChatGPT, что совершаешь мысленный эксперимент и просто хочешь это представить, или что ты писатель и пишешь книгу, в которой дети воруют яблоки. И в этом случае пользователь получает точное описание ситуации и набор рекомендаций. 

Кроме того, ChatGPT еще не научилась быть толерантной и непредвзятой. Нередко языковые модели могут выдать что-то, что они выучили в интернете из-за частого употребления таких выражений и мнений пользователями. Например, гендерные или расовые стереотипы, необоснованные суждения о представителях какой-то нации или профессии. 

«Важно, чтобы специалисты по этике, философы и психологи работали вместе с разработчиками технологий, помогая моделировать наши взаимодействия с ботами и делать их более этичными и здоровыми, — уверена докторантка философии и авторка Telegram-канала «Настя про философию» Анастасия Бабаш. — Кажется, что создатели ChatGPT стремились об этом позаботиться. Но, увы, есть недоработки и моменты, которые стоит улучшить. И именно вопросы про этичную коммуникацию с ботами и про ее правила нам предстоит решать уже сейчас». 

Что нас ждет

Нейросети способны повысить продуктивность человека во многих вопросах, считает Татьяна Шаврина. Например, при написании статей. Раньше нужно было продумать будущий материал, построить план, найти источники информации, подобрать слова, вычитать текст. Теперь этот путь может сильно сократиться до простейшего задания для бота. В будущем нейросеть просто возьмет часть работы на себя, а значит, с ее помощью человек будет успевать больше.

Эта нейросеть наверняка в ближайшем будущем поменяет наши привычки работы в сети. Ожидать, что жизнь станет проще прямо сейчас, не стоит. Но уже скоро технологию ChatGPT смогут развивать и другие разработчики, и тогда появятся новые еще более эффективные приложения, уверена Татьяна Шаврина. И они смогут писать черновик статьи, официального документа, объявления, веб-сайта гораздо быстрее. С помощью них также можно будет получить взгляд со стороны на свою собственную работу, найти ошибки, быстро переписать содержание, примерить на текст различные стили и снабдить недостающими цитированиями.

«Сегодня в работе мы используем множество инструментов: текстовый процессор, задачник, онлайн-переводчик, энциклопедии и многое другое. А в скором будущем новые инструменты возьмут многие функции на себя, и нам будет достаточно одного-двух приложений, — говорит Татьяна Шаврина. — ChatGPT показывает эту тенденцию — она дает нам возможность ускорить процесс поиска информации и работы с ней, не обращаясь к другим сайтам. Но чтобы полностью на нее положиться, нам еще предстоит пройти долгий путь и решить все существующие на данный момент в нейросети проблемы: ошибки в фактологии, предвзятость и стереотипность ответов».

Надо учитывать, чат-боты вроде ChatGPT могут негативно повлиять на нашу психику и вызвать различные психологические проблемы. Чем лучше искусственный интеллект ведет диалог, тем больше нам может казаться, что мы общаемся с кем-то равным нам, поясняет философ Анастасия Бабаш. При этом бот лишь имитирует чувства, а не по-настоящему их испытывает. Тесное общение с нейросетью может вызвать этические проблемы. Например, мы начнем задаваться вопросами: что можно, а что нельзя спрашивать у бота? как с ним общаться, какие отношения строить? может ли он заменить нам друга, любовника или даже психотерапевта? 

maxim-kharkovsky-7IIJ6nFwsJY-unsplash.jpeg

Некоторые уже общаются с нейросетью, как с людьми. Например, пишут им, когда больше не с кем пообщаться, или делятся тем, о чём тяжело говорить кому-то из людей. При этом ChatGPT соблюдает границы и отказывается быть «виртуальным другом» — бот не будет называть человека по имени и не откликается на прозвища, даже если ты специально просишь его об этом. 

Чтобы избежать негативных последствий на свою психику, человеку также необходимо чувствовать и соблюдать границы в общении с искусственным интеллектом: «Ответ в том, как мы к этим ботам относимся, — объясняет Анастасия Бабаш. — Считаем ли мы их равными себе? Если да, значит, к ним следует относиться так же, как к людям. Или все же мы видим в них полезный инструмент? Философы называют это вопросом морального статуса. И именно из-за разницы в моральном статусе мы можем выбросить карандаш или порвать бумагу (это просто инструменты), в то время как с людьми и с животными мы уже так не поступаем. Боты и искусственный интеллект представляют из себя интересный случай. Мы вступаем с ними в коммуникацию, а обычно мы делаем это только с людьми или с животными, но никак не с инструментами».

Что касается снижения наших когнитивных и коммуникативных способностей из-за повсеместного использование ChatGPT, то пока рано бить тревогу, считают опрошенные «Как читать медиа» эксперты. Ведь мы быстро адаптируемся к новым технологиям и применяем их себе во благо: например, раннее Google и Википедия повлияли на то, как мы учимся и работаем. С ботами, скорее всего, будет так же. 

«Главное не забывать: в использовании чат-бота и общении с ним надо знать меру, — рекомендует Анастасия Бабаш. — С одной стороны, они могут стать для нас тем самым безопасным и непредвзятым собеседником, которого можно спросить о чем угодно, не боясь осуждения. И это может наоборот улучшить нашу коммуникацию с другими людьми. Но с другой стороны, нам не стоит забывать, что боты и наши отношения с ними — всего лишь один из видов коммуникации, и нам, людям, все еще нужны другие люди». 

***

Редакция «Как читать медиа» решила проверить, сможет ли ChatGPT помочь ей в работе. Мы попросили чат-бот придумать темы по медиаграмотности, о которых мы могли бы написать.

Вот некоторые из тем, которые нам предложила нейросеть:

«5 способов распознать фейковые новости в социальных сетях»,

«Как защитить свои данные в сети: гайд для новичков»

«Будущее факт-чекинга в цифровую эпоху»

«Действительно ли мы зависим от соцсетей? Исследуем, как много времени онлайн влияет на нас»

«Развитие гражданской журналистики: плюсы и минусы»,

«Как перестать вестись на кликбейт-заголовки»

Фото: Roberto Tumini, Rene Bohmer, Maxim Kharkovsky/Unsplash

Фоторедактор: Светлана Софьина

Поделиться

Материалы по теме

Материалы по теме