«Ценность работы художника может рухнуть». Как изменят нашу жизнь генеративные нейросети — Midjourney и другие

«Ценность работы художника может рухнуть». Как изменят нашу жизнь генеративные нейросети — Midjourney и другие

Представьте, что у вас появилась фотография давно покойной прабабушки вместе с вами на тусовке в ночном клубе. Или даже видео, где вы вместе танцуете и обсуждаете известного политика. Он, кстати, тоже здесь — в роли диджея. Сегодня самые смелые фантазии могут быть визуализированы благодаря генеративным нейросетям. За 2022 год они перестали быть объектом интереса только людей из технологической сферы и захватили массовую аудиторию. Например, на конец 2022 года у приложения DALL-E 2 было более 1,5 миллиона пользователей, ежедневно создававших около 2 миллионов изображений, а официальным сервером нейросети Midjourney в Discord пользовались более 3 миллионов человек. В марте 2023 года создатели Midjourney анонсировали уже пятую версию нейросети.

«Как читать медиа» разбирается, как вообще возможно сгенерировать картинку, неотличимую от фотографии или очень хорошей графики — и как изменится наша жизнь, если эти технологии пойдут еще дальше.

Лошади, зебры и лица несуществующих людей

Генеративные нейронные сети способны создавать изображения, которые ранее не существовали. Их развитие можно отсчитывать от 2014 года, когда команда исследователей во главе с Яном Гудфеллоу опубликовала статью, в которой предложила новый подход к генеративным моделям, названный GAN (генеративно-состязательная сеть). Этот принцип предполагает две связанные нейросети, имеющие разные задачи: одна — генерирует объекты, а вторая — оценивает их и решает, какие из объектов сгенерированные, а какие нет. 

Первую нейросеть сначала обучают на большой выборке картинок, показывая изображения и «подписи» к ним, а затем дают задачу создать изображения по случайному набору описаний. Эти изображения смешивают с настоящими изображениями и дают на вход второй нейросети, которая должна указать, насколько она уверена в том, что изображение настоящее. После большого количества итераций обе нейросети, соревнуясь, начинают все лучше выполнять свои задачи, вместе с тем улучшая качество сгенерированных изображений.

Предложенный подход стал активно использоваться в научном сообществе, и на его основе стали появляться новые модели. Одной из первых была нейросеть CycleGAN. В 2017 году программисты из Калифорнийского университета в Беркли, США, научили эту нейросеть превращать картины, написанные маслом, в реалистичные фотографии, и наоборот, а также заменять их элементы: например, лошадей на зебр, а летний пейзаж — на зимний. 

Параллельно с этим появилась нейросеть, способная превращать в объемный портрет набросок, сделанный в фоторедакторе. А в начале 2018 года разработчики Microsoft создали модель, позволяющую генерировать изображение по текстовому описанию (промпту). Прежде нейросети в основном работали по принципу переноса: их учили изменять изображение, повторяя стиль из другой однородной выборки (например, понимать принципы цветных изображений для окрашивания черно-белых фотографий) или подменять присутствующие на картинке объекты на основе коллекции загруженных вариантов.

Исследования в этой области начинали привлекать к себе все большее внимание со стороны крупных компаний и пользователей. Первым по-настоящему заметным проектом стал сайт thispersondoesnotexist, запущенный в феврале 2019 и набравший миллионы посетителей за несколько недель – пользователи могли за секунду получить лицо несуществующего человека.

Его создатели использовали наиболее популярную на тот момент модель StyleGAN, тоже основанную на принципе соединения двух нейросетей: генерирующей и оценивающей. Отличительной особенностью было то, что сначала картинки производились в очень маленьком разрешении, потом оно увеличивалось — и параллельно в изображение добавлялись новые детали. Модель позволяла например, создать психоделический комикс про Гарфилда или заменить породу собаки на фото. Но часто небольшие детали (шумы) выдавали, что это не творение человека. В проекте с несуществующими лицами эту проблему удалось решить — портреты получались очень реалистичными.

Вскоре в сети появились призывы ограничить работу подобных сайтов из-за нескольких рисков. Во-первых, были случаи, когда сгенерированное лицо получалось практически идентичным лицу реального человека. Во-вторых, мошенника, пользующегося сгенерированной фотографией, нельзя найти через поиск по картинке (это вызывает ложное чувство безопасности). В-третьих, при онлайн-мошенничестве в преступлении могут обвинить реального человека, похожего на сгенерированную картинку, который не будет иметь к произошедшему никакого отношения. Однако пользоваться сервисом можно до сих пор, никаких ограничений или запретов не было принято.

Брейк-данс Дарта Вейдера и Гарри Поттер в СССР

Сейчас ключевые игроки на рынке генеративных нейросетей — DALL-E, Midjourney и Stable Diffusion. Их работа построена уже не на принципе генеративно-состязательных сетей, а на методе обратной диффузии: у исходных изображений стираются детали (к ним постепенно добавляется так называемый гауссовский шум), а затем нейросеть учится обратному процессу — синтезирует изображения из шума.  Чтобы не только воссоздавать исходные изображения из зашумленных, но и создавать картинки по запросу, модель также получает описания изображений. В результате текстовые запросы трансформируются в понятный для нейросети формат и затем используются для отображения нужных деталей. Исследователи OpenAI показали, что диффузионные модели попросту эффективнее генеративно-состязательных сетей для создания высококачественных картинок. 

В январе 2021 года компания OpenAI (та самая, которая создала ChatGPT) запустила нейросеть DALL-E — название ей дали в честь художника-сюрреалиста Сальвадора Дали и робота Валли. Она могла, например, предложить несколько вариантов изображения кресла в форме авокадо или сгенерировать пирамидку из разноцветных кубиков. Результаты были далеки от того, что мы видим сейчас, но модель уже могла создавать картинки, которые люди бы с удовольствием пересылали друг другу. Правда, довольно долго, до ноября 2022 года (к тому моменту уже была готова улучшенная версия нейросети DALL-E 2, способная создавать более реалистичные и детализированные картинки по описанию), открытого доступа у пользователей не было: все, что им оставалось — это вставать в лист ожидания доступа к закрытой версии.

Но еще до того, как доступ открыли пользователям создатели DALL-E 2, это сделал энтузиаст — ML-инженер из Хьюстона Борис Дайма. Он так вдохновился запуском DALL-E, что внимательно изучил опубликованную научную статью об этой модели и в июне 2022 года создал свой собственный проект на ее основе: приложение генерировало 9 изображений по текстовому запросу. Сначала оно называлось DALL-E Mini, но после требования OpenAI его переименовали на Craiyon. Благодаря открытому доступу сгенерированные этой нейросетью изображения стали пересылать в соцсетях в виде псевдодокументальных историй: например, о пьяных парнях без рубашек, бродящих по Мордору, или о брейк-дансе Дарта Вейдера, который зафиксировала камера видеонаблюдения. Из-за роста популярности подобных картинок у сервиса стало появляться все больше пользователей, и в какой-то момент сервер был перегружен: он обрабатывал до 50 тысяч запросов в день. Но вскоре эту цифру превысили пользователи двух других нейросетей: Midjourney и Stable Diffusion.

Вскоре на основе модели DALL-E возникли различные бизнес-проекты — например, онлайн-сервис для подбора одежды Stitch Fix. Он позволяет визуализировать предметы гардероба на основе определенных характеристик: цвета, материала, стиля — и помогает находить стилистам идеальный вариант под запрос клиента.

ИИ2_1.jpg

Иллюстрация: Анна Иванцова для КЧМ

Через месяц после релиза DALL-E Mini появилась открытая нейросеть Midjourney от одноименной компании — с ее помощью пользователи тоже могли самостоятельно генерировать изображения по текстовому описанию (промпту). Для этого нужно просто зайти в Discord и отправить свой запрос в чат-бот нейросети — основатели компании выбрали этот мессенджер из-за группового принципа работы платформы: по их мнению, люди охотнее фантазируют в группах. Запрос обрабатывается Midjourney около минуты, затем нейросеть предлагает на выбор 4 варианта изображений, которые можно скачать на устройство — или продолжить генерировать картинки, корректируя запрос.

Потоки картинок тут же полились в соцсети и СМИ. Там же стали распространяться рекомендации, как написать нужный промпт, чтобы добиться желаемого результата (некоторые проекты, например, ChatX, смогли даже монетизировать создание промптов для нейросетей по запросу клиента). Пользователи активно делились своими результатами взаимодействия с Midjourney — например, как они переносили в разные локации и эпохи персонажей «Гарри Поттера»: от киберпанка и СССР до современной вечеринки (хотя большинство сгенерированных картинок, так или иначе, касаются политики — так на одном из недавних сатирических комиксов, созданных в Midjourney, Дональд Трамп ест лаву). А с появлением ChatGPT в ноябре 2022 книжные онлайн-магазины заполонили книги, написанные и проиллюстрированные с помощью нейросетей. Кроме того, тысячи изображений, созданных нейросетями, появились в фотобанках. После этого некоторые из них задумались о сотрудничестве с их создателями — в частности, Shutterstock объявил о партнерстве с OpenAI и запустил инструмент для создания изображений на своей платформе.

Пятая версия Midjourney позволила делать персонажей еще более реалистичными и наконец решила проблемы с изображением рук: в прошлых версиях на одной кисти часто было 6 пальцев и больше. При этом глава компании Дэвид Хольц комментировал, что Midjourney стремится сохранять в изображениях живописную эстетику — его беспокоило огромное количество фейков, которые провоцируют слишком реалистичные сгенерированные изображения. Задача нейросети, по словам Хольца, — предлагать инструменты, чтобы раскрыть творческий потенциал обычных людей.

Диджитал-художник Елизавета Самсонова вспоминает, что узнала о Midjourney в январе 2023 года благодаря знакомому: он выложил сгенерированные и стилизованные под пленочные снимки изображения в соцсетях. «Оказалось, что нейросети — это крутейшая тема как минимум потому, что они генерируют то, что придумал пользователь, за минуту, — говорит она. — Иногда приходится очень долго формулировать запрос, чтобы получить нужный свет или цвет, нужную композицию и т.д. Но все же можно вообще не уметь рисовать, не представлять, что такое перспектива и композиция, но буквально из своей головы визуализировать все, что угодно — фантастически быстро. Я никогда не ходила в «художку» и всегда мечтала, что когда-то появится некая возможность воплощать картинки в голове в реальные — и вот эта возможность появилась».

В августе 2022 года, в открытом доступе появилась новая модель —  Stable Diffusion от компании Stability AI. В отличие от Midjourney и DALL-E пользователи получили возможность работать с исходной моделью (кодом) и адаптировать ее под свои нужды. Тем, кто не хочет или не умеет переносить код в свои проекты, создатели открыли доступ к онлайн-платформе DreamStudio, которая работает по принципу Midjourney в Discord. За три месяца код скачали и использовали более 200 тысяч человек, а общая аудитория Stable Diffusion превысила 10 миллионов ежедневных пользователей — например, в веб-версии 1,5 миллиона активных пользователей за пару месяцев создали 170 миллионов изображений.

Художник SUNMELDINO рассказывает, что использует в своей работе три основные генеративные нейросети, но Stable Diffusion больше всего привлекает его своим подходом к доступности кода. Он в том числе занимается с командой проектом децентрализованной галереи на блокчейне, и технологии этой модели органично туда вписываются.

Правда, почти сразу после релиза Stable Diffusion пошли разговоры о запрете нейросети (как и в случае с лицами несуществующих людей). Все из-за открытости кода: компания не вмешивалась в его применение в сторонних приложениях. В них пользователи могут легко отключать запрет, например, на генерацию жестоких или порнографических сцен либо изображений, нарушающих авторские права. В связи с этим политик из Калифорнии Анна Эшу написала в федеральные ведомства жалобу о том, что через Stable Diffusion создавали графические изображения «жестоко избитых азиатских женщин», назвав такое использование нейросети «небезопасным». Однако, основатель и исполнительный директор Stability AI Эмад Мостак отказался накладывать ограничения на контент, который генерируют пользователи. «Мы доверяем людям и сообществу», — отметил он.

В январе 2023 года Google Research опубликовал результаты модели Muse, позволяющей как создавать изображения, так и редактировать их с помощью нейросетей. Авторы утверждают, что модель создает изображения в 3 раза быстрее модели Stable Diffusion. Модель позволяет добавлять в выделенную область изображения любой объект: например, встроить гигантскую резиновую утку в городской пейзаж так, что она выглядит естественной частью изображения. Другая фишка модели – достраивание изображения вокруг одного элемента. По смыслу эти особенности модели заменяют ручное редактирование изображений в Photoshop.

Плюшевые мишки, пьющие воду из стакана и рисующие автопортрет

Следующий шаг после создания картинок — генерация видео. Прообраз таких роликов — так называемые дипфейки. Это видео с измененными элементами, чаще всего, с чужими лицами, наложенными на фигуру человека, или с реальными лицами, у которых иначе двигаются губы, воспроизводя слова, которые человек не говорил (такая технология называется lipsync). 

Первые дипфейки появились еще в 2018 году: лица известных людей накладывались на порно-ролики. Для создания дипфейков стали использовать  генеративные нейросети — в частности, StyleGAN. Отчет 2020 года от компании Sensity показал, что в интернет загружено примерно 49 тысяч дипфейков, и более 95% из них были обнаружены на порно-сайтах. Мишенями для дипфейков стали многие актрисы и музыкальные исполнительницы, включая Эмму Уотсон, Натали Портман, Билли Айлиш и Тейлор Свифт — часть из них назвали это сексуальной эксплуатацией. Второе по популярности направления – ролики с политиками, которые занимаются неожиданными вещами: например, ведут стримы по Minecraft.

В 2020 году писатель и продюсер Дэниэл Хабиб запустил проект QuickVid, который специализируется на генерации коротких видео (на данный момент — Shorts на YouTube). Сейчас сервис способен нарезать фоновое видео из стоковой библиотеки, написать для него сценарий на тему, предложенную пользователем, наложить изображения, сгенерированные DALL-E 2, и добавить к видео закадровый голос или музыку. По словам основателя, QuickVid дает инструменты для быстрого и легкого создания качественного контента и снижает риск выгорания его создателей.

А в сентябре 2022 года произошел прорыв в создании видео на основе диффузионных моделей: компания Meta (организация запрещена в РФ и признана экстремистской) запустила нейросеть Make-a-Video. Благодаря обучению на огромном количестве видеоконтента она способна создавать по текстовому описанию реалистичные образы и соединять их в последовательные кадры. Так появились ролики, где плюшевый медведь рисует свой автопортрет или преподает детям в школе, а собака есть мороженое на фоне моря.

Через месяц в ответ на разработку Meta Google представил свою модель — Imagen Video. Ее особенность в том, что она может создавать ролики в разных художественных стилях — в частности, картин Ван Гога и акварельных рисунков — а также захватывать без искажения объекты под разными углами и с разного расстояния (например, имитируя съемку с дрона). 

Еще через пару месяцев компания выпустила другую нейросеть для генерации видео — Dreamix. Она позволяет не только создавать, но и изменять видео по запросу или создавать ролик из статичного изображения. Так по готовому пейзажу может прогуляться сгенерированный бурый медведь, а сфотографированный плюшевый мишка — пить воду из стакана.

Пока все эти модели закрыты для пользователей, некоторые из них научились покадрово создавать анимацию из сгенерированных картинок. Так, нейрохудожница и лектор Валерия Титова работает с обработкой видео, используя Stable Diffusion и другие проекты, созданные на его основе. Стала работать с нейросетями она стала в сентябре 2021 года, после онлайн-курса медиахудожника Бориса Вадима Эпштейна. К тому моменту Валерия занималась фотографией и хотела добавлять нейросетевые элементы анимации в свое творчество, но постепенно у художницы накапливались клиенты, и генерация видео стала приносить ей доход. «Я исполняю свою детскую мечту делать мультики — создавать какие-то движущиеся объекты», — говорит она, отмечая, что классическая анимация всегда казалась ей долгой и тяжелой, а для программирования не хватало навыков.

Валерия замечает, что при этом генерация видео занимает очень много времени: «Приходится смотреть, как работает нейросеть, править, подбирать референсы, пробовать настройки, пристреливаться делать свои эксперименты до того, как ты научишься работать с инструментом — новые инструменты выходят почти каждую неделю и все их нужно тестировать, чтобы применять в работе».

Параллельно с возникновением проектов, создающих видео из картинки или промпта, развивались технологии, позволяющие редактировать готовые видео и производить реалистичные дипфейки. Например, в январе 2023 года появилась модель VALL-E, которая позволяет генерировать голосовые записи предложенного текста, повторяющие голоса реальных людей — буквально по трем секундам исходной записи (раньше для этого нужно было загружать много часов исходного голоса). А ранее, в 2020 году — проект Tavus, позволяющий делать не только сгенерированную озвучку, но и lipsync (искусственное движение губ). Похожую технологию компании Synthesia и Hour One предлагают для бизнеса — пользователь выбирает себе сгенерированного «аватара» и пишет для него текст, а нейросеть создает ролик, где «аватар» произносит этот текст.

По сути, если соединить сгенерированные из текста видео, lipsync и голос — и можно будет с нуля создавать ролики с любыми людьми, выполняющими любые действия и говорящими любые слова. Если как в случае с Midjourney такие видео массово распространятся в соцсетях и медиа, очень качественные дипфейки будет практически невозможно отличить от контента, созданного человеком. Это открывает простор и для кэтфишинга, и для других видов мошенничества и злоупотреблений — например, уже сейчас есть попытки кандидатов обманывать работодателей на онлайн-собеседованиях. 

«Глобальный вызов, который связан с нейросетями, заключается в том, что люди к сожалению не умеют фильтровать информацию, — говорит Валерия Титова. — Нейросети производят много информации, Информации в целом и информации о нейросетях очень много и люди не понимают, чему действительно верить. Я говорю даже не о каких-то политических событиях, а о простых данных и инструкциях: например, как сварить гречку».

Запутанные авторские права

Дипфейки — не единственная проблема, о которой можно задуматься в связи с развитием генеративных нейросетей. Большая дискуссия разворачивается вокруг того, кому принадлежат авторские права на сгенерированные изображения и видео. Громким стал кейс диджитал-художницы Крис Каштановой, которая написала книгу «Заря рассвета», сгенерировав изображения персонажей с помощью Midjourney. В феврале 2023 года Бюро по авторским правам США не признало за ней авторские права на эти иллюстрации — по мнению властей, они распространяются только на текст и порядок размещения картинок в книге. При этом и сама художница, и, например, художник SUNMELDINO, считают, что роль человека в генерации картинок нельзя вычеркивать и отменять. «Я на стороне того, что права на сгенерированный контент должны принадлежать пользователю: он вложился в промпт. Но сейчас появляются фотостоки сгенерированных картинок с открытой лицензией — если пользоваться ими, проблем с авторскими правами будет меньше».

Руководитель юридического отдела компании Globus IT Дмитрий Губернаторов объясняет: статус авторских прав на сгенерированный контент пока невозможно интерпретировать однозначно. Ни одно действующее законодательство не содержит подобных разъяснений. «Пока единой позиции нет, поэтому на нынешнем этапе конструкция авторских прав в целом неприменима к объектам, созданным нейросетями: без соответствующих изменений в законодательстве искусственный интеллект пока может рассматриваться лишь как инструмент создания изображения», — говорит эксперт. По его словам, это характерно и для российской судебной практики: она отказывается рассматривать искусственный интеллект качестве субъекта правоотношений (пока ими могут являться лишь физические лица, юридические лица и государственные образования). Губернаторов добавляет, что ранняя зарубежная практика тоже рассматривала нейросети лишь в качестве инструмента, но кейс Крис Каштановой запустил новый виток обсуждения данной проблемы.

На практике в своих пользовательских соглашениях создатели нейросетей ничего не упоминают об авторских правах, а лишь устанавливают соответствующие «права использования результатов», полученных с помощью искусственного интеллекта. «Поэтому не стоит путать авторские права с правом использования полученных изображений, — подчеркивает юрист. — Второе является аспектом лицензионного соглашения, которыми и являются большинство Terms of Use». 

ИИ3.jpg

Иллюстрация: Анна Иванцова для КЧМ

Так, например, в Midjourney объем прав пользователя зависит от того, оплачивает ли он подписку или нет. В бесплатной версии ему предоставляется лицензия «Creative Commons Noncommercial 4.0 Attribution International (СС 4.0.)». Губернаторов объясняет, что эта лицензия не позволяет в дальнейшем использовать полученные изображения в коммерческих целях. «На платном же тарифе пользователь вправе использовать полученные результаты в любых целях, не запрещенных ему законодательством соответствующего государства», — говорит эксперт. При этом он отмечает, что Midjourney оставляет за собой право использовать результаты обработки запросов самостоятельно: выкладывать их в собственную ленту и демонстрировать другим пользователям.

Примерно о таких же принципах, какие работают в Midjourney, говорит компания Microsoft, которая интегрирует в свои продукты DALL-E 2: их пользователи будут иметь «полные» права на коммерческое использование сгенерированных изображений.

Другой темой для разбирательств стало то, что нейросети используют для обучения изображения, защищенные авторским правом. В начале 2023 года коллективный иск против Stability AI подали художницы Сара Андерсен, Келли МакКернан и Карла Ортис, а также компания Getty Images — правообладатели картинок, на которых обучалась Stable Diffusion. Создатели нейросети заявили, что предоставят художникам возможность исключить свои изображения из массива данных, используемых для обучения модели. Однако, механизм еще требует доработки: сразу переобучить модель, убрав из нее картинки по таким запросам, компания не может — для этого нужно ждать релиза новой версии модели.

Нейросети vs нежелательный контент

Другая проблема генеративных нейросетей — вопрос безопасности аи непредвзятости производимого ей контента. Поскольку модели обучаются на массиве данных, как правило, содержащих множество предубеждений, они проникают и в результаты генерации. Например, на промпт «медсестра» Dall-E 2 всегда выдает изображение женщины, а «генеральный директор» всегда будет белым мужчиной.

Многие нейросети накладывают ограничения на определенные промпты или блокировает пользователей, генерирующих недопустимый контент. Правда, иногда под блок попадают неожиданные запросы: например студенты-медики обнаружили, что Midjourney не допускает слов «плацента», «фаллопиевы трубы», «молочные железы», «сперма», «матка», «уретра», «шейка матки», «девственная плева» и «вульва» (тогда как другие слова, относящиеся к биологии человека, например «печень» и «почка», разрешены). А основателя исследовательского проекта Bellingcat Элиота Хиггинса создатели Midjourney заблокировали за сгенерированные картинки, изображающие арест Дональда Трампа.

Тем не менее, нейросети все еще могут создавать потенциально опасный и травмирующий контент, визуализируя фантазии и кошмары пользователей. Кроме того, благодаря открытому коду Stable Diffusion появился феномен сгенерированной порнографии — как упоминалось выше, никаких ограничений на контент компания, создавшая нейросеть, не накладывает. 

Размышляя над тем, кто будет нести ответственность за генерацию нежелательного контента, Дмитрий Губернаторов говорит, что по российскому законодательству к ответу могут привлечь и пользователя (например, за «пропаганду нетрадиционных сексуальных отношений), и саму нейросеть, и правообладателей (сервис может быть заблокирован Роскомнадзором). «Сам искусственный интеллект, естественно, к ответственности привлечен быть не может, так как не является субъектом права», — напоминает юрист.

Рынок труда изменится, но паниковать не нужно

Еще одно опасение, связанное с развитием генеративных нейросетей, — изменения на рынке труда в креативном кластере. Но руководители ведущих компаний опровергают предположения, что искусственный интеллект полностью вытеснит художников и дизайнеров. Например, директор Stability AI Эмад Мостак считает, что распространение генеративных нейросетей, напротив, даст им новые возможности. Того же мнения придерживается и основатель Midjourney Дэвид Хольц: «Да, компьютеры лучше справляются с визуальным изображением, чем 99% людей на планете. Но это не значит, что мы перестанем воображать. Машины передвигаются быстрее людей, но ведь мы из-за этого не перестали ходить. <...> Так что мы рассматриваем Midjourney исключительно как двигатель воображения». 

Диджитал-художник Елизавета Самсонова считает, что реформация рынка труда все же должна произойти — могут появиться профессии «промпт-дизайнер» или «промпт-инженер». При этом, по ее мнению, сократится число креативных специалистов и фриланс заказов: нейросети будут активно использовать для небольших иллюстраций в соцсети и логотипов. Цены на услуги иллюстраторов и дизайнеров будут падать. «Учитывая, что у нас до сих пор очень любят практику заказать 10 картинок за тысячу рублей, картина рисуется совсем печальная, — рассуждает Елизавета. — Ценность работы художников может реально рухнуть. Очевидно, что нельзя сравнивать нейросети и реальных художников, но бизнесу выгодно делать много и дешево, а не долго и дорого».

Но девушка уверена, что полностью заменить художников и дизайнеров нейросети все же не смогут: «По большей части искусственный интеллект создает готовые картинки в небольшом веб-разрешении в растре. Это значит, что их нельзя растянуть на большой формат или как-то обработать, под формат плакатов или постеров они не подойдут. Можно вычленять из картинок отдельные элементы и модифицировать их, а для этого как раз нужен дизайнер».

Художница Валерия Титова предполагает, что нейросети повлияют на рынок труда не сильнее, чем появление интернета, Photoshop или Википедия. Она мечтает, не «чтобы директор завода бросил свою работу и стал диджитал-дизайнером», а чтобы он, например, начал «создавать пейзажи или писать поэмы» — или чтобы школьные учителя могли быстро готовить для детей красочные учебные пособия. «Люди любопытные, те, кто умеет овладевать технологиями, будут продолжать дальше комфортно работать, изучать новые явления и предлагать их своими заказчикам, — считает художница. — Без работы не останутся и те, которые умеет создавать уникальное торговое предложение без технологий. А у людей, которые привыкли всему сопротивляться и на все жаловаться, будут трудности все зависимости от того, развиваются нейросети или нет».

Иллюстрация на обложке: Анна Иванцова для КЧМ

Поделиться

Материалы по теме

Материалы по теме