Как этика алгоритмов влияет на каждого из нас
Как часто мы задумываемся о том, какие данные мы оставляем о себе в сети? Какие последствия могут быть у нашего цифрового следа? Как мы участвуем в обучении алгоритмов, не зная об этом? Как вообще наше пользовательское поведение влияет на то, как работают алгоритмы и чему они учатся у людей? Подобные вопросы отражают сложности взаимодействия человека и технологий и часто обретают форму этических проблем, хотя общего универсального определения того, что такое «этика технологий», пока нет.
Под этикой технологий я предлагаю понимать приемлемое поведение технологий. То есть то, которое не идет вразрез с социальными ожиданиями, культурными практиками и здравым смыслом. Как правило, разговоры об этических вопросах технологий появляются в трех разных контекстах.
-
Первый граничит с регуляторикой и правовым полем, и здесь появляются такие вопросы: как контролировать разработку технологий, кто отвечает за последствия, как необходимо учитывать риски, на какие этические стандарты стоит ориентироваться.
-
Второй контекст упирается в философские споры о том, что этично и что нет, какие ценности должны лежать в основе разработки, как «правильно» решать этические дилеммы (например, классическую проблему вагонетки).
-
Третий контекст имеет отношение непосредственно к разработке: - как инженеры решают вопросы производства и обучения алгоритмов, чтобы сделать их социально приемлемыми, то есть социализировать их.
Ни один из этих контекстов не предполагает универсальных и однозначных решений этических вопросов. Более того, их дискуссионность приводит к необходимости пересмотра всего процесса создания технологий от его дизайна до использования или даже отказа от каких-то из них. Особенно критическими эти вопросы стали благодаря работе алгоритмов искусственного интеллекта, которые обучаются на определенных наборах данных [часто — о поведении людей] и производят относительно самостоятельные решения.
В общем виде об алгоритмах говорят как о наборах правил, предназначенных для достижения определенной цели (расчеты, поиск решений и т.д.). В обычной жизни пользователи технологий сталкиваются с алгоритмами повсюду^ – от поисковых запросов и формирования новостной ленты в социальных сетях до контекстной рекламы, общения с голосовыми помощниками и даже в генерировании произведений искусства. В коммерческих непользовательских областях алгоритмы применяются в фармацевтике, агропромышленности, логистике, финансовой сфере, медицине, —– в действительности, практически в любой сфере деятельности. И чем больше они встраиваются в самые разные аспекты нашей жизни, тем больше внимания, обсуждения и решений требует этическая сторона их разработки.
Этические проблемы технологий, и в частности алгоритмов, стали особенно часто обсуждаться в последние несколько лет. 2018 год можно обозначить годом внесения вопросов этики в повестку IT-компаний: именно в тот год этические комиссии и комитеты появились в таких гигантах, как Google, Facebook, Microsoft, SAP. После этого этические кодексы в отношении алгоритмов вообще и искусственного интеллекта в частности стали разрабатываться на уровне государственных и международных инициатив: – в США, Европейском Ссоюзе, Австралии, Китае, Сингапуре, России. Такие кодексы имеют разный статус и чаще носят рекомендательный характер. Тем не менее, появление вопросов этики в официальной повестке означает, что дизайн, разработка и использование алгоритмов нуждаюется не только в дополнительном регулировании и модерировании, но и в привлечении к созданию технологий людей с разнообразным опытом (а не только профессиональных инженеров). Почему это важно?
Еще до появления официальных комитетов и комиссий в IT-среде на множество этических и социальных проблем указывали независимые исследовательские ассоциации, а также социальные ученыей в академических публикациях. Такие негосударственные инициативы, как State of AI или институт The AI Now, ежегодно проводят мониторинг состояния сферы разработки искусственного интеллекта и предлагают критический обзор проблем, на которые необходимо обратить внимание.
Уже в 2017 году институт The AI Now в своих рекомендациях предлагал особое внимание в разработке алгоритмов уделять происхождению ошибок в данных и пониманию смещений (bias), которые искажают реальную картину. Для квалифицированной работы над ошибками требуется уход от сугубо технологического подхода и привлечение разнообразной экспертизы и опыта «“не-инженеров»” на самых ранних этапах разработки технологий. Например, еще в дизайне алгоритмов следует учитывать представительство недоминирующих социальных групп, которые по разным причинам не имеют доступа к принятию решений (женщины, люди старшего возраста, представители расовых, этнических и других меньшинств). При этом их голосам и уникальному опыту должно быть уделено особое внимание, чтобы сделать алгоритмы более адекватными в контексте отражения разнообразной реальности.
Что свидетельствует о том, что с алгоритмами что-то не таки и они требуют дополнительного вмешательства? В 2018 году, в своем первом отчете State of AI обнаружили разные типы дискриминаций: отсутствие женщин среди топ-менеджмента технологических компаний в выдаче поисковика по картинкам, плохое распознавание женских голосов в YouTtube, ошибки в распознавании лиц азиатов камерами HP, маркирование темнокожих как горилл в Google, контекстная реклама проверки криминального прошлого в запросах афроамериканских имен, скрывание ЛГБТ-литературы в рейтингах Amazon и другие. Подобные ошибки —– это результат таких факторов, как особенности профессионального сообщества разработки алгоритмов, несбалансированность данных для обучения датасетов, а также отсутствие прозрачных правил модерирования контента и алгоритмов в процессе их использования.
Благодаря тому, что этические вопросы всё чаще оказываются в индустриальной и официальной повестке и закрепляются в виде этических кодексов, пользователи также могут становиться более вовлеченными в процесс взаимодействия с технологиями. Выявление того, как именно ошибаются алгоритмы, отражает то, что происходит и в процессе разработки, и на этапе их использования. Чем больше разнообразных аспектов по справедливому и сбалансированному подходу к разработке и использованию алгоритмов фиксируется в формальных документах и неформальных правилах, тем более прозрачными становятся способы участия профессионалов и простых пользователей в работе технологий.
Что же могут делать сами пользователи? Современные технологии требуют от пользователей не только повышения цифровой грамотности, которая включает набор навыков работы с алгоритмами и с информацией вообще. Можно проверить себя. Как вы реагируете на некорректную информацию в медиа? Знаете ли вы, как отличать фейковые новости от подтвержденных? Как вы понимаете идею цифровых социальных рейтингов? Как вы можете участвовать в регулировании IT-платформ? Что вы знаете о цифровом неравенстве? Как вы думаете, кто или что отвечает за ошибки алгоритмов? Эти вопросы, на первый взгляд, не имеют прямого отношения к этике алгоритмов. Но это не так. Социальные исследования технологий все чаще и аргументированнее доказывают, что алгоритмы отражают то, как ведут себя пользователи, и постоянно обучаются на их реальном поведении. Поэтому стоитесли задаваться вопросом о том, что мы как пользователи можем сделать для более этичных алгоритмов, как мы можем стать более ответственными, вовлеченными и требовательными.
Материалы по теме
Материалы по теме
