В январе TIME сообщил, что в конце 2021 года в Кении были привлечены аутсорсинговые работники OpenAI, поддерживаемые Microsoft, для модерации интернет-данных, что является фундаментальной частью разработки системы безопасности ChatGPT , созданной сенсацией генеративного ИИ.
Как пишут зарубежные СМИ, согласно документам, с которыми ознакомился новостной портал, модераторы зарабатывали около 2 долларов в час, маркируя тексты, в которых подробно описывались травмы, сексуальное насилие и членовредительство. Этим работникам также было предложено собирать изображения, некоторые из которых, как сообщается, незаконны в соответствии с законодательством США, в отдельном проекте для генератора изображений OpenAI DALL-E.
В заявлении для TIME OpenAI объяснила, что “очень серьезно” относится к благополучию своих подрядчиков и что программы, предлагающие поддержку, доступны через аутсорсинговую компанию, которая считает, что ее сотрудники не запрашивали поддержку “по правильным каналам”.
Эта работа была настолько травматичной, что компания, работающая с OpenAI для аутсорсинга рабочих мест, разорвала контракт с электростанцией ИИ, как указано в недавней статье Wall Street Journal. Между тем, растущее число исследований продолжает выявлять зависимость крупных технологических компаний от выполнения важной работы на глобальном юге в рамках миссии по обеспечению безопасности ИИ.О
просы, проведенные на протяжении многих лет, также показали, что ИИ общего назначения, развернутый в биометрических , полицейских и жилищных системах, уже вызвал гендерную и расовую дискриминацию.
Когда ChatGPT начал набирать обороты, недавнее увольнение ответственной команды Microsoft по искусственному интеллекту вызвало недоумение и вопросы о том, действительно ли этические проблемы являются приоритетом в многомиллиардной экономике искусственного интеллекта.
Это не означает, что технологический сектор в целом не воспринимает всерьез риски, связанные с генеративным ИИ. Крупные отраслевые деятели действительно призвали приостановить развитие технологии до тех пор, пока не будет принят надежный закон об искусственном интеллекте. Однако исследователи, беседовавшие с Mobile World Live ( MWL ), считают, что общественность должна смотреть немного дальше, чем разработка политики.
Абид Адонис, исследователь из Оксфордского интернет-института, утверждает, что задача обеспечения этического ИИ должна быть расширена.
“Теперь мы видим только две силы: регулирующие органы и большие технологии, но у нас также есть гражданское общество и ученые. И важно услышать, что говорят об этом маргинализированные группы, потому что это отсутствует в обсуждении”.
Ложный ИИ
Это мнение находит отклик у доктора Элисон Пауэлл, доцента кафедры СМИ и коммуникаций Лондонской школы экономики и политических наук и директора сети JustAI в Институте Ады Лавлейс. Пауэлл сказал MWL , что упор на общий искусственный интеллект, который, по утверждениям отраслевых тяжеловесов, может затмить когнитивные способности человека и, следовательно, доминировать на рынках труда, уже сам по себе вреден.
“Это вредно, потому что фокусируется на воображаемом мире, а не на реальном мире, в котором мы живем”.
Это особенно отражено в больших языковых моделях (LLM), построенных на данных из Интернета. Пауэлл отметил, что, хотя в реальном мире говорят на многих языках, в Интернете преобладает английский.
“В мире есть много способов, которыми люди испытывают вещи, выражают себя и работают вместе. Не все из них представлены в Интернете”.
Пауэлл также предупредил о шумихе вокруг способности ИИ принимать решения и предположил, что возможности технологии не учитывают социальную ответственность. Это имеет смысл, если принять во внимание тот факт, что создатель ИИ ChatGPT ложно обвинил профессора права Джонатана Терли в нападении на студента и выдумал историю о смерти Александра Ханффа, специалиста по конфиденциальности, который помог разработать GDPR. Другие примеры включают методы фильтрации данных в GPT-3, в которых использовалась система классификации для автоматического отбрасывания непристойных и неуместных материалов.
Дополнительные недостатки LLM были отмечены в недавнем отчете The Washington Post , в котором говорится, что технологические компании стали скрывать то, чем они кормят ИИ, например, использование данных с веб-сайтов, которые могут быть сочтены дискриминационными. Это подтвердило исследование 2021 года, которое показало, что генеративный ИИ может усиливать привилегированные взгляды, указывая на обучающие данные GPT-2, извлеченные из Reddit, Twitter и Wikipedia, которыми пользуются преимущественно мужчины.
Культурная машина
Пауэлл подчеркнул необходимость понимания социальных аспектов, в которых технологии с большей вероятностью могут причинить вред, прежде чем думать о том, как сделать их более этичными.
“ИИ — это институциональные машины, социальные машины и культурные машины, — утверждала она. “Если мы уходим от вопроса “Как мы это сделаем технически, в шестернях?” затем мы производим эту двойную связь. Но если мы сделаем шаг назад, то заметим, что все эти системы являются институциональными системами. Думать о том, чтобы заставить системы работать по принципам справедливости и инклюзивности, нужно не о том, как работают машины, а о том, как работают институты”.
Адонис добавил, что подробное публичное обсуждение этических технологий будет продолжать играть важную роль в будущих инновациях и разработке политики.
“Если мы во многих местах создадим сильную фундаментальную дискуссию о чем-то, что, как мы знаем, будет иметь пагубные последствия для общества, это распространится на заинтересованные стороны и государственных деятелей. Они будут знать, что делать, и гражданское общество будет знать, что делать. Я считаю, что дискурс и парадигма будут формировать коридоры инноваций”.
Для Пауэлла управление ИИ означает обеспечение соблюдения существующих законов, особенно тех, которые касаются защиты данных, борьбы с дискриминацией и прав человека, “которые применяются к институциональным условиям, в которые вы помещаете ИИ. Я бы по-прежнему выступала за то, чтобы думать об институциональных условиях, использующих ИИ, а не думать о нем как о самом объекте регулирования”, — добавила она.