Разрабатывая новые технологии, мы создаем новый мир. Вот только может ли он стать лучше, если мы закладываем в него старые ошибки? На искусственном интеллекте, одном из главных достижений современного общества, уже сказывается наше пагубное влияние — ученые обратили внимание на поразительное количество гендерных и расовых предубеждений в его алгоритмах.
Почему машины предвзяты
За последние несколько лет способность таких программ, как Google Translate, понимать язык, разительно выросла. Все это благодаря новым техникам машинного обучения и доступности огромного объема текстовых данных, на которых тренируют алгоритмы. Однако, так как машины понемногу приобретают языковые навыки, приближенные к человеческим, они также впитывают и предрассудки, укорененные в паттернах языка.
Джоанна Брисон, специалист в области компьютерной науки, отметила: «Многие люди говорят — это доказывает, что искусственный интеллект предвзят. Нет. Это доказывает, что мы предвзяты и искусственный интеллект это у нас перенимает». Брисон предупредила, что искусственный интеллект потенциально может усиливать существующие предрассудки, потому что, в отличие от людей, алгоритмы не способны сознательно противостоять усвоенным стереотипам. «Опасность возникнет тогда, когда у искусственного интеллекта больше не будет внешнего элемента, контролируемого моральными убеждениями».
Что показывает «векторное представление слов»
Недавно в журнале Science было опубликовано исследование, посвященное такому инструменту машинного обучения, как «векторное представление слова» («word embedding»). Этот подход, уже используемый в сетевом поиске и машинном переводе, построен на математическом представлении языка, при котором значение слова раскладывается на серию чисел (называемых вектором слова) на основании того, какие слова чаще всего употребляются вместе с этим. Может показаться удивительным, но такой статистический подход способен улавливать многообразные культурные и социальные контексты слова, недоступные словарю.
Например, в математическом языке слова, связанные со словом «цветок», ближе к словам, связанным с понятием «приятное», тогда как кластеры слова «насекомое» ближе к полю «неприятное» — это отражает общее восприятие насекомых относительно цветов. [traqli_related]
Последние исследования показывают, что и более опасные предубеждения легко усваиваются алгоритмами. Слова «женский» и «женщина» чаще ассоциируются с искусством, гуманитарными науками и домом, тогда как «мужской» и «мужчина» ближе к математике и инженерным профессиям.
Инструмент машинного обучения, на котором проводили исследование, был натренирован на корпусе текстов, опубликованных онлайн. Похожие результаты дало и исследование на материале новостей Google.
Сандра Уочтер, исследователь информационной этики и алгоритмов в Оксфордском университете, так прокомментировала ситуацию: «Мир полон предубеждений, исторические данные полны предубеждений, так что нечего удивляться последствиям».
Но алгоритмы могут представлять не только угрозу, но и новые возможности для того, чтобы противостоять стереотипам. «В случае с алгоритмами, мы хотя бы можем знать, что они предвзяты. А люди могут врать о причинах, по которым они не взяли кого-то на работу. Алгоритмы пока на это не способны».
Источник: theguardian.com
Фото: кадр из фильма «Призрак в доспехах»