Стереотипы и предрассудки: Чему мы научили искусственный интеллект

Алгоритмы машинного обучения показали высокий уровень заангажированности

Разрабатывая новые технологии, мы создаем новый мир. Вот только может ли он стать лучше, если мы закладываем в него старые ошибки? На искусственном интеллекте, одном из главных достижений современного общества, уже сказывается наше пагубное влияние — ученые обратили внимание на поразительное количество гендерных и расовых предубеждений в его алгоритмах.

Почему машины предвзяты

За последние несколько лет способность таких программ, как Google Translate, понимать язык, разительно выросла. Все это благодаря новым техникам машинного обучения и доступности огромного объема текстовых данных, на которых тренируют алгоритмы. Однако, так как машины понемногу приобретают языковые навыки, приближенные к человеческим, они также впитывают и предрассудки, укорененные в паттернах языка.

Джоанна Брисон, специалист в области компьютерной науки, отметила: «Многие люди говорят — это доказывает, что искусственный интеллект предвзят. Нет. Это доказывает, что мы предвзяты и искусственный интеллект это у нас перенимает». Брисон предупредила, что искусственный интеллект потенциально может усиливать существующие предрассудки, потому что, в отличие от людей, алгоритмы не способны сознательно противостоять усвоенным стереотипам. «Опасность возникнет тогда, когда у искусственного интеллекта больше не будет внешнего элемента, контролируемого моральными убеждениями».

Что показывает «векторное представление слов»

Недавно в журнале Science было опубликовано исследование, посвященное такому инструменту машинного обучения, как «векторное представление слова» («word embedding»). Этот подход, уже используемый в сетевом поиске и машинном переводе, построен на математическом представлении языка, при котором значение слова раскладывается на серию чисел (называемых вектором слова) на основании того, какие слова чаще всего употребляются вместе с этим. Может показаться удивительным, но такой статистический подход способен улавливать многообразные культурные и социальные контексты слова, недоступные словарю.

Например, в математическом языке слова, связанные со словом «цветок», ближе к словам, связанным с понятием «приятное», тогда как кластеры слова «насекомое» ближе к полю «неприятное» — это отражает общее восприятие насекомых относительно цветов.

Последние исследования показывают, что и более опасные предубеждения легко усваиваются алгоритмами. Слова «женский» и «женщина» чаще ассоциируются с искусством, гуманитарными науками и домом, тогда как «мужской» и «мужчина» ближе к математике и инженерным профессиям.

Инструмент машинного обучения, на котором проводили исследование, был натренирован на корпусе текстов, опубликованных онлайн. Похожие результаты дало и исследование на материале новостей Google.

Сандра Уочтер, исследователь информационной этики и алгоритмов в Оксфордском университете, так прокомментировала ситуацию: «Мир полон предубеждений, исторические данные полны предубеждений, так что нечего удивляться последствиям».

Но алгоритмы могут представлять не только угрозу, но и новые возможности для того, чтобы противостоять стереотипам. «В случае с алгоритмами, мы хотя бы можем знать, что они предвзяты. А люди могут врать о причинах, по которым они не взяли кого-то на работу. Алгоритмы пока на это не способны».

Источник: theguardian.com

Фото: кадр из фильма «Призрак в доспехах»

— Читайте также: Донна Стрикленд и Френсис Арнольд получили Нобелевскую премию по физике и химии

Мы в Facebook