Разрабатывая новые технологии, мы создаем новый мир. Вот только может ли он стать лучше, если мы закладываем в него старые ошибки? На искусственном интеллекте, одном из главных достижений современного общества, уже сказывается наше пагубное влияние — ученые обратили внимание на поразительное количество гендерных и расовых предубеждений в его алгоритмах.
Щодня ми працюємо на інфофронті, виствілюючи подвиги українських жінок та впливаючи на світову спільноту інформаційно.
Ми просимо нас підтримати, аби ми й надалі могли виконувати нашу місію на шляху до української перемоги
Підтримати womo.uaПочему машины предвзяты
За последние несколько лет способность таких программ, как Google Translate, понимать язык, разительно выросла. Все это благодаря новым техникам машинного обучения и доступности огромного объема текстовых данных, на которых тренируют алгоритмы. Однако, так как машины понемногу приобретают языковые навыки, приближенные к человеческим, они также впитывают и предрассудки, укорененные в паттернах языка.
Джоанна Брисон, специалист в области компьютерной науки, отметила: «Многие люди говорят — это доказывает, что искусственный интеллект предвзят. Нет. Это доказывает, что мы предвзяты и искусственный интеллект это у нас перенимает». Брисон предупредила, что искусственный интеллект потенциально может усиливать существующие предрассудки, потому что, в отличие от людей, алгоритмы не способны сознательно противостоять усвоенным стереотипам. «Опасность возникнет тогда, когда у искусственного интеллекта больше не будет внешнего элемента, контролируемого моральными убеждениями».
Что показывает «векторное представление слов»
Недавно в журнале Science было опубликовано исследование, посвященное такому инструменту машинного обучения, как «векторное представление слова» («word embedding»). Этот подход, уже используемый в сетевом поиске и машинном переводе, построен на математическом представлении языка, при котором значение слова раскладывается на серию чисел (называемых вектором слова) на основании того, какие слова чаще всего употребляются вместе с этим. Может показаться удивительным, но такой статистический подход способен улавливать многообразные культурные и социальные контексты слова, недоступные словарю.
Например, в математическом языке слова, связанные со словом «цветок», ближе к словам, связанным с понятием «приятное», тогда как кластеры слова «насекомое» ближе к полю «неприятное» — это отражает общее восприятие насекомых относительно цветов.
Останні новини
- Open call на участь у благодійній виставці «1000 шедеврів, знятих на смартфон»
- Збільшення кількості інклюзивних відділень, нові стандарти обслуговування та навчальний курс «Інклюзивно привітні»: Ощадбанк прозвітував про перебіг програми «Моя безбар’єрність»
- 10 фільмів, що зачіпають питання ґендеру
- Сексуальне насилля під час конфлікту — ще один вид зброї проти мирного населення, елемент злочину проти людяності
- Хлопці й дівчата у школах будуть на рівних вивчати предмет «Захист України» Новости на главной
Последние исследования показывают, что и более опасные предубеждения легко усваиваются алгоритмами. Слова «женский» и «женщина» чаще ассоциируются с искусством, гуманитарными науками и домом, тогда как «мужской» и «мужчина» ближе к математике и инженерным профессиям.
Инструмент машинного обучения, на котором проводили исследование, был натренирован на корпусе текстов, опубликованных онлайн. Похожие результаты дало и исследование на материале новостей Google.
Сандра Уочтер, исследователь информационной этики и алгоритмов в Оксфордском университете, так прокомментировала ситуацию: «Мир полон предубеждений, исторические данные полны предубеждений, так что нечего удивляться последствиям».
Но алгоритмы могут представлять не только угрозу, но и новые возможности для того, чтобы противостоять стереотипам. «В случае с алгоритмами, мы хотя бы можем знать, что они предвзяты. А люди могут врать о причинах, по которым они не взяли кого-то на работу. Алгоритмы пока на это не способны».
Источник: theguardian.com
Фото: кадр из фильма «Призрак в доспехах»