Новостная лента

Расистский искусственный интеллект

21.04.2016

 

Когда искусственный интеллект изучает язык с помощью текстовых данных, то заодно перенимает стереотипы, которые в них содержатся. Ассоциативный тест выявил: компьютерная программа демонстрирует те же расистские предубеждения и гендерные клише, свойственные многим людям. В будущем это может превратиться в проблему, поскольку искусственный интеллект выполняет все больше функций в повседневной жизни человека.

 

 

Искусственный интеллект настолько нейтральный, как материал для йогонавчання. Изображение: Andrea Данти/ thinkstock

 

Компьютерные системы, имитирующие человеческий разум, обладают уникальными способностями: ум машины самостоятельно осваивает язык, изображения, тексты или записывает их. Также эти системы способны взаимно учиться и самостоятельно выполнять сложные задачи. Восхищает и то, что недавно искусственный интеллект победил человека в покер, го и викторину «Jeopardy!».

 

То есть машина может достигать тех же успехов, что и человек, но сначала должна научиться этому. Поэтому информатики кормят программы огромным количеством данных, которая становится основой для машины, когда и распознает и применяет схемы, необходимые для симуляции разумного поведения. Чат-боты или программы для перевода «накормлены» устным и письменным языком, что дает им возможность создавать связи между словами и высказываниями.

 

Алгоритмы вроде программы «GloVe» обучающихся в результате так называемого слововкладення. Они ищут смежные слова и отражают отношения между ними математическими величинами. Так алгоритмы могут понять семантические сходства между «ученый» и «ученый» и распознать, что они соотносятся подобно «мужчина» и «женщина».

 

Ученые во главе с Эйлин Каліскан (: Aylin Caliskan) из Принстонского университета протестировали приобретенную таким образом способность программы GloVe и выяснили: языковые знания программы нашпигованы культурными стереотипами и предубеждениями.

 

Для своего исследования ученые использовали метод, известный в психологии как тест имплицитных ассоциаций. Он призван выявлять неосознанные стереотипные ожидания. Для этого подопытные должны образовать пары со словосочетаниями (словами), которые подходят и которые не подходят друг другу. Так удалось выяснить, что слово «цветок» много людей ассоциирует с прилагательным «приятный», зато слово «насекомое» – «неприятный».

 

Каліскан и ее коллеги подстроили этот тест для исследования искусственного интеллекта и проверили, какие ассоциации образует программа. Результаты показали: этические стереотипы и предубеждения человека, которые регулярно проявляются через тест на имплицитные ассоциации, усвоила и GloVe. Например, мужское, привычное для афроамериканского среды имя, программа интерпретировала скорее как неприятное, зато распространено среди белых имя – как приятное. Также женские имена программа связывала скорее с искусством, а мужские – с математикой.

 

Для ученых стало очевидно: во время обучения система впитала выраженные и скрытые стереотипы. Их этот результат не удивил: «Неудивительно, потому что тексты написаны людьми, которые, конечно, не лишены стереотипов», – комментирует историк Йоахим Шарлот (Joachim Scharloth) из Технического университета Дрездена.

 

«Тренируя систему искусственного интеллекта односторонними данными, не стоит удивляться, что она усваивает однобокий взгляд на мир. В последние годы уже были примеры: Microsoft Chatbots Tay, либо Интернет-тролль научил расистской языка, или приложение Google Photos, который думал, что темнокожие пользователи являются гориллами», – дополнила Кристина Баухадж (Christian Bauckhage) из Института интеллектуальных систем анализа и информации имени Фраунгофера.

 

Роботизированный разум с расистским и дискриминационным отношением может стать в будущем настоящей проблемой: тогда программа будет выполнять все больше функций в нашей повседневной жизни – и, например, на основании языкового анализа будет принимать предварительное решение, какого кандидата пригласить на собеседование, а кого проигнорировать.

 

Ученые дискутируют о том, как устранить искажения из баз данных. В то же время, если машина будет перенимать предубеждение, это будет шансом для нас так сказать заглянуть в зеркало: «машинное обучение может выявлять стереотипы, а это уже достижение для понимания общества», – считает Шарлот.

 

 

Künstliche Intelligenz übernimmt Vorurteile

Science, 18.04.2017

Зреферувала Соломия Кривенко

You Might Also Like

Loading...

Нет комментариев

Комментировать

Яндекс.Метрика