28.03.2024
Искусственный интеллект

Расистский искусственный интеллект

Рейтинг:  4 / 5

Звезда активнаЗвезда активнаЗвезда активнаЗвезда активнаЗвезда не активна
 

Когда искусственный интеллект изучает язык с помощью текстовых данных, то заодно перенимает стереотипы, которые в них содержатся, пишет издание Science.

Ассоциативный тест выявил: компьютерная программа демонстрирует те же расистские предубеждения и гендерные клише, свойственные многим людям. В будущем это может превратиться в проблему, поскольку искусственный интеллект выполняет все больше функций в повседневной жизни человека.

Компьютерные системы, имитирующие человеческий разум, обладают уникальными способностями: ум машины самостоятельно осваивает язык, изображения, тексты или записывает их. Также эти системы способны взаимно учиться и самостоятельно выполнять сложные задачи. Восхищает и то, что недавно искусственный интеллект победил человека в покер, Го и викторину «Jeopardy!».

То есть машина может достигать тех же успехов, что и человек, но сначала должен научиться этому. Поэтому информатики кормят программы огромным количеством данных, которые становится основой для машины, когда и распознает и применяет схемы, необходимые для симуляции разумного поведения. Чат-боты или программы для перевода «накормлены» устным и письменным языком, что дает им возможность создавать связи между словами и высказываниями.

Алгоритмы вроде программы «GloVe» обучающихся в результате так называемого слововложения. Они ищут смежные слова и отражают отношения между ними математическими величинами. Так алгоритмы могут понять семантические сходства между «ученый» и «ученая» и распознать, что они соотносятся подобно «мужчина» и «женщина».

Ученые во главе с Эйлин Калискан (Aylin Caliskan) из Принстонского университета протестировали приобретенную таким образом способность программы GloVe и выяснили: ее языковые знания нашпигованы культурными стереотипами и предубеждениями.

Для своего исследования ученые использовали метод, известный в психологии как тест имплицитных ассоциаций. Он призван выявлять неосознанные стереотипные ожидания. Для этого подопытные должны образовать пары со словосочетаниями (словами), которые подходят и которые не подходят друг другу. Так удалось выяснить, что слово «цветок» много людей ассоциирует с прилагательным «приятный», зато слово «насекомое» – «неприятный».

Калискан и ее коллеги подстроили этот тест для исследования искусственного интеллекта и проверили, какие ассоциации образует программа. Результаты показали: этические стереотипы и предубеждения человека, которые регулярно проявляются через тест на имплицитные ассоциации, усвоила и GloVe. Например, мужское, привычное для афроамериканской среды имя программа интерпретировала скорее как неприятное, зато распространенное среди белых имя – как приятное. Также женские имена программа связывала скорее с искусством, а мужские – с математикой.

Для ученых стало очевидно: во время обучения система впитала выраженные и скрытые стереотипы. Их этот результат не удивил: «Не удивительно, потому что тексты написаны людьми, которые, конечно, не лишены стереотипов», – комментирует историк Йоахим Шарлот (Joachim Scharloth) из Технического университета Дрездена.

«Тренируя систему искусственного интеллекта односторонними данными, не стоит удивляться, что она усваивает однобокий взгляд на мир. В последние годы уже были примеры: Microsoft Chatbots Tay, которую интернет-тролль научил расистскому языку, или приложение Google Photos, которое думало, что темнокожие пользователи являются гориллами», – дополнила Кристина Баухадж (Christian Bauckhage) из Института интеллектуальных систем анализа и информации имени Фраунгофера.

Роботизированный разум с расистским и дискриминационным отношением может стать в будущем настоящей проблемой: тогда программа будет выполнять все больше функций в нашей повседневной жизни – и, например, на основании языкового анализа будет принимать предварительное решение, какого кандидата пригласить на собеседование, а кого проигнорировать.

Ученые дискутируют о том, как устранить искажения из баз данных. В то же время, если машина будет перенимать предубеждение, это будет шансом для нас, так сказать, заглянуть в зеркало: «Машинное обучение может выявлять стереотипы, а это уже достижение для понимания общества», – считает Шарлот.

  1. Последние
  2. Популярные

Популярное за неделю

Error: No articles to display

Самые популярные метки