Про трансформационную силу искусственного интеллекта (ИИ) было сделано немало громких заявлений. Но стоит прислушаться и к серьезным оговоркам, пишет Джон Торнгилл в статье "Only human intelligence can solve the AI challenge" для The Financial Times.
В прошлом месяце Кейт Кровфорд, главный исследователь в Microsoft Research, предостерегла: если технологиями будут злоупотреблять авторитарные режимы, то растущая мощь ИИ может реализовать «фашистскую мечту».
«Так же как мы видим, что скорость ИИ растет большими прыжками функцией, происходит нечто иное: рост ультранационализма, правого авторитаризма и фашизма», – сказала Кровфорд на тек-конференции SXSW (South by Southwest).
Она говорит, что благодаря ИИ становится возможным создание огромных реестров данных, таргетирование групп населения, злоупотребление предиктивним полицейским контролем и манипуляция политическими взглядами.
Обеспокоенность относительно неправильного использования – иногда даже неумышленно – новыми мощными технологиями выражает не только Кровфорд. Марк Волпорт, главный научный советник британского правительства, предостерег, что бездумное использование ИИ в связанных с человеческими суждениями в сферах, таких как медицина или право, может привести к разрушительным результатам и подорвать доверие общества к технологиям.
Хотя ИИ имел потенциал повысить качество человеческой мысли, он нес в себе также и риски плодить вредные предубеждения, давая при этом людям ложное ощущение объективности.
«Машинное обучение может усвоить все скрытые предубеждения, содержащиеся в истории судебных приговоров и медицинского лечения, и выразить это через свои алгоритмы», – написал он в статье в inWired.
Как всегда, опасность значительно легче распознать, чем ее исправить. Недобросовестные режимы никогда не будут придерживаться правил, которые ограничивают использование ИИ. Но даже в функциональных правовых демократиях трудно будет создать соответствующий ответ. Максимизация позитивного вклада, который может внести ИИ, при минимизации негативных последствий будет одним из самых трудных вызовов для государственной политики современности.
Для начала: технологии трудно понять, и их использование часто является необъятным. Все труднее становится найти независимых экспертов, которые бы не были втянуты в эту отрасль или не имели других конфликтов интересов.
Гонимые фактически коммерческой гонкой вооружений в этой области, большие тек-компании расхватали многих умнейших научных экспертов с ИИ. Поэтому большинство передовых исследований является сейчас скорее частным, а не общественным достоянием.
Некоторые ведущие тех-компании — к их чести, признали потребность в прозрачности, хотя и с опозданием. Посыпался шквал инициатив по поощрению публичных дебатов и исследований политик на тему ИИ. Илон Маск, основатель Tesla Motors, помог основать OpenAI, некоммерческую исследовательскую компанию, которая занимается безопасными способами разработки ИИ. Amazon, Facebook, Google DeepMind, IBM, Microsoft и Apple также объединились в Партнерство по ИИ (Partnership on AI) для того, чтобы инициировать больше публичных дискуссий о применении этой технологии в реальном мире.
Мустафа Сулейман, соучредитель Google DeepMind и сопредседатель Партнерства, говорит, что ИИ может сыграть трансформирующую роль в решении крупнейших вызовов нашего времени. Но он признает, что уровень развития ИИ опережает нашу коллективную способность понимать и контролировать эти системы. Поэтому ведущие компании, разрабатывающие ИИ, должны становиться значительно более инновационными и проактивными в плане самоответственности. Ради этого лондонская компания экспериментирует с верификабельными данными для аудита и вскоре объявит состав этического совета, который тщательно проверит всю деятельность компании.
Но Сулейман считает, что наши общества должны разработать лучшие рамки для того, чтобы направлять технологии в русло коллективного блага.
«Нам надо иметь контроль за этими системами, чтобы они выполняли то, что мы хотим, когда мы этого хотим, и чтобы они нас не опережали», – сказал он в интервью для подкаста FT Tech Tonic.
Некоторые обозреватели считают, что лучший способ достичь этого – адаптировать наш правовой режим так, чтобы обеспечить «объяснимость» систем ИИ для общественности. Как принцип это звучит просто, но может оказаться неистово сложным на практике.
Мирей Гильдебрандт, профессор права и технологий в Свободном университете Брюсселя, говорит, что мы становимся слишком зависимыми от «бездумного ума», который не до конца понимаем. Поэтому, она арументирует, намерение и результат этих алгоритмов должны предоставляться для проверок и судебного опротестования. «Если ты не можешь обоснованно объяснить решение своих систем, тогда не можешь их производить», – говорит она.
Нам надо будет значительно больше человеческого интеллекта, чтобы ответить на все вызовы искусственного интеллекта.