Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Айзек Азимов, «Хоровод» (1942)
В этом материале хотелось бы рассмотреть проблемы бизнес-аналитиков и product owners, которые работают с продуктами, использующими технологии искусственного интеллекта. Идея написать статью у меня появилась после конференции, на которой я услышал о перспективных направлениях внедрения ИИ, и возникли вопросы о том, все ли гладко в этой сфере, насколько общество готово принять эти изменения.
Так ли хорош ИИ?
Сперва хотелось бы вспомнить известный анекдот о пиццерии Google. Человек звонит заказать пиццу, а искусственный интеллект вначале рекомендует пиццу с творогом и зеленью, исходя из состояния его медицинских анализов, после этого напоминает, что он давно не принимал таблетки, а когда человек в сердцах решает все бросить и уехать на необитаемый остров без интернета и компьютеров, где никто бы не контролировал его и не следил, искусственный интеллект сообщает, что паспорт просрочен.
Шутки шутками, но современные технологии, уже давно ставшие неотъемлемой частью нашей жизни, развиваются настолько быстро, что футуристический мир, изображенный в том же сериале «Черное зеркало», не выглядит таким невозможным и недосягаемым. Все больше человечество полагается на ИИ. Человек уже доверяет алгоритмам не только выбор фильмов для вечернего просмотра, как это реализовано у Netflix, не только обработкуизображений, в результате чего неподвижные картинки оживают, не только отслеживаниесоблюдения диеты, но и уход за домашними питомцами, своевременный прием лекарств пациентом, раннее выявление различного рода патологий.
Человечество делает первые шагив том, чтобы поручить ИИ разрешение споров и конфликтов между людьми, фактически заменяя машиной судебную систему, государственный аппарат.
Казалось бы, полная автоматизация всех чиновников и переход на электронное правительство, внедрение цифрового судопроизводства — не это ли является панацеей от набившей всем оскомину коррупции? Несмотря на всю красоту этой идеи, дьявол, как всегда, кроется в деталях. И самая большая проблема заключается в том, что философия — этика и мораль — не успевают за невероятной скоростью технического прогресса, который мы наблюдаем последние 70 лет.
А что, если ДТП? Кого должен спасать ИИ?
Давайте разберем на наглядном примере. Беспилотное транспортное средство, способное доставить нас в любую точку, — давняя мечта человека. Мы вплотную приблизились к тому, чтобы поручить машинам управлятьне только наземным, но и водным транспортом. Следует полагать, что оттуда рукой подать и до воздушных беспилотников.
Транспортное средство — источник повышенной опасности, управление им несет риски, связанные с возможным причинением вреда другим людям, вплоть до гибели. И если управляет человек, вопрос его действий за рулем в случае критической ситуации сводится к уровню подготовки, состоянию здоровья, внимательности и реакции, а также доли случайности, то с искусственным интеллектом не все так просто. Последний следует инструкциям, заложенным разработчиком. И вот здесь лежит основная проблема — проблема выбора.
Как поступить в случае критической ситуации, кем пожертвовать, кого поставить под риск гибели или причинения вреда здоровью? Собакой на тротуаре, вне проезжей части, чтобы спасти ребенка, выбежавшего на проезжую часть в неположенном месте? А если ребенок перебегает дорогу в разрешенном месте? А если в салоне автомобиля 4 человека? А если на тротуаре будет не собака, а пожилая женщина? А если детей будет двое? А если вместо пожилой женщины на тротуаре будут несколько мужчин среднего возраста? Придумайте любой из множества сценариев. Чем сложнее и совершеннее будут становиться технологии, тем, скорее всего, большее количество факторов они будут учитывать — социальный статус, состояние здоровья и т. п. Главная идея — это необходимость выбора. И она становится тем острее, чем дальше человечество передает часть своих функций машинам, и ИИ проникает в наиболее важные сферы жизни человека, в которых принятие решения было всегда исключительной прерогативой человека.
Однозначных правильных ответов на поставленные выше вопросы нет. Недавние исследованиятого, как должен вести себя беспилотный автомобиль во время ДТП, чьи жизни должен спасать, показали, что несмотря на общие региональные тенденции в ответах по всему миру, различные группы людей отвечали на эти вопросы по-разному. Сказались региональные культурные различия.
Отвечая на подобные вопросы, мы руководствуемся взглядами и убеждениями, такими категориями как «морально/аморально», «нравственно/безнравственно», «правильно/неправильно».
Мораль — это принятые в обществе представления о хорошем и плохом, а также совокупность норм поведения, из них вытекающих. Нормы морали трансформируются в нормы права, приобретая четкую формализацию и защиту со стороны государства.
Однако это не защитит их от изменений. Нормы морали могут меняться намного быстрее норм права, вступая в противоречие в последующем. Так, в нашем примере с беспилотным транспортным средством, по сути, отдавая предпочтение той или иной категории людей в связи с теми или иными признаками, каждый подопытный входил в противоречие с, например, Конвенцией о правах человека, которая устанавливает недопустимость дискриминации людей в связи с какими-либо признаками.
Так, в вышеуказанном исследовании, выяснилось, что представители одного из регионов, когда им приходится выбирать, чью жизнь подвергать опасности, а чью — спасать, отдавали предпочтение молодым людям и людям с высоким социальным статусом. Те же респонденты выше остальных ценили жизнь женщин и тех, кто занимается спортом. Представители другой группы предпочли законопослушных людей и пешеходов, меньше остальных «оценив» жизни женщин и молодых. Все вышеуказанные аргументы могут быть расценены как дискриминация.
Непринятие продукта и конфликты интересов. С чем столкнется IT-компания?
Как же быть в этой ситуации бизнес-аналитикам и product owners, которые должны работать над выявлением потребностей клиента (в данном примере — общества) и предлагать пути решения таких проблем? Заложив в алгоритм продукта равенство всех, как это предусмотрено законодательством большинства развитых стран мира, мы рискуем столкнуться с проблемами неопределенности и непредсказуемыми решениями. Кроме того, что это противоречит принципам разработки программного обеспечения, этого нельзя допустить при создании продуктов, от которых зависит жизнь людей.
Луддиты — участники стихийных протестов первой четверти XIX века против внедрения машин в ходе промышленной революциив Англии — громили и разрушали машины и оборудование. С их точки зрения, те вытесняли из производства людей, что приводило к технологической безработице. Даже в ХХІ веке существуют приверженцы обскурантизма — движения, проповедующего враждебное отношение к просвещению, наукеи прогрессу, губительность развития научно-технического прогресса для общества.
То есть компания рискует столкнуться с резким неприятием своего продукта на базе технологий с ИИ населением того или иного региона. И эти последствия будут ощущаться тем острее, чем более массовое использование получит технология и чем больше жизней будет от нее зависеть. Пример с беспилотным автомобилем так же валиден и для примера с «роботом-судьей», который упоминался в начале статьи.
Отличным примером может быть установленная на складах компании Amazon система, предназначенная для оптимизации работы. Нейросеть уже уволиланесколько тысяч человек за то, что они недостаточно быстро и четко выполняли свою работу. Компания неоднократно подвергалась критике за тяжелые условия труда, а в данной ситуации сотрудники еще и жалуются, что нейросеть принимает их не за людей, а за роботов — и обращается с ними соответственно. При этом менеджмент компании утверждает, что система более гуманна, чем человек на той же позиции (т. е. менеджер-супервайзер). На лицо скрытый конфликт потребностей разных групп стейкхолдеров — менеджмента и сотрудников, а также, возможно, и действующего законодательства, что и может вызывать нарастающее недовольство и неприятие технологии, вред имиджу компании.
С другой стороны, даже проведя масштабные исследования и выяснив, какие предпочтения существуют в обществе, не всегда можно заложить эти критерии в алгоритм принятия решений продуктом, который использует ИИ, не войдя в противоречие с действующим законодательством. А это порождает риски судебных исков и запрета технологии или продукта по решению властей того или иного государства.
Хорошим примером может послужить ситуация, когда Amazon был вынужден отказаться от использования ИИ в рекрутинге. Обучаясь на базе данных существующих сотрудников, в которой преобладали мужчины, ИИ при выборе кандидатов стал отдавать предпочтениемужчинам, чем вызвал шквал критики и угрозу судебного преследования в связи с дискриминацией женщин.
Получается, что не только различия между культурными кластерами, но и конфликты внутри них могут представлять серьезную проблему для разработчиков в сфере искусственного интеллекта.
Что же делать бизнес-аналитикам?
Первым шагом будет выяснение потребности общества, а также, как бы это странно ни звучало, норм морали, которые существуют в в тех сферах, куда собирается «вмешаться машина». Чем серьезнее такое вмешательство, тем более масштабное исследование необходимо. В случае, если в обществе существуют разные социальные группы, с разными нормами морали в одном и том же вопросе, делаем gap-анализ, чтобы понять насколько глубокими являются такие противоречия. Следующим этапом, должен стать анализ законодательства того региона, в котором планируется последующее внедрение технологии, а также gap-анализ, но уже с нормами морали, выявленными в ходе исследования. Чем больше разрыв между нормами морали в различных слоях общества, а также между ними и действующим законодательством, тем выше риск провала.
Верю, что это возможно. В случае, если общество единодушно в своих представлениях относительно исследуемого вопроса, необходима работа с законодательными органами для изменения законодательства и приведения его в соответствие с нормами морали. Ведь именно нормы морали и являлись изначальным источником норм права, лишь позже, в ходе развития, нормы морали вошли с ними в противоречие.
Гораздо хуже, когда у общества нет единого видения, как, по их мнению, должна «поступить машина». В этом случае преодолеть противоречия намного тяжелее и возможно только путем популяризаторской, просветительской деятельности, стараясь донести миссию, философию, а также пользу продукта. Является ли такая работа быстрой? Однозначно нет, в каких-то случаях, это может растянуться и на десятилетия. Но не стоит забывать, что в последнее время технологии выступают двигателем развития социальных институтов. Развиваясь слишком быстро, они периодически вступают в конфликт, однако дают толчок к изменениям друг друга.
В качестве примера можно привести генетику. Развитие этой науки прошло похожий путь. От полного запрета в некоторых странах, обвинений в лженаучности, осуждения со стороны религиозных институтов, до проведения первых исследований по редактированию генома эмбриона человека. При этом даже сейчас этой науке не до конца удалось решить все проблемы, стоящие на пути ее развития. Пример противоречия: когда ведущие ученые призвали к введениюглобального моратория на использование инструментов редактирования ДНК для создания генетически модифицированных детей.
Выводы
Исходя из вышеизложенного, можно сказать, что вызов перед бизнес-аналитиками и продукт оунерами стоит сложный, требующий комплексных, ранее не виданных по объему усилий. Но сложный не означает невозможный. Успешный пример генетики, прошедшей такой же тернистый путь к признанию, вселяет надежду в успешное внедрение технологий на базе ИИ в жизнь людей и то, что прогресс не остановить устаревшими социальными институтами. Давайте посмотрим, что будет дальше.
Images by Björn Öberg