Робомобили будут давить людей на дорогах строго по правилам
Поведение автоводителя в неожиданных ситуациях, когда его действия могут привести либо к столкновению его машины с другим автомобилем, либо к наезду на пешеходов, проходящих по «зебре», либо к вылету на людей, стоящих на остановке городского транспорта, вряд ли можно объяснить мыслительным выбором наименее «смертоносного» решения. В таких экстремальных случаях самым вероятным «постфактум объяснением» мотива произошедшего действия может считаться интуитивные движения рук и ног по управлению автомобиля.
Вряд ли кто-либо, находясь в стрессовом состоянии способен на логические рассуждения, предшествующие выбору. Тем более, что, как правило, действовать нужно в течение считанных долей секунды. А кто когда-либо «проигрывал» мысленно свое поведение в таких ситуациях? И учат ли в автошколах или еще где-либо правилам выбора кого в безвыходной ситуации «можно убивать автомобилем»? — Нет. Тогда почему люди хотят внушить эти правила робомобилям?
Может быть, потому, что искусственный интеллект в отличие от человеческого обладает сверхбыстрым «мышлением» (в определенной узкой отрасли) и ему можно «поручить» проведения анализа ситуации с целью разработки «обоснованного» выбора действий автопилота за сотые доли секунды? Но тогда в память автопилота нужно записать все возможные случаи, грозящие убийством людей. И все сочетания этих возможностей, которые могут возникнуть, например, на городском перекрестке. А возможно ли вообще предвидеть все мыслимые сочетания «смертоносных размещений» людей на близких к перекрестку расстояниях? Ведь «немыслимые» сочетания тоже могут произойти, а они не будут описаны в ПО и, следовательно, не внесутся в память автопилота. И как он поступит в таком неописанном в программе случае?
Вопросов к содержанию «модуля убийств людей» в ПО робомобилей — великое множество. И трудно найти на все логичные ответы. К тому же, наверняка, есть не меньше упущенных из вида вопросов. Но все-таки с чего-то нужно начинать, чтобы не оставить автопилотов в неведении «кого им можно убивать», избегая «благодаря этому» убийства других людей.
Поиском ответов на эти вопросы занялись ученые Массачусетского технологического института (МТИ), которые в течение двух лет провели глобальное исследование об отношении людей в разных странах мира к выбору «убийственных решений», которые, по мнению большинства участников опроса (а их с 2016-го по 2018-й годы собралось около 2,3 млн), могут быть «вменены в обязанности поведения» робомобилей в экстремальных ситуациях, связанных с опасностью для жизни людей. Для привлечения как можно большего количества людей к онлайн-опросу командой исследователей была выложена в Интернет многоязычная онлайн-игра Moral Machine, в ходе которой «игроки» делали выбор, попадая в спорные дорожные ситуации, связанные с опасностью для жизни людей. Например, нужно было ответить, кого в экстремальной ситуации может сбить робомобиль: группу людей на остановке или одного пешехода, перебегающего дорогу в неположенном месте? И подобных вопросов было около сотни.
В результате подсчета голосов по всем вопросам («Моральная машина» собрала около 40 млн ответов) ученые МТИ выделили 3 основных правила выбора «кого можно убивать»:
- спасти жизнь человека предпочтительнее, чем жизнь животного,
- большая группа людей важнее, чем один-два человека,
- сохранить жизнь ребенка важнее, чем старика.
При этом практически все респонденты-игроки одинаково нетерпимо относятся к пешеходам-нарушителям ПДД, предпочитая дать алгоритму робомобиля право сбивать их, избегая наезда на прохожих, выполняющих ПДД.