Исследователи из
Massachusetts Institute of Technology (MIT) проанализировали данные, собранные с помощью проекта
Moral Machine, в рамках которого людям нужно было решить проблему вагонетки в ситуации «сломанных тормозов у беспилотного автомобиля, подъезжающего к пешеходному переходу». По результатам данного исследования предполагалось создать некий обобщенный паттерн принятия такого рода решений, для возможного внедрения такого подхода в программу поведения беспилотного транспорта. В качестве персонажей эксперимента, участвующих в дилеммах, были персонажи, различающиеся по полу, возрасту (младенцы в колясках, дети, взрослые, пожилые), физической форме (люди с избыточным весом, обычные люди и спортсмены), социальному статусу (бездомные, обычные люди и начальники) и видовой принадлежности (кроме людей, среди персонажей встречаются собаки и кошки).
После изучения общей динамики ответов участников эксперимента, можно отметить, что участники чаще выбирали действие (направить автопилот в другую сторону), старались спасти большее количество людей, чаще спасали мужчин, а не женщин и предпочитали спасать детей, а не пожилых людей. Кроме того, участники опроса также чаще спасали людей, а не животных. Любопытно также отметить, что на принятие решений испытуемых оказывало влияние их религиозность (или ее отсутствие), географическое нахождение и т.д. В зависимости от полученных ответов, было выделено три культурных кластера.
1. В первый «
западный» кластер попали жители Северной Америки и некоторых европейских стран — приверженцы католицизма и православия.
2. Во второй «
восточный» кластер попали жители азиатских стран и стран Ближнего Востока.
3. В третий «
южный» кластер попали жители латинской и центральной Америки и жители бывших французских колоний.
Для каждого кластера был характерен свой паттерн принятия решений: к примеру, жители «
южного» кластера чаще других спасали женщин и чаще предпочитали спасать людей более высокого статуса (бизнесменов, а не бездомных). Участники из «
восточного» кластера чаще спасали тех, кто не нарушает ПДД. А «
западный» кластер чаще других предпочитал бездействие. Кроме того, различия в принятии решений нашли и на уровне стран: в Финляндии и Японии тщательно следят за соблюдением ПДД: именно поэтому жители этих стран решали пожертвовать нарушителями чаще, чем страны с более «мягкими» ПДД (например, Нигерия). Кроме того, жители стран с низкими показателями экономического неравенства (например, той же Финляндии) не показывали предпочтений в спасении либо бизнесменов, либо бездомных.
Но самый интересный результат данного эксперимента заключается не столько в итоговой статистике, а в подходе. Все приведенные выше варианты принятия решений были совершены людьми при проведении теоретического опроса. И как только их погружали в более реалистичную обстановку с помощью компьютерной симуляции процесса, абсолютное большинство из них, включая самых активных в теоретической части исследования, предпочли не делать никакого выбора, даже при условии, что теоретически их жизнь как пассажиров данного транспортного средства, находилась под угрозой.
А теперь давайте представим мир, в котором компьютерная система, условно Google, Apple или Яндекс, будет оценивать жизнь человека, чтобы эта информация в любой момент помогла решить «проблему вагонетки».Данное предположение совершенно не выглядит фантастическим, учитывая, что количество гаджетов с выходом в интернет, а значит с возможностью обмена информации, превысило население земли еще в 2007-2008 годах. И по прогнозам, к 2020 году, условно на 7,5 млрд. населения земли будет приходится порядка 50 млрд. подключенных к интернету устройств.
Цифровой след в сети также характеризует пользователей. И по итогу, когда весь этот получаемый и не обрабатываемый массив данных будет структурирован, условный беспилотный автомобиль сможет принимать решения и без всякого
ИИ, просто основываясь на статистике и заложенных в его программе подходах к обработке данной статистики. Фактически, такой подход мало чем отличим от работы робота-судьи, выносящего свои решения основываясь на статистике уже вынесенных судебных вердиктов.
В 1942 году Айзек Азимов в своём рассказе «Хоровод» представил читателям
Три Закона робототехники, который он в последствии добавил еще и «0», которые до сих пор остаются крайне популярным подходом для описания этики взаимоотношений робота и человека, и как правило ложатся в основу практически любых нормативно-правовых актов:
1. Робот не может причинить вред человеку или своим бездействием допустить причинение ему вреда.
2. Робот должен повиноваться приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.
Таким образом, несмотря на весь достигнутый технологический прогресс,
без решения этической стороны вопроса, сколь бы то ни было серьезное развитие автоматизации в правовой среде невозможно, т.к. автоматизация принятия решений в идеале не должна повторно перепроверяться и дублироваться дополнительным участником процесса, т.к. это противоречит самой сути автоматизации. Так что данный вопрос пока еще остается открытым.