Классическая задача трамвая, разработанная Филиппой Фут в 1967 году, исследует моральную дилемму, которую может представлять действие или бездействие. В базовом сценарии вы видите, как неуправляемая тележка мчится по рельсам к пяти рабочим. Единственный способ избежать верной смерти этих рабочих — потянуть рычаг, чтобы переключить тележку на другой путь. Проблема в том, что на этом другом пути есть один рабочий, который погибнет, если вы это сделаете.
Большинство людей скажут: «Да, я бы потянул рычаг». Кажется, что это простая проблема: один человек попадает под машину, а не пятеро. Тем не менее, вы можете внести небольшие изменения в задачу, которые приведут к большим изменениям в том, насколько вероятно, что люди пожертвуют одной жизнью, чтобы спасти пятерых.
Предположим, вы стоите на пешеходном мосту и видите, как та же тележка мчится к пяти рабочим на путях под вами. Рядом с вами стоит человек с большим рюкзаком на плечах, достаточно большим. И если вы столкнете его с пешеходного моста на пути, его масса не даст тележке сбить пятерых рабочих, но он умрет.
Эта задача представляет собой тот же расчет, что и исходная задача о тележке: пожертвовать одним человеком, чтобы спасти пятерых. Однако теперь готовность вмешаться резко снижается. Только около половины людей готовы столкнуть кого-то с моста.
Подумайте о задаче, применительно к беспилотным автомобилям. Какой выбор должен сделать беспилотный автомобиль, столкнувшись с дилеммой: сбить нескольких людей на пешеходном переходе или врезаться в бетонное ограждение и убить своего пассажира?
«В прошлом проблема трамвая была забавным мысленным экспериментом, но теперь это реальная проблема с высокими ставками».
Это оказывается действительно важной проблемой, потому что никто не хочет покупать беспилотный автомобиль, который будет принимать моральные решения, которые он бы не принял (например, врезаться в столб, чтобы спасти бездомную кошку). 🙁
Вот-вот, как глубоко человеческие моральные интуиции, унаследованные от селективного давления, оказываемого на наших эволюционных предков, вероятно, формируют наши решения относительно искусственного интеллекта и беспилотных автомобилей.
Поскольку мы вступаем в эпоху стремительно развивающегося ИИ, эти моральные вопросы становятся все более актуальными с практической точки зрения и менее эзотерическими.
Большинство людей скажут: «Да, я бы потянул рычаг».
Хороший утилитарист всегда тянет рычаг, и около 80–90 % людей ведут себя здесь как хорошие утилитаристы.
Однако теперь готовность вмешаться резко снижается. Только около половины людей готовы столкнуть кого-то с моста.
Это да… Думаю, намного меньше половины.
Несколько лет назад в одной из этих работ (касательно этой задачи), написанной ведущим исследователем Эдмондом Авадом и четырьмя коллегами, изучалось, существуют ли универсальные сходства в предпочтениях, а также случаи, когда существуют различия между странами и культурами. Они проанализировали ответы 70 000 участников на 10 языках и в 42 странах относительно их предпочтений между различными версиями задачи о трамвае, включая оригинальную версию и версию с пешеходным мостом. Они обнаружили идентичный шаблон предпочтений в каждой стране между версиями задачи о трамвае. Переключение в оригинальной версии задачи было наиболее приемлемым (со средним показателем по стране 81%, одобряющим эту жертву), в то время как… Подробнее »
Да, было такое… Как-то попадалось на глаза.
Это показывает разницу, которую мы ощущаем, когда совершаем действие (сталкиваем кого-то с моста) и бездействуем (не вмешиваемся и позволяем трамваю продолжать свой путь). Предвзятое отношение «Бездействие-совершение» говорит нам о том, что мы оцениваем вред, причиняемый действием, более строго, чем идентичный вред, причиняемый бездействием. Таковы люди, так они устроены.
Да, согласна.
Уже есть решения частные и пока в зачаточном виде . Хотя например тесла сказала что это странное решение и они неуверенны что это верное решение. https://www.youtube.com/shorts/nN_wS645Vj0 .
Что будет дальше и каике дальше ИИ будут не знаю но …