7 Зачем создают автопилот

Создатели автопилота занимаются этим для решения двух задач - снижение стоимости перевозок и повышения их безопасности. Стоимость перевозок это забота предпринимателей, а при обсуждении вопросов морали нас интересует безопасность.

Важно отметить, что речь не идёт о совершенстве, оно, к сожалению, недостижимо, речь не идёт о неуязвимом автопилоте который спасёт пассажиров даже если Луна обрушится на Землю. Речь о том, что автопилот должен быть хотя бы немного лучше чем человек в сфере безопасности. Причём лучше не в среднем, а лучше или не хуже во всех ситуациях. Ведь в теории может быть автопилот который уменьшает смертность на дорогах, но так, что гибнут люди которые никогда бы не пострадали при белковых водителях. Такого быть не должно, автопилот не должен ухудшать чьё-либо положение, снижение смертности не должно происходить за чей-то счёт.

В ситуациях не требующих морального выбора автопилот однозначно выигрывает человека - скорость реакции выше, внимательность и сосредоточенность выше. Автопилот не устаёт, не засыпает, не употребляет наркотики, не болтает и не отвлекается. А ведь главная причина аварий именно эти человеческие дефекты.

С этим вопросом понятно, теперь нужно понять как влияет автопилот на гипотетическую ситуацию в которой есть моральный выбор. Вопрос в том умеют ли люди в аварийной ситуации совершать «правильный» моральный выбор? Боюсь, что нет. Во-первых, аварийные ситуации обычно скоротечны, часто человек просто не успевает осознать происходящее, слышал что самое безопасное место позади водителя (видимо при лобовых столкновениях), потому что тот рефлекторно выворачивает руль так, чтобы самому не врезаться в препятствие т.е. на рассуждения о морали времени нет - работают рефлексы. Во-вторых, часто, чтобы сделать моральный выбор нужно что-то знать о людях между которыми надо выбирать, маловероятно что белковый водитель столкнётся со знакомыми людьми, а если даже встретит, то не факт что в аварийной (скорее всего неожиданной) ситуации он сможет их узнать. В случае же незнакомых людей ему нужно будет сделать какие-то оценки только на основании очень короткого (мгновенного) внешнего осмотра, сможет ли он хотя бы распознать возраст, состояние беременности? Точно он не сможет узнать о заслугах этих людей перед обществом или их преступлениях. И даже если человек успел сделать какой-то выбор, был ли этот выбор верным для него, если он принимал бы аналогичное решение в спокойной обстановке имея время на раздумья принял бы он то же решение?

Конечно без надёжных исследований нельзя утверждать, что человек никогда не принимает моральных решений за рулём, но выглядит это сомнительно, скорее всего человек рефлекторно спасает себя и в этом есть определённый смысл - ведь водитель имеет контроль только над своим авто и решает ту проблему, на которую может влиять.

Для того, чтобы не ухудшить ситуацию в этой сфере (и по ряду других причин описанных ниже) мы должны запрограммировать автопилот так, чтобы ни в каких случаях он не жертвовал своими пассажирами. Помимо указанной особенности человеческого поведения это важно и потому, что просто никто не пожелает пользоваться автомобилем который может тебя убить, при том, что вины пассажиров никакой нет (ведь управляет автопилот, да и правил он не нарушает). Есть ещё один подводный камень автопилота способного пожертвовать пассажиром - зная о такой особенности автопилота можно подстроить убийство пассажира, например, вытолкнув на дорогу в опасном месте несколько человек замаскированных под беременных женщин.

Как видим и в этой гипотетической ситуации автопилот, скорее всего, будет не хуже человека.