Что делать, если роботизированная машина совершит преступление ?

Страх перед мощным искусственным интеллектом и технологиями — довольно популярная тема, которую активно поддерживают фильмы вроде «Из машины», «Чаппи» и «Терминатора». В скором времени мы можем вообще столкнуться с полностью автономными технологиями, которые могут причинять вред. И хотя, вероятнее всего, это будет некая форма военного дроида или полицейского робота, он может причинить вред даже не по заранее запрограммированной программе, а случайно. Что тогда? Кто будет нести ответственность за искусственный интеллект, который выйдет из строя? Очевидно, этот курс развития технологий не особо вписывается в устоявшиеся рамки повинности и справедливости.

Хотя многие отмахиваются от этой темы, мол, она не имеет ничего общего с реальностью, не будем забывать, что роботов уже арестовывали за покупки наркотиков. Также не будем забывать, как быстро развиваются технологии. Мы хорошо усвоили уроки прошлого — многие из нас все еще помнят мир без Интернета, социальных медиа, мобильных технологий, GPS, широко доступных телефонов и компьютеров. Инновации в мире повседневных технологий создали много юридических проблем.

Виновен ли робот?

Мы быстро принимаем технологии как должное и так же быстро обязаны создавать правовые ограничения для них. Одна из функций нашей правовой системы — это урегулирование поведения граждан, наказание и сдерживание правонарушителей. Также она предоставляет компенсации тем, кто пострадал или может пострадать.

Юридические лица — люди, компании и организации — обладают правами и обязанностями. Те, кто строят, проектируют, продают и управляют разумными машинами, обладают правами — а как насчет самих машин? Ваш мобильный телефон вместе с Siri или Cortana не считается юридическим лицом. Но что, если автономно принятые решения их будущих потомков станут причиной серьезного ущерба?

Уголовное право имеет два важных понятия. Во-первых, ответственность возникает тогда, когда в процессе любого действия или бездействия может быть нанесен вред. Физические устройства вроде самоуправляемых автомобилей Google, к примеру, очевидным образом могут навредить, убить или уничтожить имущество. Программное обеспечение также обладает потенциалом нанесения вреда, но эти риски можно свести к менее явным формам ущерба, вроде потери финансовых средств.

Во-вторых, уголовное законодательство часто требует признания вины преступника, признания его виновным законом или по собственной воле — с тем, чтобы последующее наказание отражало состояние ума преступника и его роль в разбирательствах. Как правило, преднамеренные и злоумышленные действия наказываются жестче, чем непреднамеренные. В случае с машинами возникает проблема: как мы можем узнать намерения нечеловеческого существа? Как вписать отсутствие у него каких-либо намерений, кроме запрограммированных, в правовые рамки?

Робопреступление?

Эта проблема не нова — подобные соображения возникают постоянно в корпоративной среде. Сложно понять, когда и при каких обстоятельствах мы должны перекладывать вину с пользователя на производителя или дизайнера. Многие из наших современных и международных законов подразумевают участие оператора.

К примеру, в случае с дорогами режим регулирования предполагает, что есть человек-водитель, хотя бы в некоторой степени. Когда появятся полностью автономные автомобили, эти рамки потребуют внесения существенных изменений с учетом новых взаимодействий между человеком и машиной на дороге.

По мере того как разумные технологии, которые обходят прямое человеческое управление, становятся более продвинутыми и получают широкое распространение, вопросы риска, вины и наказания становятся более актуальными. Кино и телевидение до конца могут представлять нам крайние случаи, но уголовное право и в общем нормы лучше не предоставлять самим себе или фантастике.