• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Думают ли андроиды о преступлениях?

Киберпанк, который мы заслужили?

Думают ли андроиды о преступлениях?

© Факультет права НИУ ВШЭ

В марте 2018 года в штате Аризона беспилотный автомобиль компании Uber сбил женщину, которая скончалась в больнице от полученных травм. В том же году в штате Юта беспилотник Tesla Model S врезалась в пожарную машину на скорости 97 км/ч, девушка-водитель получила перелом лодыжки. Только ленивый не высказывается о туманном будущем человечества и опасности роботизированных гуманоидов. А упоминать о том, насколько это популярная тема в массовой культуре, становится даже неприличным. 

Несмотря на то, что пока мы можем довольствоваться лишь какими-либо предсказаниями и предположениями, уже сейчас появились практические вопросы деятельности искусственного интеллекта (ИИ), относящиеся к правовому полю. Если ИИ совершит преступление, то как среагирует на это право? Кто будет нести ответственность — разработчик или ИИ? Какие проблемы связаны с привлечением создателя к ответственности? Если иные механизмы регулирования этого вопроса?

Различие между человеком и ИИ заключается в том, что в момент совершения преступления последний не руководствуется собственной волей, а следует заложенному алгоритму. Исходя из этого, можно сказать, что разработчики заранее «закладывают» в ИИ возможность совершения преступления. Безусловно, они не могут смоделировать все жизненные ситуации, но могут разработать общие подходы к решению спорных задач. Их как раз можно проследить на примере с беспилотными автомобилями. Задача ИИ — минимизировать в случае необходимости человеческие потери. То есть, пресловутую проблему вагонетки всё-таки придётся решать: если перед ИИ возникнет выбор кого оставить в живых — количество людей X или Y — он выберет число, которое больше. Соответственно, какие человеческие жертвы все-таки будут и кто понесёт за это ответственность? Если бы этот выбор делал человек, то именно он считался бы виновным, так как гибель людей была бы следствием его самостоятельной воли. 

С ИИ дело обстоит иначе, он действовал в соответствии с волей разработчиков, которые создали принцип его работы. Поэтому логично предположить, что момент совершения преступления следует перенести из временной точки, когда произошло драматическое событие (например, в результате действий ИИ погиб человек), в точку, когда создатели ИИ закладывали в него определенные установки, на основе которых он действовал — ведь именно их волю он реализовывал. 

Но тогда мы как будто бы приходим к тому, что преступление совершает не автономный робот, а создатель ИИ — человек, физическое лицо. Возникают трудности. Во-первых, разработчик не выполняет объективную сторону преступления — не нарушает непосредственно правила дорожного движения – следовательно уголовному наказанию он не подлежит. Во-вторых, в части вины возникает сложная ситуация. Моделируя поведение робота в каких-либо ситуациях, разработчик не желает их наступления и даже надеется, что они никогда не наступят. Таким образом, он не может привлекаться к уголовной ответственности в силу отсутствия состава преступления.

Есть и другая проблема — фактически, если мы все-таки будем наказывать разработчиков, то получится, что преступной будет признаваться сама разработка ИИ, в котором заложены действия в преступной ситуации.

Разрешение вышеописанных ситуация может заключаться в создании определенной комиссии по проверке деятельности ИИ и соответствия принятия им решений правовым и этическим стандартам. Это позволит снять с ответственность с разработчиком и самого ИИ. Пока последний не обладает самосознанием, его можно приравнять к обычному «инструменту», который точно не несет ответственности сам по себе. Преступление, таким образом, будет возникать в связи с неправильной эксплуатацией по вине человека. А в силу неопределенности мы пока достаточно благоразумно запрещаем очень-очень продвинутый «топор», ведь он тоже при неправильном использовании калечит людей.  

На данный момент ситуация разрешается запретом использования различного рода ИИ. Этот запрет обусловлен как раз тем, что непонятен механизм регулирования данной сферы при совершении преступления, нанесении ущерба и так далее.