Что такое источник повышенной опасности в контексте Гражданского кодекса Российской Федерации?

Гражданский кодекс Российской Федерации (далее — ГК РФ) предусматривает ответственность за вред, причиненный деятельностью, создающей повышенную опасность для окружающих. Так, Пленум Верховного Суда РФ раскрывает понятие термина источника повышенной опасности. Согласно п. 18 Постановления под источником повышенной опасности следует признавать «любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека…»1 .

Даем понятие и смотрим на правосубъектность искусственного интеллекта

Возникают соответствующие вопросы: возможно ли признание за искусственным интеллектом (далее — ИИ) деятельности источника повышенной опасности? Кто и каким образом будет привлекаться к ответственности в условиях такого признания?

Сперва стоит дать легальное определение искусственному интеллекту, отражающее практическую основу данной технологии. В Указе Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» под искусственным интеллектом понимается «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека»2 .

В настоящее время искусственный интеллект является объектом множества дискуссий. Одна из них касается его правосубъектности. Таким образом, высказываются следующие точки зрения:

  • Первая основывается на признании правосубъектности искусственного интеллекта3. Ее сторонники предлагают создать некую конструкцию электронного лица, которая будет обладать признаками юридической фикции. В таком случае искусственный интеллект будет нести ответственность самостоятельно, в том числе и деликтную ответственность, в основе которой лежит принцип полного возмещение вреда, «источник покрытия которого при признании правосубъектности ИИ будет найти затруднительно»4.
  • Вторая основывается на признании искусственного интеллекта объектом прав. В силу этого нельзя говорить об искусственном интеллекте как о субъекте уголовной, административной или гражданской ответственности.5

Следовательно, ответственность за вред, причиненный ИИ, будет лежать или на эксплуатирующем его лице, или на разработчике программного кода. Согласно ст. 1079 ГК РФ обязанность возмещения вреда возлагается на субъект, владеющий источником повышенной опасности в качестве собственника или на ином другом законном основании6.

Причинение вреда искусственным интеллектом. Кейс Tesla

С момента начала применения искусственного интеллекта в качестве технологии, заменяющей человека, стали возникать споры, связанные с причинением вреда имуществу, жизни и здоровью людей. Хорошим примером, отображающем факт причинения вреда, является использование ИИ в технологиях автопилота в автомобилях Tesla американской одноименной компании. Производитель технологии предупреждает, что она должна быть использована под пристальным наблюдением со стороны водителя, хотя сама по себе обеспечивает автономность эксплуатации техники. В 2020 году жительница Лос-Анджелеса Джастин Су подала в суд иск с требованием возмещения вреда, причиненного возможной ошибкой в работе автопилота, вырулившего машину на обочину городской дороги, вследствие чего сработала подушка безопасности. В ходе процесса решение было вынесено в пользу компании «Тесла» в связи с тем, что водитель автомобиля не осуществляла контроль за транспортным средством в момент вождения7.

Искусственный интеллект — источник повышенной опасности?

В законодательстве Российской Федерации презюмируется обязанность возместить вред, причинённый источником повышенной опасности, при условии, что не будет доказано, что вред возник вследствие непреодолимой силы или умысла потерпевшего. Постановление Пленума Верховного Суда РФ от 26.01.2010 № 1 указывает, что под источником повышенной опасности стоит понимать деятельность, создающую повышенную опасность вреда. Кроме критерия «деятельность», Верховный суд позволяет распознать источник повышенной опасности через призму объекта материального мира, обладающего «вредоносными» свойствами8. Таким образом, источник повышенной опасности может быть признан через следующие критерии: «деятельность», «действие» и «вредоносность». Обозначив необходимые для идентификации источника повышенной опасности критерии, необходимо выяснить, подходит ли ИИ под указанные требования. Категории «деятельности» и «действия», создающих опасность причинения вреда, подтверждаются технически сложным устройством самой технологии ИИ, а также автономностью выбора стратегии выполнения поставленной задачи. Критерий «вредоносности» раскрывается через сферы, в которых может быть использована технология ИИ. Именно так эксплуатация искусственного интеллекта в медицине при определении диагноза или же в беспилотном управлении транспортным средством предполагает возможность причинения вреда окружающим субъектам. Таким образом, можно прийти к выводу о возможности признания искусственного интеллекта источником повышенной опасности.

Однако в таком случае возникает неопределенность в вопросе о субъекте, который будет нести ответственность за вред, причиненный при использовании ИИ и в тех случаях, когда такой вред возникает в силу, например, его отклонения от заданных алгоритмов. Высказывается возможность внедрения обязательного страхования гражданской ответственности при использовании искусственного интеллекта. Однако, данная мысль вызывает множество вопросов, касающихся сущности возможности практической реализации самого института страхования в условиях страхования риска ошибки ИИ, а также при определении страховых рисков (его вероятности и случайности). Именно так уже сейчас Брукингский институт, изучающий проблематику внедрения ИИ в повседневную жизнь человека, выработал примерный перечень страховых рисков при причинении вреда от ИИ. Например, производственный риск подозревает техническую ошибку разработчика технологии; риск безопасности включает в себя возможность кибератаки и нарушение конфиденциальности личных данных пользователя, риск злонамеренности9.

Вывод

Подводя итоги проделанной работы, можно сделать вывод, что искусственный интеллект может быть приравнен к источнику повышенной опасности. В связи с действием нормы ГК возникает вопрос о природе деликтных отношений при признании ИИ источником повышенной опасности. Одним из способов решения правовой коллизии может быть перераспределение ответственности через идентификацию причины причинения вреда. То есть, если причинение вреда произошло исключительно в связи с технической ошибкой технологии ИИ, то ответственность будет нести производитель ИИ. Однако, если причинение вреда произошло в условиях нарушения правил эксплуатации самой технологии или же при условии умысла её оператора, то в таком случае ответственность за нанесённый вред будет нести использующий её в своих целях субъект. Законодателю необходимо тщательно урегулировать этот момент или предусмотреть отдельную главу про причинение вреда искусственным интеллектом, так как он все больше и больше внедряется в жизнь общества.

1Постановление Пленума Верховного Суда РФ от 26.01.2010 N 1 «О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина» // Российская газета. 05.02.2010. N 24. 2Указ Президента РФ от 10.10.2019 N 490 «О развитии искусственного интеллекта в Российской Федерации» // СЗ РФ. 14.10.2019. N 41. ст. 5700. 3Морхат П.М. Правосубъектность юнитов искусственного интеллекта. Гражданско-правовое исследование. – Москва: ЮНИТИ-ДАНА, 2018. – С. 420.ч 4Романова И.Н. Проблемы юридической ответственности за вред, причиненный при использовании технологий искусственного интеллекта // URL: https://cyberleninka.ru/article/n/problemy-yuridicheskoy-otvetstvennosti-za-vred-prichinennyy-pri-ispolzovanii-tehnologiy-iskusstvennogo-intellekta 5Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. 536 с. 6Гражданский кодекс Российской Федерации (часть вторая) от 26.01.1996 N 14-ФЗ (ред. от 24.07.2023) // СЗ РФ. ". 29.01.1996. N 5. ст. 410. 7Focus: Tesla braces for its first trial involving Autopilot fatality // URL: https://www.reuters.com/business/autos-transportation/tesla-braces-its-first-trial-involving-autopilot-fatality-2023-08-28/ 8Постановление Пленума Верховного Суда РФ от 26.01.2010 N 1 «О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина» // Российская газета. 05.02.2010. N 24. 9How insurance can mitigate AI risks // URL: https://www.brookings.edu/articles/how-insurance-can-mitigate-ai-risks/
Эксперты ГК "ДЕЛОВОЙ ПРОФИЛЬ" готовы оказать помощь по любым вопросам
Отправьте заявку на бесплатную консультацию. Наши специалисты свяжутся с вами.
Автор материала
Комментарий эксперта
Если вы – представитель СМИ и вам требуется комментарий эксперта, пожалуйста заполните форму.
Подпишитесь
на новости
Получайте самые актуальные публикации из новостной ленты