ПРОБЛЕМЫ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Аннотация и ключевые слова
Аннотация (русский):
Функционирование искусственного интеллекта представляет собой своеобразное явление, которое недостаточно изучено с правовой точки зрения, что приводит к разным оценкам последствий его использования. Главной его особенностью является способность к самообучению, позволяющая принимать различные решения в одних и тех же ситуациях, в зависимости от ранее выполненных действий. В этих условиях возникает закономерный вопрос о наличии правовых оснований для юридической ответственности в случае причинения вреда при использовании подобных технологий. В правовой доктрине иногда обосновывается идея о правосубъектности искусственного интеллекта.Объект исследования - общественные отношения, возникающие при решении вопросов юридической ответственности за вред, причиненный при применении технологий искусственного интеллекта. Цель исследования - выявление оснований возникновения юридической ответственности и порядка возмещения вреда, причиненного при использовании технологий искусственного интеллекта, а также определение направлений совершенствования законодательства в этой сфере с учетом зарубежного опыта. Методологическую основу исследования составили диалектический, логический, формально-юридический и системно-структурный методы. Материалы исследования: российское законодательство, научные публикации по проблемам применения искусственного интеллекта и решения вопросов ответственности за причиненный при этом вред. Проведенное исследование позволило автору прийти к выводу о том, что в рамках гражданско-правовой ответственности проблема возмещения вреда (ущерба) при использовании технологий искусственного интеллекта может быть решена с позиции признания их в качестве источника повышенной опасности. Из этого следует возможность постановки вопроса об ответственности лица, которое создало, произвело, владело, пользовалось и распоряжалось соответствующими технологиями. Однако при установлении правил гражданской ответственности для случаев использования искусственного интеллекта необходимо обеспечить баланс между защитой интересов общества и сохранением стимулов для инвестиций в соответствующие инновационные продукты. В силу этого важнейшим элементом защиты имущественных интересов потерпевших должно стать страхование ответственности лиц, использующих технологии искусственного интеллекта. Вопрос об административной и уголовной ответственности следует решать исходя их характера наступивших последствий и формы вины причинителя вреда, в качестве которого следует рассматривать лицо, определявшее условия и параметры использования соответствующей технологии.

Ключевые слова:
возмещение вреда, защита имущественных интересов, искусственный интеллект, источник повышенной опасности, применение цифровых технологий, страхование ответственности, юридическая ответственность
Текст
Текст произведения (PDF): Читать Скачать

Введение Концепция искусственного интеллекта, появившаяся еще в 1956 г., все больше при- влекает к себе внимание юристов, поскольку сфера использования подобных техноло- гий неуклонно расширяется. При этом сами технологии непрерывно совершенствуются, неся не только блага, но и дополнительные, нередко непрогнозируемые риски, обуслов- ленные автономизацией принятия решений искусственным интеллектом, приобретшим способности к обучению и накоплению опыта. Эти риски признаются и разработчика- ми Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г., утвержденной распоряжением Правительства РФ от 19 августа 2020 г. № 2129-р, которые в качестве принципов деятельности в этой сфере, в частности, провозглашают: обязательность обоснованной оценки рисков при- чинения вреда жизни и здоровью человека, реализации угроз обороне страны и безопас- ности государства при применении искусственного интеллекта; запрет на причинение вреда человеку по инициативе систем искусственного интеллекта, что предполагает ограничение разработки, оборота и применения технологий, способных по своей ини- циативе целенаправленно причинять вред человеку; подконтрольность искусственного интеллекта человеку в той мере, в которой это возможно с учетом требуемой степени автономности таких систем. Исходя их этого ставится вопрос о проработке механиз- мов гражданско-правовой, уголовной и административной ответственности в случае причинения вреда системами искусственного интеллекта, имеющими высокую степень автономности, при принятии ими решений, в том числе с точки зрения определения лиц, которые будут нести ответственность за их действия, доработки при необходимости механизмов безвиновной гражданско-правовой ответственности, а также возможности использования способов, позволяющих возместить вред, причиненный действиями та- ких систем, включая механизмы страхования ответственности. Эта проблема привлекает внимание как российских [1-3], так и зарубежных [4, 5] уче- ных, которые оценивают имеющиеся правовые инструменты с точки зрения возможности их использования для решения рассматриваемых проблем и выработки предложений по их совершенствованию. Исходя из этого цель настоящего исследования состоит в выявлении оснований возникновения юридической ответственности и порядка возме- щения вреда, причиненного при использовании технологий искусственного интеллекта, а также определении направлений совершенствования законодательства в этой сфе- ре с учетом зарубежного опыта. Методологическую основу исследования составили диалектический, логический, формально-юридический и системно-структурный мето- ды, которые позволили рассмотреть проблему юридической ответственности за вред, причиненный при использовании технологий искусственного интеллекта в контексте соотношения с уже существующими правовыми институтами, и определить логически вытекающие из этого перспективы развития российского законодательства. Результаты исследования Отправным моментом в решении рассматриваемой проблемы является определение сущности искусственного интеллекта, где можно выделить два принципиально отли- чающихся направления в доктринальных подходах к его решению. Первый базируется на признании правосубъектности искусственного интеллекта, которая, впрочем, харак- теризуется непостоянством и зависит от типа юнита искусственного интеллекта, его изначальной экспектативной или текущей реальной функционально-целевой нагрузки [6, c. 31]. Предлагается конструкция электронного лица как формализованного технико- юридического образа, обладающего некоторыми признаками юридической фикции (по аналогии с юридическим лицом) [6, c. 30]. Второе направление юридической мысли ос- новывается на признании искусственного интеллекта объектом права, средством осу- ществления деятельности традиционных субъектов права, поскольку даже «возможность сильных самообучающихся роботов превосходить людей в скорости, точности и объеме вычислительных операций… далеко не равнозначно человеческому сознанию, самосо- знанию и интеллекту» [1, c. 113]. В силу этого говорить об искусственном интеллекте как субъекте уголовной или административной ответственности, где эмоционально-волевая составляющая поведения является основой для его правовой оценки и принятия ре- шения о применении мер государственного принуждения, вряд ли возможно. Впрочем, то же можно сказать и о деликтной ответственности, в основе которой лежит принцип полного возмещения вреда, источник покрытия которого при признании правосубъект- ности искусственного интеллекта будет найти затруднительно. Концепция искусственного интеллекта как инструмента находит широкую поддерж- ку и в зарубежной доктрине. Правила строгой ответственности регулируют поведение машины, связывая физическое или юридическое лицо, от имени которого она действо- вала, независимо от того, планировалось или предусматривалось такое поведение. Действующими лицами могут быть производители машин, систем искусственного ин- теллекта, пользователи искусственного интеллекта, программисты программного обе- спечения, работающего на таких машинах, и их владельцы [5, c. 387]. Однако можно найти и компромиссные подходы. Так, В. А. Лаптев, признавая роботов с искусственным интеллектом объектом права, допускает, что через несколько десятков лет робот (авто- матическое устройство) будет наделяться отдельными элементами правосубъектности (например, коллективной правосубъектностью совместно с лицом, управляемым данным роботом, либо определяющим установки по его поведению) [7, c. 32]. Впрочем, в науке существует точка зрения, согласно которой подобный подход может быть реализован уже на современном этапе [3, c. 45]. С учетом обозначенных трактовок сущности искусственного интеллекта решается и вопрос об основаниях и порядке реализации юридической ответственности за вред, причиненный при использовании подобных технологий. При этом идея о возможности рассмотрения непрогнозируемых действий и решений искусственного интеллекта как обстоятельств непреодолимой силы, исключающей ответственность, не поддержи- вается. Одни авторы для достоверного определения субъекта, ответственного за по- следствия применения технологии искусственного интеллекта, предлагают установить лицо, от имени и в интересах которого оно осуществлялось, то есть «ответственность должна… возлагаться на лицо, получающее прибыль от деятельности искусственного интеллекта» [8, c. 64], другие - использовать уже имеющийся в гражданском праве ин- ститут гражданско-правовой ответственности за вред, причиненный источником повы- шенной опасности (ст. 1079 ГК РФ) [1, c. 116]. Некоторые ученые акцентируют внимание на источнике возможной угрозы, заключаю- щемся либо в ошибках программирования и изготовления соответствующих технических устройств, ненадлежащей их эксплуатации либо несанкционированном вмешательстве в их работу. Исходя из этого делается вывод о том, что за негативные последствия ис- пользования технологий искусственного интеллекта должны нести ответственность: 1) автор соответствующего изобретения либо программист; 2) юридическое лицо, явля- ющееся правообладателем программного обеспечения либо изготовителем соответ- ствующего технического устройства; 3) пользователь / собственник (как юридическое либо физическое лицо); 4) третье лицо в случае неправомерного завладения роботом или его перепрограммирования на причинение вреда [3, c. 45]. Кроме того, поднимает- ся вопрос и об оценке качества сборки роботов, которая может отразиться на процессе их эксплуатации, становясь причиной наступления негативных последствий [9, c. 185]. Наконец, указывается на необходимость «подумать о дополнении существующей систе- мы специальных деликтов, устанавливающих особые составы правонарушения, прямо предусмотренные законом» [10, c. 68]. Неопределенность в вопросе о субъекте, несущем ответственность за вред, при- чиненный при использовании технологии искусственного интеллекта, возникающая в том числе из-за объективных трудностей в установлении причин отклонения от задан- ных алгоритмов, порождает идею об использовании для подобных ситуаций потенци- ала страхового покрытия подобных рисков. В частности, речь может идти о введении обязательного страхования гражданской ответственности производителей / пользова- телей роботов за вред, причиненный ими третьим лицам по аналогии с обязательным страхованием ответственности владельцев транспортных средств и иных источников повышенной опасности. Обсуждение результатов исследования С учетом оценки существующих в науке подходов к определению сущности искус- ственного интеллекта представляется необходимым, по крайней мере, для целей при- влечения к юридической ответственности исходить из его понимания как инструмента осуществления человеческой деятельности даже при достаточно высокой степени ав- номизации в принятии решений. Для определения лица, ответственного за вред, при- чиненный при использовании технологии искусственного интеллекта, целесообразно в каждом конкретном случае, исходя из обстоятельств причинения вреда, устанавливать субъекта, создающего, поддерживающего, контролирующего или вмешивающегося в систему искусственного интеллекта, который и должен нести ответственность за вред или ущерб, причиняемый деятельностью, устройством или процессом. Это предполагает выявление причинно-следственной связи между его поведением и наступившими по- следствиями. При таком подходе в зависимости от характера наступивших последствий можно будет говорить о возможности установления оснований не только для гражданско- правовой, но и административной и уголовной ответственности, в том числе если ис- кусственный интеллект был запрограммирован и использовался конкретным лицом в противоправных целях. При этом очевидно, что в публично-правовой сфере речь может идти только о виновной ответственности, в то время как вопрос о возмещении вреда (ущерба) должен решаться в рамках существующего института гражданско-правовой ответственности за вред, причи- ненный источником повышенной опасности. Как представляется, на современном этапе можно обойтись без расширения системы специальных деликтов, предполагающих фор- мирование особых составов правонарушений. В целях повышения эффективности защи- ты прав и законных интересов граждан, юридических лиц и государства представляется целесообразным внедрение системы обязательного негосударственного страхования ответственности за вред, причиненный при использовании технологий искусственного интеллекта. Это позволит обеспечить баланс интересов бизнеса, заинтересованного во внедрении передовых технологий, и общества, нуждающегося в действенных мерах за- щиты от непрогнозируемых рисков использования подобных технологий. В Резолюции Европейского парламента от 20 октября 2020 г. с рекомендациями Комис- сии по режиму гражданской ответственности за искусственный интеллект [2020/2014 (INL)] было отмечено отсутствие необходимости наделения систем искусственного интеллекта правосубъектностью, а следовательно, полного пересмотра хорошо функционирующих режимов ответственности при целесообразности конкретных и скоординированных кор- ректировок режимов ответственности во избежание ситуации, при которой потерпевшие останутся без должной компенсации. При этом был сделан акцент на ответственности оператора, которая оправдана тем фактом, что он или она контролирует риск, связан- ный с системой искусственного интеллекта, сопоставимый с владельцем автомобиля. Кроме того, из-за сложности и связности системы искусственного интеллекта оператор во многих случаях будет первым видимым контактным лицом для пострадавшего лица. Выводы Общепризнанные принципы юридической ответственности предполагают, что лицо, деятельность которого создает риски для общества, должно принять меры для мини- мизации возможного ущерба, а в случае его наступления возместить его. Из этого в зависимости от обстоятельств причинения ущерба следует возможность постановки вопроса об ответственности лица, которое создало, произвело, владело, пользовалось и распоряжалось соответствующими технологиями. В рамках гражданско-правовой ответственности проблема возмещения вреда (ущер- ба) при использовании технологий искусственного интеллекта может быть решена с позиции признания их в качестве источника повышенной опасности. Важнейшим эле- ментом защиты имущественных интересов потерпевших должно стать страхование ответственности лиц, использующих подобные технологии. При постановке вопроса об административной и уголовной ответственности вопрос следует решать исходя их характера наступивших последствий и формы вины причи- нителя вреда, в качестве которого следует рассматривать лицо, определявшее условия и параметры использования соответствующей технологии.
Список литературы

1. Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 112-119

2. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79-102

3. Цуканова Е. Ю., Скопенко О. Р. Правовые аспекты ответственности за причинение вреда роботом с искусственным интеллектом // Вопросы российского и международного права. 2018. Т. 8, № 4А. С. 42-48

4. Benhamou, Y. & Ferland, J. 2020, ‘Artificial Intelligence & Damages: Assessing Liability and Calculating the Damages (February 8, 2020)’, Leading Legal Disruption: Artificial Intelligence and a Toolkit for Lawyers and the Law, Forthcoming, viewed 11 November 2021, https://ssrn.com/abstract=3535387

5. Cerka P., Grigiene J. & Sirbikyte G. 2015, ‘Liability for damages caused by artificial intelligence’, Computer law & security review, iss. 31, pp. 376-389

6. Морхат П. М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы : дис. … д-ра юрид. наук. М., 2018. 420 с

7. Лаптев В. А. Ответственность «будущего»: правовое существо и вопрос оценки доказательств // Гражданское право. 2017. № 3. С. 32-35

8. Горохова С. С. Технологии на основе искусственного интеллекта: перспективы и ответственность в правовом поле // Юрист. 2021. № 6. С. 60-67

9. Регулирование робототехники: введение в «робоправо». Правовые аспекты развития робототехники и технологий искусственного интеллекта / В. В. Архипов [и др.], под ред. А. В. Незнамова. М . : Инфотропик Медиа, 2018. 232 с

10. Шевченко А. С., Шевченко Г. Н. Деликтные обязательства в российском гражданском праве. М. : Статут, 2013. 133 с

Войти или Создать
* Забыли пароль?