PROBLEMS OF LEGAL LIABILITY FOR HARM CAUSED BY THE USE OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES
Abstract and keywords
Abstract (English):
The functioning of artificial intelligence is a peculiar phenomenon that has not been sufficiently studied from a legal point of view, which leads to different estimates of the consequences of its use. Its main feature is the ability to self-study, which allows you to make different decisions in the same situations, depending on previously performed actions. In these conditions, a natural question arises about the existence of legal grounds for legal liability in the event of harm caused by the use of such technologies. The legal doctrine sometimes jus- tifies the idea of the legal personality of artificial intelligence. The object of the study is social relations arising in solving issues of legal liability for harm caused by the use of artificial intel- ligence technologies. The purpose of the study is to identify the grounds for legal liability and the procedure for compensation for damage caused by the use of artificial intelligence tech- nologies, as well as to identify areas for improving legislation in this area, taking into account foreign experience. The methodological basis of the study was dialectical, logical, formal-legal and system-structural methods. Research materials: Russian legislation, scientific publications on the problems of using artificial intelligence and solving issues of responsibility for the harm caused in this case. The conducted research allowed the author to come to the conclusion that within the framework of civil liability, the problem of compensation for harm (damage) when us- ing artificial intelligence technologies can be solved from the position of recognizing them as a source of increased danger. This implies the possibility of raising the question of the respon- sibility of the person who created, produced, owned, used and disposed of the relevant tech- nologies. However, when establishing rules of civil liability for the use of artificial intelligence, it is necessary to ensure a balance between protecting the interests of society and preserving incentives for investment in relevant innovative products. Because of this, the most important element of protecting the property interests of victims should be liability insurance of persons using artificial intelligence technologies. The issue of administrative and criminal liability should be resolved based on the nature of the consequences that have occurred and the form of the fault of the harm-doer, as which the person who determined the conditions and parameters of the use of the appropriate technology should be considered.

Keywords:
vozmeschenie vreda, zaschita imuschestvennyh interesov, iskusstvennyy intellekt, istochnik povyshennoy opasnosti, primenenie cifrovyh tehnologiy, strahovanie otvetstvennosti, yuridicheskaya otvetstvennost'
Text
Publication text (PDF): Read Download

Введение Концепция искусственного интеллекта, появившаяся еще в 1956 г., все больше при- влекает к себе внимание юристов, поскольку сфера использования подобных техноло- гий неуклонно расширяется. При этом сами технологии непрерывно совершенствуются, неся не только блага, но и дополнительные, нередко непрогнозируемые риски, обуслов- ленные автономизацией принятия решений искусственным интеллектом, приобретшим способности к обучению и накоплению опыта. Эти риски признаются и разработчика- ми Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г., утвержденной распоряжением Правительства РФ от 19 августа 2020 г. № 2129-р, которые в качестве принципов деятельности в этой сфере, в частности, провозглашают: обязательность обоснованной оценки рисков при- чинения вреда жизни и здоровью человека, реализации угроз обороне страны и безопас- ности государства при применении искусственного интеллекта; запрет на причинение вреда человеку по инициативе систем искусственного интеллекта, что предполагает ограничение разработки, оборота и применения технологий, способных по своей ини- циативе целенаправленно причинять вред человеку; подконтрольность искусственного интеллекта человеку в той мере, в которой это возможно с учетом требуемой степени автономности таких систем. Исходя их этого ставится вопрос о проработке механиз- мов гражданско-правовой, уголовной и административной ответственности в случае причинения вреда системами искусственного интеллекта, имеющими высокую степень автономности, при принятии ими решений, в том числе с точки зрения определения лиц, которые будут нести ответственность за их действия, доработки при необходимости механизмов безвиновной гражданско-правовой ответственности, а также возможности использования способов, позволяющих возместить вред, причиненный действиями та- ких систем, включая механизмы страхования ответственности. Эта проблема привлекает внимание как российских [1-3], так и зарубежных [4, 5] уче- ных, которые оценивают имеющиеся правовые инструменты с точки зрения возможности их использования для решения рассматриваемых проблем и выработки предложений по их совершенствованию. Исходя из этого цель настоящего исследования состоит в выявлении оснований возникновения юридической ответственности и порядка возме- щения вреда, причиненного при использовании технологий искусственного интеллекта, а также определении направлений совершенствования законодательства в этой сфе- ре с учетом зарубежного опыта. Методологическую основу исследования составили диалектический, логический, формально-юридический и системно-структурный мето- ды, которые позволили рассмотреть проблему юридической ответственности за вред, причиненный при использовании технологий искусственного интеллекта в контексте соотношения с уже существующими правовыми институтами, и определить логически вытекающие из этого перспективы развития российского законодательства. Результаты исследования Отправным моментом в решении рассматриваемой проблемы является определение сущности искусственного интеллекта, где можно выделить два принципиально отли- чающихся направления в доктринальных подходах к его решению. Первый базируется на признании правосубъектности искусственного интеллекта, которая, впрочем, харак- теризуется непостоянством и зависит от типа юнита искусственного интеллекта, его изначальной экспектативной или текущей реальной функционально-целевой нагрузки [6, c. 31]. Предлагается конструкция электронного лица как формализованного технико- юридического образа, обладающего некоторыми признаками юридической фикции (по аналогии с юридическим лицом) [6, c. 30]. Второе направление юридической мысли ос- новывается на признании искусственного интеллекта объектом права, средством осу- ществления деятельности традиционных субъектов права, поскольку даже «возможность сильных самообучающихся роботов превосходить людей в скорости, точности и объеме вычислительных операций… далеко не равнозначно человеческому сознанию, самосо- знанию и интеллекту» [1, c. 113]. В силу этого говорить об искусственном интеллекте как субъекте уголовной или административной ответственности, где эмоционально-волевая составляющая поведения является основой для его правовой оценки и принятия ре- шения о применении мер государственного принуждения, вряд ли возможно. Впрочем, то же можно сказать и о деликтной ответственности, в основе которой лежит принцип полного возмещения вреда, источник покрытия которого при признании правосубъект- ности искусственного интеллекта будет найти затруднительно. Концепция искусственного интеллекта как инструмента находит широкую поддерж- ку и в зарубежной доктрине. Правила строгой ответственности регулируют поведение машины, связывая физическое или юридическое лицо, от имени которого она действо- вала, независимо от того, планировалось или предусматривалось такое поведение. Действующими лицами могут быть производители машин, систем искусственного ин- теллекта, пользователи искусственного интеллекта, программисты программного обе- спечения, работающего на таких машинах, и их владельцы [5, c. 387]. Однако можно найти и компромиссные подходы. Так, В. А. Лаптев, признавая роботов с искусственным интеллектом объектом права, допускает, что через несколько десятков лет робот (авто- матическое устройство) будет наделяться отдельными элементами правосубъектности (например, коллективной правосубъектностью совместно с лицом, управляемым данным роботом, либо определяющим установки по его поведению) [7, c. 32]. Впрочем, в науке существует точка зрения, согласно которой подобный подход может быть реализован уже на современном этапе [3, c. 45]. С учетом обозначенных трактовок сущности искусственного интеллекта решается и вопрос об основаниях и порядке реализации юридической ответственности за вред, причиненный при использовании подобных технологий. При этом идея о возможности рассмотрения непрогнозируемых действий и решений искусственного интеллекта как обстоятельств непреодолимой силы, исключающей ответственность, не поддержи- вается. Одни авторы для достоверного определения субъекта, ответственного за по- следствия применения технологии искусственного интеллекта, предлагают установить лицо, от имени и в интересах которого оно осуществлялось, то есть «ответственность должна… возлагаться на лицо, получающее прибыль от деятельности искусственного интеллекта» [8, c. 64], другие - использовать уже имеющийся в гражданском праве ин- ститут гражданско-правовой ответственности за вред, причиненный источником повы- шенной опасности (ст. 1079 ГК РФ) [1, c. 116]. Некоторые ученые акцентируют внимание на источнике возможной угрозы, заключаю- щемся либо в ошибках программирования и изготовления соответствующих технических устройств, ненадлежащей их эксплуатации либо несанкционированном вмешательстве в их работу. Исходя из этого делается вывод о том, что за негативные последствия ис- пользования технологий искусственного интеллекта должны нести ответственность: 1) автор соответствующего изобретения либо программист; 2) юридическое лицо, явля- ющееся правообладателем программного обеспечения либо изготовителем соответ- ствующего технического устройства; 3) пользователь / собственник (как юридическое либо физическое лицо); 4) третье лицо в случае неправомерного завладения роботом или его перепрограммирования на причинение вреда [3, c. 45]. Кроме того, поднимает- ся вопрос и об оценке качества сборки роботов, которая может отразиться на процессе их эксплуатации, становясь причиной наступления негативных последствий [9, c. 185]. Наконец, указывается на необходимость «подумать о дополнении существующей систе- мы специальных деликтов, устанавливающих особые составы правонарушения, прямо предусмотренные законом» [10, c. 68]. Неопределенность в вопросе о субъекте, несущем ответственность за вред, при- чиненный при использовании технологии искусственного интеллекта, возникающая в том числе из-за объективных трудностей в установлении причин отклонения от задан- ных алгоритмов, порождает идею об использовании для подобных ситуаций потенци- ала страхового покрытия подобных рисков. В частности, речь может идти о введении обязательного страхования гражданской ответственности производителей / пользова- телей роботов за вред, причиненный ими третьим лицам по аналогии с обязательным страхованием ответственности владельцев транспортных средств и иных источников повышенной опасности. Обсуждение результатов исследования С учетом оценки существующих в науке подходов к определению сущности искус- ственного интеллекта представляется необходимым, по крайней мере, для целей при- влечения к юридической ответственности исходить из его понимания как инструмента осуществления человеческой деятельности даже при достаточно высокой степени ав- номизации в принятии решений. Для определения лица, ответственного за вред, при- чиненный при использовании технологии искусственного интеллекта, целесообразно в каждом конкретном случае, исходя из обстоятельств причинения вреда, устанавливать субъекта, создающего, поддерживающего, контролирующего или вмешивающегося в систему искусственного интеллекта, который и должен нести ответственность за вред или ущерб, причиняемый деятельностью, устройством или процессом. Это предполагает выявление причинно-следственной связи между его поведением и наступившими по- следствиями. При таком подходе в зависимости от характера наступивших последствий можно будет говорить о возможности установления оснований не только для гражданско- правовой, но и административной и уголовной ответственности, в том числе если ис- кусственный интеллект был запрограммирован и использовался конкретным лицом в противоправных целях. При этом очевидно, что в публично-правовой сфере речь может идти только о виновной ответственности, в то время как вопрос о возмещении вреда (ущерба) должен решаться в рамках существующего института гражданско-правовой ответственности за вред, причи- ненный источником повышенной опасности. Как представляется, на современном этапе можно обойтись без расширения системы специальных деликтов, предполагающих фор- мирование особых составов правонарушений. В целях повышения эффективности защи- ты прав и законных интересов граждан, юридических лиц и государства представляется целесообразным внедрение системы обязательного негосударственного страхования ответственности за вред, причиненный при использовании технологий искусственного интеллекта. Это позволит обеспечить баланс интересов бизнеса, заинтересованного во внедрении передовых технологий, и общества, нуждающегося в действенных мерах за- щиты от непрогнозируемых рисков использования подобных технологий. В Резолюции Европейского парламента от 20 октября 2020 г. с рекомендациями Комис- сии по режиму гражданской ответственности за искусственный интеллект [2020/2014 (INL)] было отмечено отсутствие необходимости наделения систем искусственного интеллекта правосубъектностью, а следовательно, полного пересмотра хорошо функционирующих режимов ответственности при целесообразности конкретных и скоординированных кор- ректировок режимов ответственности во избежание ситуации, при которой потерпевшие останутся без должной компенсации. При этом был сделан акцент на ответственности оператора, которая оправдана тем фактом, что он или она контролирует риск, связан- ный с системой искусственного интеллекта, сопоставимый с владельцем автомобиля. Кроме того, из-за сложности и связности системы искусственного интеллекта оператор во многих случаях будет первым видимым контактным лицом для пострадавшего лица. Выводы Общепризнанные принципы юридической ответственности предполагают, что лицо, деятельность которого создает риски для общества, должно принять меры для мини- мизации возможного ущерба, а в случае его наступления возместить его. Из этого в зависимости от обстоятельств причинения ущерба следует возможность постановки вопроса об ответственности лица, которое создало, произвело, владело, пользовалось и распоряжалось соответствующими технологиями. В рамках гражданско-правовой ответственности проблема возмещения вреда (ущер- ба) при использовании технологий искусственного интеллекта может быть решена с позиции признания их в качестве источника повышенной опасности. Важнейшим эле- ментом защиты имущественных интересов потерпевших должно стать страхование ответственности лиц, использующих подобные технологии. При постановке вопроса об административной и уголовной ответственности вопрос следует решать исходя их характера наступивших последствий и формы вины причи- нителя вреда, в качестве которого следует рассматривать лицо, определявшее условия и параметры использования соответствующей технологии.
References

1. Apostolova N. N. Otvetstvennost' za vred, prichinennyy iskusstvennym intellektom // Severo-Kavkazskiy yuridicheskiy vestnik. 2021. № 1. S. 112-119

2. Laptev V. A. Ponyatie iskusstvennogo intellekta i yuridicheskaya otvetstvennost' za ego rabotu // Pravo. Zhurnal Vysshey shkoly ekonomiki. 2019. № 2. S. 79-102

3. Cukanova E. Yu., Skopenko O. R. Pravovye aspekty otvetstvennosti za prichinenie vreda robotom s iskusstvennym intellektom // Voprosy rossiyskogo i mezhdunarodnogo prava. 2018. T. 8, № 4A. S. 42-48

4. Benhamou, Y. & Ferland, J. 2020, ‘Artificial Intelligence & Damages: Assessing Liability and Calculating the Damages (February 8, 2020)’, Leading Legal Disruption: Artificial Intelligence and a Toolkit for Lawyers and the Law, Forthcoming, viewed 11 November 2021, https://ssrn.com/abstract=3535387

5. Cerka P., Grigiene J. & Sirbikyte G. 2015, ‘Liability for damages caused by artificial intelligence’, Computer law & security review, iss. 31, pp. 376-389

6. Morhat P. M. Pravosub'ektnost' iskusstvennogo intellekta v sfere prava intellektual'noy sobstvennosti: grazhdansko-pravovye problemy : dis. … d-ra yurid. nauk. M., 2018. 420 s

7. Laptev V. A. Otvetstvennost' «buduschego»: pravovoe suschestvo i vopros ocenki dokazatel'stv // Grazhdanskoe pravo. 2017. № 3. S. 32-35

8. Gorohova S. S. Tehnologii na osnove iskusstvennogo intellekta: perspektivy i otvetstvennost' v pravovom pole // Yurist. 2021. № 6. S. 60-67

9. Regulirovanie robototehniki: vvedenie v «robopravo». Pravovye aspekty razvitiya robototehniki i tehnologiy iskusstvennogo intellekta / V. V. Arhipov [i dr.], pod red. A. V. Neznamova. M . : Infotropik Media, 2018. 232 s

10. Shevchenko A. S., Shevchenko G. N. Deliktnye obyazatel'stva v rossiyskom grazhdanskom prave. M. : Statut, 2013. 133 s

Login or Create
* Forgot password?