Файл: СанктПетербургский государственный университет юридический факультет Магистратура.docx

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 19.03.2024

Просмотров: 10

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Санкт-Петербургский государственный университет

юридический факультет

Магистратура


Курс: Публичное и частное право в цифровую эпоху

Правовая позиция курьера в игровом процессе
Для правовой позиции курьера ключевым является рассмотрение вопроса о том, кто несет ответственность за искусственный интеллект и в какой мере здесь виноват сам курьер. Правовая оценка роли искусственного интеллекта представляет собой переломный момент данного процесса, поскольку ее разрешение напрямую определяет и вопрос наложения ответственности за причиненный ущерб. Кроме того, в данном случае имеют место обстоятельства смягчающие вину курьера.

Право Российской Федерации под искусственным интеллектом понимает комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Впервые, это определение искусственного интеллекта было сформулировано в Указе Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации"1, а позже отражено в Федеральном законе от 24.04.2020г. № 123 «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных»2. Впоследствии на основании указанных ранее актов было принято несколько Приказов Минэкономразвития России, например, Приказ от 29 июня 2021 г. № 392 «Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта»3.

В начале развития робототехники предполагалось, что робот выполняет действия только по ранее заданным программой алгоритмам. Искусственный интеллект — это следующая стадия развития робототехники и программирования, обладающая способностью самостоятельно принимать решения
, ранее не заложенные в программе. Это поднимает вопрос, является ли искусственный интеллект субъектом права? В законодательстве Российской Федерации, таковым статусом искусственный интеллект не обладает. В доктрине, представляется, справедливо отмечено В.А. Лаптевым, что робот обладает отдельными элементами субъекта права, при осуществлении им производственно-хозяйственной деятельности. Одновременно робот выступает объектом права, будучи предметом материального мира и обладающий ценностью (как имущество — технология)4. Грачева Ю.В. и Арямов А.А. отмечают, в соответствии со ст. 128 ГК РФ робот является объектом гражданского права5.

Прежде чем мы рассмотрим вопросы юридической квалификации действий искусственного интеллекта и возможной ответственности компании Яндекс необходимо раскрыть роль искусственного интеллекта в возникновении ущерба.

Согласно материалам игрового процесса потерпевший, “находясь в измененном состоянии сознания”, “декламировал различные стихи и прозу и, среди прочего, произнес имя «Алиса», «килограмм» и слово «икра”, которые стихи алгоритмы Алисы распознали как запрос на доставку еды из ресторана Ginza Project - килограмма осетровой икры общей стоимостью 118 000 рублей. Дальше в процессе оформления заказа потерпевший декламировал экстремистские стихи, в результате чего он был забанен в сервисах Яндекса до того как осуществилась оплата данного заказа, но из-за технического сбоя заказ был оформлен без завершения оплаты.

Когда, после разрешения недоразумения относительно адреса доставки, возникшего в связи с действием жены потерпевшего, курьер приехал на адрес потерпевшего, курьера привел в раздражение прозвучавший голос Алисы: “Извините, курьер немного опаздывает, но спешит к Вам”, и поэтому он ножом нанес повреждения потерпевшему.

Из приведенных обстоятельств следует, что вклад голосового помощника “Алиса”, основанного на нейросети и машинном обучении, состоялся в оформлении заказа без основании для этого, так как у потерпевшего не было намерения сделать заказ, что следует и из слов, произнесенных потерпевшим, а также и в провокации курьера, который является очень пунктуальным человеком и помимо этого уже приехал на адрес доставки, который оказался неправильным.

Данные действия свидетельствуют о дефекте использованной технологии
, под которым, согласно ГОСТ Р 56828.15-2016, подразумевается “«локальное (местное) нарушение внутреннего состояния объекта, заключающееся в изменении (ухудшении или улучшении) отдельных показателей по физико-механическим, конструктивным или эстетическим свойствам, что приводит к невыполнению любого из предполагаемых и (или) установленных в документации требований к объекту на стадиях его жизненного цикла…”. Существование дефекта используемой технологии приводит и к вопросу ответственности, поскольку данный дефект, учитывая остальные обстоятельства дела (в первую очередь необоснованно оформление заказа и упущение факта приезда курьера на правильный адрес, который фактически, будучи пунктуальным человеком, спровоцировал курьера), имел значимую роль в возникновению ущерба.

Поскольку к ответственности можно привлечь только субъект права, которым, как выше указано, система искусственного интеллекта не является, в данном случае остается лишь вариант привлечь к ответственности компанию Яндекс, которая имеет ключевую роль в разработке и использовании голосового помощника “Алиса”. В научной литературе имеются разные подходы к ответственности за деяние искусственного интеллекта, включая: ответственность разработчика искусственного интеллекта, производителя, продавца, собственника решения, функционирующего на основе технологии искусственного интеллекта, пользователя6.

Для привлечения к ответственности за деятельность искусственного интеллекта в российском законодательстве существует вполне подходящий механизм. По аналогии со ст. 1079 ГК РФ ответственность за деятельность, связанную с применением искусственного интеллекта, несут лица, использующие данные интеллекта как объекта повышенной опасности. Согласно п. 18 Постановления Пленума Верховного Суда России от 26. 01. 2010 № 1 «О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина», под источником повышенной опасности понимается любая деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствами, принимая во внимание особые свойства предметов, веществ или иных объектов, используемых в процессе деятельности, вправе признать источником повышенной опасности также иную деятельность, не указанную в перечне.


Лаптев В.А. также считает допустимым использовать конструкцию «ответственности фактического причинителя вреда» (пользователя)7. В частности, по аналогии с п. 2 ст. 1079 ГК РФ владелец искусственного интеллекта может доказать, что объект выбыл из его обладания в результате противоправных действий других лиц. В таком случае ответственность возлагается на лицо, противоправно завладевшее им. В случае виновного поведения владельца в противоправном изъятии этого источника из его обладания ответственность может быть возложена как на владельца, так и на лицо, противоправно завладевшее источником повышенной опасности. То есть дается правовая оценка поведению каждого участника правоотношения.

При этом, Архипов В.В. и Наумов В.Б. отмечают, что не решен вопрос о том, какие роботы и по каким критериям будут относиться к объектам повышенной опасности8.

Поскольку в данном деле ключевую роль в разработке и использовании технологии искусственного интеллекта имеет Яндекс, а вклад пользователя в возникновении ущерба является незначительным, то привлечь к ответственности необходимо Яндекс в качестве лица, использующего в своей деятельности объект повышенной опасности по аналогии со ст. 1079 ГК РФ.

Так как при использовании источника повышенной опасности компания Яндекс не предприняла меры по предотвращению ущерба от такой деятельности, в том числе и подготовку рабочих за взаимодействие с искусственным интеллектом, ответственность за ущерб причиненный потерпевшему должна понести и данная компания, соразмерно своему вкладу в возникновению ущерба.

Дата: 06.12.2022 г.

Задание выполнили:

Полина Сергеевна Королёва,

Татьяна Дмитриевна Фишер,

Владимир Андреевич Попов,

Лука Стеванович

(группа 21-м008-ю: международное частное право)

1 См.: Указ Президента РФ от 10.10.2019 N 490 "О развитии искусственного интеллекта в Российской Федерации" (вместе с "Национальной стратегией развития искусственного интеллекта на период до 2030 года") // Некоммерческая интернет-версия КонсультантПлюс : [сайт]. - URL: http://www.consultant.ru/document/cons_doc_LAW_335184/ (дата обращения:05.12.2022).

2 См.: Федеральный закон "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных" от 24.04.2020 N 123-ФЗ (последняя редакция) // Некоммерческая интернет-версия КонсультантПлюс : [сайт]. - URL: http://www.consultant.ru/document/cons_doc_LAW_351127/ (дата обращения:05.12.2022).


3 См.: Приказ Минэкономразвития России от 29.06.2021 N 392 "Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта" (Зарегистрировано в Минюсте России 28.07.2021 N 64430) // Некоммерческая интернет-версия КонсультантПлюс : [сайт]. - URL: http://www.consultant.ru/document/cons_doc_LAW_391797/ (дата обращения:05.12.2022).

4 См.: Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. – № 2. 2019. С. 88.

5 См.: Арямов А.А., Грачева Ю.В. Роботизация и искусственный интеллект: уголовно-правовые риски в сфере общественной безопасности // Актуальные проблемы российского права. – № 6. 2020. С. 174.

6 Правовые и этические аспекты, связанные с разработкой и применением систем искусственного интеллекта и робототехники: история, современное состояние и перспективы развития : монография / В. В. Архипов, Г. Г. Камалова, В. Б. Наумов [и др.]; под общей редакцией В. Б. Наумова. – Санкт-Петербург : НП-Принт, 2020. С. 98.

7 См.: Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. – № 2. 2019. С. 91.

8 Архипов В.В., Наумов В.Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. – № 5. 2017. С. 168.