понедельник, 18 апреля 2022 г.

 

Тема 9: Проблемы правового регулирования искусственного интеллекта


1.     Понятие, тенденции и принципы развития искусственного интеллекта

2.     Проблемы правового статуса и ответственности искусственного интеллекта

 1. Понятие, тенденции и принципы развития искусственного интеллекта

 Термин «искусственный интеллект» впервые был употреблен американским информатиком Джоном Маккарти на научном семинаре по вопросам искусственного интеллекта в Дартмутском университете в 1956 году.

Развитие искусственного интеллекта шло по двум основным направлениям – математическая логика - Алан Тьюринг и нейронные сети - Уоррен Маккалок и Уолтер Питтс.

Тенденции развития. Основными тенденциями развития рынка искусственного интеллекта в настоящее время являются:

1. Развитие роботизированных сервисов с помощью искусственного интеллекта с целью избавления от влияния «человеческого фактора» и освобождения человека от монотонной работы. Разработка автономных агентов, которым пользователь может делегировать выполнение определенной задачи или группы задач, в результате чего повысится производительность труда.

2. Расширение вычислительных и функциональных возможностей программных продуктов, увеличение вычислительных возможностей программно-аппаратных комплексов, в том числе в результате использования графических процессоров и распределенных архитектур вычислительных систем.

3. Новые методы машинного обучения, которые ускоряют разработку и реализацию решений в области искусственного интеллекта в условиях ограниченного количества данных. Доступность широкого применения машинного обучения на базе множества вычислительных систем, организованных по принципу нейронных сетей, привела к повышению качества технологических решений. Рост рынка технологий искусственного интеллекта будет обеспечиваться технологиями машинного обучения и анализа данных. Внедрение систем «интернета вещей» ведет к резкому увеличению массивов данных, из которых можно извлекать полезную информацию.

4. Применение искусственного интеллекта практически во всех отраслях экономики и сферах общественных отношений. Этому способствуют: - «сквозной» характер применения прикладных технологических решений, разработанных на основе искусственного интеллекта; - высокая степень влияния таких решений на результативность деятельности организаций и человека, в том числе деятельности, связанной с принятием управленческих решений; - повышающаяся доступность инструментов для разработки на основе искусственного интеллекта технологических решений. Развитие технологий искусственного интеллекта сопровождается ростом государственных и частных инвестиций.

Указом Президента Российской Федерации от 10 октября 2019 года № 490 «О развитии искусственного интеллекта в Российской Федерации» утверждена «Национальная стратегия развития искусственного интеллекта на период до 2030 года».

Искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений (Указ Президента РФ от 10 октября 2019 г. N 490 "О развитии искусственного интеллекта в Российской Федерации").

Целями Стратегии являются:

- обеспечение ускоренного развития искусственного интеллекта для вхождения России в группу мировых лидеров глобального рынка искусственного интеллекта;

- создание возможностей для доминирования на рынке и получения долгосрочных конкурентных преимуществ;

- сохранение технологической независимости и конкурентоспособности страны.

Основные принципы развития и использования технологий искусственного интеллекта, соблюдение которых обязательно при реализации Стратегии (пункт 19):

1. Защита прав и свобод человека: обеспечение защиты гарантированных российским и международным законодательством прав и свобод человека, в том числе права на труд, и предоставление гражданам возможности получать знания и приобретать навыки для успешной адаптации к условиям цифровой экономики.

2. Безопасность: недопустимость использования искусственного интеллекта в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий искусственного интеллекта.

3. Прозрачность: объяснимость работы искусственного интеллекта и процесса достижения им результатов, недискриминационный доступ пользователей продуктов, которые созданы с использованием технологий искусственного интеллекта, к информации о применяемых в этих продуктах алгоритмах работы искусственного интеллекта.

4. Технологический суверенитет: обеспечение необходимого уровня самостоятельности Российской Федерации в области искусственного интеллекта, в том числе посредством преимущественного использования отечественных технологий искусственного интеллекта и технологических решений, разработанных на основе искусственного интеллекта.

5. Целостность инновационного цикла: обеспечение тесного взаимодействия научных исследований и разработок в области искусственного интеллекта с реальным сектором экономики.

6. Разумная бережливость: осуществление и адаптация в приоритетном порядке существующих мер, направленных на реализацию государственной политики в научно-технической и других областях.

7. Поддержка конкуренции: развитие рыночных отношений и недопустимость действий, направленных на ограничение конкуренции между российскими организациями, осуществляющими деятельность в области искусственного интеллекта.

К компаниям-лидерам в области искусственного интеллекта относятся

американские компании: Microsoft (разработка программного обеспечения), Google (разработка интернет-сервисов), Facebook, Automation Anywhere (платформы, автоматизирующие бизнес-процессы), IBM;

китайские компании: Baidu (поисковые системы), DJI-Innovations (беспилотники), Sensetime и Megvii (распознавание лиц), iFlytek (интеллектуальные переводчики)

российские компании: «Яндекс», «Сбербанк», Mail.ru Group, Cognitive Technologies (разработчик программного обеспечения для беспилотного транспорта), «Айкумен» (анализ больших данных, выявление трендов), «Лаборатория Касперского», ABBYY (технологии распознавания текстов), ЦРТ (распознавание речи).

В свое время писателем-фантастом Айзеком Азимовым были сформулированы «законы робототехники» (1942 год), позднее эти правила признаны универсальными и положены в основу развития робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые отдает человек, кроме случаев, когда эти приказы противоречат первому закону.

3. Робот должен заботиться о своей безопасности, если это не противоречит первому или второму законам.


 

2. Проблемы правового статуса и ответственности искусственного интеллекта

 

В 21 веке перед человечеством остро встаёт вопрос о внедрении искусственного интеллекта (далее – ИИ) в повседневную жизнь. В данной статье дефиниции «искусственный интеллект» и «робот» специально не разделяются ввиду действительной конвергенции данных понятий. ИИ – это свойство технической или программной системы выполнять функции, которые ранее могли быть выполнены исключительно человеком или иным биологическим существом. И в данном контексте, не говорится о простейшем ИИ типа утюга или микроволновки, речь идёт о куда более сложных алгоритмах. Если сейчас мы смотрим на алгоритмы ИИ как на посредников для достижения наших целей, например, мы используем навигационное приложение «Яндекс. Навигатор» для того, чтобы добраться до дома быстро в обход дорожных пробок, то в дальнейшем, возможно, такие алгоритмы превратятся в наших правителей. Если посмотреть за кулисы приложения «Яндекс. Навигатор», то мы увидим, что тысячи автомобилистов ежеминутно передают данные о состоянии на дорогах. Именно поэтому приложение знает о том, как наиболее рационально проложить дорогу до дома, сохранив наше время. А что, если тысячи, нет, – миллионы людей будут передавать информацию о себе, своих политических предпочтениях, состоянии здоровья и тому подобном в какое-нибудь приложение типа «Управляющий РФ» и этот алгоритм, учитывая статистические данные, будет, например, направлять финансы на поддержу здравоохранения в одном регионе, на развитие образования в другом. В этом случае человеческий вид просто окажется в прямой зависимости от действий ИИ [11]. Это звучит как фантастика, но мы стоим к этому ближе, чем может казаться. Компания Microsoft занимается разработкой и постепенным внедрением приложения «Cortana», которое может стать не просто помощником, но и полноценным представителем человека, например, в ходе ведения переговоров. В этом направлении следуют и другие компании: Apple с «Siri» и Яндекс с «Алиса». Такое развитие технологий порождает множество вопросов. Может ли ИИ признаваться автором произведения науки или искусства? Будет ли ИИ равен в своих правах человеку? А, если ИИ, управляющий автомобилем совершит аварию, в результате чего пассажиры получат травму, возможно ли будет обратиться в суд и требовать возмещения вреда здоровью не с человека, а вы только вдумайтесь с ИИ?! И кто будет нести ответственность: пассажир или ИИ? Попробуем ответить на данные вопросы с учетом мнения учёных, при помощи исследования судебной практики и законодательства ряда государств.

1. Искусственное выражение «я». Может ли ИИ быть признан автором произведения науки или искусства?

В обществе распространено мнение, что ИИ не может превзойти человека, если не во всех, то по крайней мере в одной уж области точно – это искусство и, как ни печально, данное суждение является ошибочным.

Если Deep Blue, который обыграл в шахматы Гарри Каспарова, был достаточно хорошо научен правилам игры своими создателями, то современный ИИ получает от программистов лишь минимальный объем информации, предпочитая самостоятельное машинное обучение. Эти программы изменяют команды и переменные, создавая всё более качественную цепочку кода для достижения поставленной задачи. Так, программа Alpha Go научилась играть в старинную китайскую настольную игру «Го», которая во много раз сложнее, чем шахматы, при этом программа применяла абсолютно новые стратегии, что сильно удивило экспертов. Гораздо больше шокирует ещё и то, что ИИ научился создавать уникальные произведения науки и искусства.

Так, появление в 2016 году программы The Next Rembrandt разрушило представление людей о том, что ИИ не может творить. Данная программа проводит анализ картин Рембрандта и на основе полученных данных создаёт собственные картины, которые невозможно отличить от кисти великого мастера. Довольно интересная информация по поводу работы программы приведена на сайте компании Microsoft: «Результатами 18 месяцев совместной работы специалистов Microsoft, Дельфтского технического университета, Королевской галереи Mauritshuis и дома-музея Рембрандта в Амстердаме стало создание уникальной в своём роде картины, портрета, который с исключительной точностью воссоздаёт творческую манеру Рембрандта» [10]. Имеется ещё один прецедент, связанный с творением, полученным от ИИ. Дэвид Коуп – американский композитор и преподаватель Калифорнийского университета в Санта – Крузе разработал программу Emily Howell, которая способна создавать музыку, имитирующую шедевры Баха, Бетховена, Шопена и других композиторов. Следует отметить, что ряд экспериментов с участием профессиональных музыкантов позволяет утверждать, что созданную ИИ музыку невозможно отличить от произведений великих классиков. Не отстаёт ИИ от человека и в области науки, так, программа Watson собирает данные пациентов и на их основе создаёт персонализированный график лечения. В данном контексте непременно встаёт вопрос: кому принадлежит право авторства на указанные произведения науки и искусства?

Ответ на этот вопрос с точки зрения законодательства ряда государств одинаков. В соответствии с Законом об авторском праве Великобритании, автором считается лицо, использующее какой-либо инструмент для достижения поставленной цели. Американское законодательство базируется на том, что автором произведения науки или искусства может быть человек. Так, в довольно известном деле Feist Publications, Inc. v. Rural Telephone Service Co., Inc. – 499 U.S. 340, 111 S. Ct. 1282 (1991) [9]. Верховный суд США указывает на то, что не может быть объектом авторского права произведение, в котором отсутствует минимальный творческий вклад сознания автора. Вопрос о наличии сознания у ИИ будет подробнее рассмотрен далее, но стоит сразу отметить, что сознанием ИИ не обладает, поэтому получается, что автором может быть только человек. Что касается Российской Федерации, то анализируя пункт 1 статьи 1228 Гражданского кодекса Российской Федерации (далее – ГК РФ) можно сделать вывод, что автором произведения науки или искусства также может быть только физическое лицо. Исходя из буквального толкования статьи 1228 ГК РФ, приходим к выводу о том, что не может быть признано автором произведения науки и искусства лицо, которое разработало программу, создавшую это произведение, поскольку «не признаются авторами результата интеллектуальной деятельности граждане, не внесшие личного творческого вклада в создание такого результата» [2]. По этому поводу приведём высказывание А.А. Семёновой:

«С учетом этого целесообразно было бы признать авторство на работу «умной машины» за лицом, создавшим программу» [5, с. 423].

Подходит к этой позиции и статья 136 ГК РФ, в которой говорится, что право собственности на плоды, продукцию, доходы принадлежат собственнику вещи. Но здесь, непременно, стоит отметить, что в соответствии с пунктом 3 ст. 1227 ГК РФ к интеллектуальным правам не применяются положения о праве собственности и других вещных правах. Таким образом, вопрос об авторстве находится как бы в «подвешенном» состоянии. Тем не менее, ответ на данный вопрос, возможно, найти в международном праве, а именно в статье 12 Конвенции ООН «Об использовании электронных сообщений в международных договорах» (2005 год) [1]. Суть данной нормы заключается в том, что операции, которые были совершены компьютером, можно рассматривать как действия физических или юридических лиц, от имени которых используется компьютер. Ввиду отсутствия судебной практики эту норму косвенно можно связать непосредственно с действиями ИИ.

Исходя из вышесказанного на вопрос о том, может ли ИИ быть признан автором следует ответить – нет, на данный момент не может. Российское законодательство, к сожалению, не имеет специальных норм, регулирующих деятельность ИИ, поэтому вопрос о том, кого считать автором произведения, созданного ИИ, остаётся открытым.

На данный момент в российском законодательстве имеется очевидный пробел, дающий возможность создание произведения без автора, а значит созданное ИИ произведение будет считаться общественным достоянием. Автор – это физическое лицо, то есть субъект гражданского права, поэтому в данном случае появляется прямая зависимость от того, а следует ли ИИ признать субъектом правоотношений?

 

Физические, юридические и электронные лица

 

Вопрос о том, какой правовой статус следует распространять на ИИ довольно актуален, и по нему в науке имеется огромное множество точек зрения.

Следует сразу отметить, что на данный момент имеется государство, поданным которого является андроид, обладающий ИИ. Тем самым создан прецедент, благодаря которому можно говорить о том, что на ИИ, как и на человека распространяется правовой статус физического лица. Этим государством является Саудовская Аравия, поданный – София (человекоподобный робот).

На наш взгляд решение Саудовской Аравии является поспешным. Вряд ли рационально распространять правовой статус физического лица, на объект явно не обладающий психоэмоциональными свойствами присущими человеку. Так, интеллект и сознание являются не схожими понятиями.

Сознание присуще всем людям. Под ним понимается совокупность электрохимических реакций в клетках головного мозга, выражающихся в переживании организмом событий внешнего мира и последующей реакции на эти события. Короче говоря, сознание позволяет испытывать людям субъективные ощущения боли, любви, ненависти, счастья. Интеллект – это способность использовать знания для воздействия на окружающую среду. В этой связи, необходимо отметить отсутствие сознания у ИИ, а также отсутствие способности чувствовать и что-либо желать.

Поэтому не является целесообразным уравнивать в правовом статусе человека и ИИ. Ведь в таком случае получается, что мы создаём фикцию: люди и программы будут совершать примерно одинаковые действия, желая достигнуть определённого результата, будут нести одинаковую ответственность за свои действия. Получается, что ИИ наравне с людьми получит и основополагающие права: право на жизнь, право на личную неприкосновенность и т.д. Но не следует ли нам придерживаться презумпции бессознательности ИИ? В виду того, что у ИИ отсутствуют субъективные переживания личности, он будет сильно выделяться на фоне человека, поскольку будет явно превосходить его по многим параметрам. Да и вряд ли ИИ сможет в ближайшем будущем самостоятельно осмыслить фразу «cogito ergo sum».

Представляется, что ИИ должен располагать особым правовым статусом. Так, В.В. Архипов, В.Б. Наумов считают, что к ИИ применима аналогия с юридическими лицами [6]. Действительно, в таком случае ИИ будет иметь все признаки юридического лица, за исключением организационного единства. А.А. Иванов в связи с этим отмечает, что может возникнуть двойственный статус ИИ, поскольку он сможет быть как объектом, так и субъектом гражданского права [8]. С точки зрения этой позиции встаёт ещё вопрос и о праве собственности на вещи: на каком праве ИИ будет обладать вещами? Будет ли это ограниченное вещное право? Ответить на данные вопросы в данный момент не представляется возможным.

Л.И. Сафаргалеев высказывает мнение, что к ИИ применимо правило, используемое ещё в римском праве – servi res sunt (рабы – вещи), по его мнению ИИ не может быть самостоятельным субъектом права, но он может приобретать права и обязанности для своего хозяина [5, С. 407].

Все выше названные позиции имеют право на существование, но, по нашему мнению, они не лишены недостатков, так как неминуемо встаёт вопрос о том, а каков будет правовой статус ИИ после смерти его владельца? Следуя реалиям российского гражданского законодательства получается, что для приобретения права собственности на ИИ нам необходимо будет ждать 5 лет, то есть, по факту, в течении этого срока будет существовать «ИИ-нелегал», который имеет разум, совершает действия, но не приобретает ни для кого прав и обязанностей. Что делать? Конечно, в таком случае мы можем поступать с ИИ как с кошками, собаками и иными животными в Древнем Египте, то есть утилизировать их вместе с хозяевами. Но насколько это рационально?
Верно, на наш взгляд, в своё время отметил Дж. Дьюи:

«Мы часто обсуждаем проблемы с точки зрения старых идей, тогда как решение проблемы связано с избавлением от старых идей и их заменой на понятия, более соответствующие современному состоянию идей и знаний» [12, P.657].

Интересна для рассмотрения вопроса о правовом статусе ИИ резолюция Европарламента от 16 февраля 2017 года (далее – Резолюция). В Резолюции приводятся рекомендации для Европейской комиссии относительно норм гражданского права о робототехнике (2015/2013(INL)) [3]. В тексте данного документа правовой статус ИИ является специфическим, ИИ становится своеобразным «электронным лицом». В Резолюции особо подчёркивается, что ИИ призван дополнить возможности человека, а не заменить его. Указывается, что ИИ не может своими действиями или бездействиями причинять вред человеку, а также допускать возможность причинения вреда, ИИ должен повиноваться всем приказам человека, то есть фактически закрепляются три закона робототехники, сформулированные писателем – фантастом Айзеком Азимовым в рассказе «Хоровод» ещё в 1942 году. Подход, сформулированный в Резолюции, на наш взгляд, является наиболее целесообразным, и здесь сразу же возникает вопрос об ответственности ИИ.

 

Кто будет нести ответственность?

 

Представьте себе, что вы едете в автомобиле, управляемом искусственным интеллектом. Транспортное средство находится в вашей собственности и, неожиданно, вы въезжаете в толпу прохожих. Несколько прохожих получили лёгкие повреждения, вы испытали сильный эмоциональный стресс, у машины был повреждён бампер. Кто в данном случае будет возмещать убытки за причинённый вред здоровью, моральный вред, ущерб, нанесённый автомобилю?

В соответствии с российским законодательством возмещать все убытки будет владелец источника повышенной опасности. Но ведь автомобилем управлял ИИ. Не будет ли это считаться непреодолимой силой? Мог ли владелец автомобиля вовремя осознать опасность для окружающих и взять управление на себя? Ввиду отсутствия судебной практики ответить на этот вопрос затруднительно, но ряд государств уже ввели нормы, которые регулируют ответственность в случае возникновения таких казусов. Стоит подробнее остановиться на опыте ФРГ. Так, в Германии в 2017 году был принят «Восьмой закон о внесении изменений в Закон о дорожном движении от 16 июня 2017 года» [4], которым фактически оформилась возможность использовать беспилотный транспорт. В законе устанавливается, что водитель может отвлекаться от происходящего на дороге, но он обязан взять управление на себя, если ИИ предлагает сделать ему это в значительной части или полностью. Также водитель должен взять управление на себя, если он осознает или должен осознавать, что дальнейшее управление автомобилем ИИ невозможно, например, когда водитель видит, что автомобиль под управлением ИИ направляется в толпу пешеходов и т.п. При этом в случае, если имело место причинение вреда человеку или имуществу по вине водителя, то ответственность будет нести он, если вред был причинён из-за технической ошибки, то отвечать будет автопроизводитель. В Германии, на наш взгляд, подход к ответственности является действительно достаточно качественным, поскольку не может и не должен нести ответственность автомобилист, который не смог взять управление автомобилем на себя в результате технической ошибки.

Вопрос об ответственности также поднимается в Резолюции Европарламента от 16 февраля 2017 года [3]. В документе указывается, что ИИ не может нести ответственность сам по себе, поскольку его действия или бездействия зависят от оператора (владельца), то есть ИИ является своеобразным инструментом для достижения конкретной цели. Ввиду вышесказанного устанавливается ответственность не только владельца ИИ, но и производителя, если какой-либо ущерб был причинён из-за технической ошибки. Однако в Резолюции также говорится о том, что, чем выше автономность ИИ, тем меньше он может расцениваться как обычный инструмент. Это вызывает вопрос: может ли ИИ самостоятельно отвечать за свои действия или бездействия? Нет, на данный момент не может, но стоит отметить, что по мере развития технологий юристы непременно вернутся к этому вопросу. Пока что можно лишь предложить варианты ответственности ИИ. Вполне рабочую идею, в этой связи, предложили Г.А. Гаджиев и Е.А. Войниканис [7]. Её суть заключается в том, что ИИ будет нести ответственность за счёт средств, находящихся на счёте непосредственно у ИИ. Реализовать данную идею возможно, если при регистрации какого – любо ИИ его владелец будет вносить определённую сумму, которая в дальнейшем будет аккумулирована в страховом фонде и в случае возникновения страхового случая будет направлена на его удовлетворение. В конце концов, если ИИ будет признан самостоятельным субъектом права, то он сможет трудоустраиваться, иметь свой банковский счёт и самостоятельно отчислять деньги в свой страховой фонд.

 

Заключение

 

На данный момент ИИ не может быть признан автором произведения науки или искусства, поскольку такая возможность появится лишь при признании ИИ субъектом правоотношений.

Нормы законодательства ряда государств не признают ИИ в качестве субъекта правоотношений. Однако Саудовская Аравия предоставила гражданство роботу Софии, что говорит о признании за ИИ статуса физического лица. Такой подход кажется преждевременным, поскольку человек и ИИ не совпадают в плане своих психоэмоциональных качеств и свойств. Вполне возможным в то же время представляется говорить о признании за ИИ особого статуса «электронного лица». Это позволило бы не смешивать понятия в праве и никоем образом не нарушало бы прав людей. Вопрос об ответственности ИИ также является неурегулированным. В случае причинения вреда человеку или имуществу ответственность в соответствиях с реалиями законодательства будет нести или владелец источника, причинившего вред, или же его производитель. Представляется, что необходимо обязать возмещать, причинённый вред, ИИ, если у него для этого будут иметься все необходимые возможности и в первую очередь наличие денежных средств.

Вопрос об аккумуляции денежных средств можно решить путем внесения во время регистрации ИИ его владельцем денежных средств в страховой фонд или же в случае, если сам ИИ сможет зарабатывать денежные средства, то воздействовать на него уже известными нам способами, например, путем списания средств с банковского счёта и т.п.

Данная тема имеет огромный исследовательский потенциал. ИИ непременно станет частью будущего человечества, поэтому необходимо всерьёз подходить к вопросам, связанным с его правовым статусом и регулированием отношений с его участием.

Комментариев нет:

Отправить комментарий