Россия
УДК 34 Право. Юридические науки
Население многих развивающихся стран мира, в том числе и России, характеризуется высоким уровнем сопротивления и иммунитета по отношению к инновациям, затрагивающим его основные права и свободы. Возможности внедрения и применения цифровой медицины воспринимаются скептически, с одной стороны, по причине ее «фантастичности», с другой — рискованности. Значимая часть представлений о ней основана на экзистенциональной и этической угрозе, чему в настоящее время фактически нет никаких научных подтверждений или предпосылок. Тогда как настоящая проблема заключается в том, что современная правовая реальность оказывается не готовой к стремительному технологическому прогрессу. Законодательство не способно в должной мере урегулировать общественные отношения, существование которых еще вчера казалось нереальным, а уже сегодня они стремительно интегрируются в нашу жизнь. Решению этого вопроса способно помочь только формирование комплексного унифицированного представления о сущности и содержании цифровой медицины. Это становится возможным только после оценки всех существующих рисков ее правореализации, чему и посвящается настоящая статья.
цифровая медицина, инновации, искусственный интеллект, телемедицина, риск, правовое регулирование, законодательство
Любая достаточно развитая технология неотличима от магии.
А. Кларк
Инновации представляют собой закономерность, сопровождающую человечество на протяжении всего его существования. Сам факт того, что в настоящее время они являются обыденностью, свидетельствует об уровне их стабильности и масштабах интеграции в нашу жизнь. Более того, технологический прогресс, а также достижения в других отраслях познания достигли той стадии, когда литература и кино, еще десять лет назад считавшиеся фантастикой, перестают быть таковыми [1—3]. Квантовые компьютеры, роботы, искусственный интеллект, генные модификации, клонирование и многие другие заслуги науки перестали восприниматься чем-то нереальным. Еще в 1924 году в журнале Radio News Magazine вышла иллюстрация под названием «The Radio Doctor-Maybe!», в которой демонстрировался процесс дистанционного оказания медицинских услуг в режиме онлайн. Подобные вещи уже не вызывают серьезного резонанса относительно факта своего появления, тогда как предметом дискуссии, как правило, становятся риски, связанные с правореализацией соответствующих инноваций. Тем не менее в данном контексте пристальное внимание общественности, несмотря на все существующие противоречия, приковано к сфере здравоохранения, поскольку именно на нее возлагаются надежды на сохранение и продление жизни [4].
В настоящее время население Земли активно приближается к отметке в 8 миллиардов, подобный демографический рост закономерно предопределил комплекс сопутствующих проблем, в числе которых особо значимую нишу занимает заболеваемость, уверенно достигающая внушительных рекордов в своих показателях. В связи с чем даже скептически настроенные люди с консервативными взглядами вынуждены проявлять лояльность и предоставлять шанс интеграции высоких технологий в сферу медицины.
К числу таковых в первую очередь уместно будет отнести главную инновацию XXI века — искусственный интеллект (далее — ИИ), являющийся одним из самых быстрорастущих сегментов мирового рынка здравоохранения. Не представляется возможным отрицать, что потенциал этой разработки способен стать существенным подспорьем врачам в диагностике заболевания и последующем лечении. Более того, потенциал «машины» по сбору и хранению информации значительно превышает возможности человека, что обладает безусловной ценностью для подобной естественной науки. Уже сегодня ИИ-сервисы способны с невероятной скоростью проводить анализ состояния здоровья человека только лишь на основании его изображения, при этом предоставляя действительно верные диагнозы.
Однако, как говорил известный английский писатель и поэт Оскар Уайльд: «Никогда ничего не идеализируй — это может плохо кончиться». Соответственно, и рассматриваемая инновация не лишена многочисленных рисков возникновения серьезных неблагоприятных последствий, в силу того что современное мироустройство устанавливает здесь целый ряд определенных препятствий правового, социального и технологического характера.
Юридическое дефинирование.
В настоящее время в системе действующих отечественных нормативных правовых актов уже содержится терминологическая регламентация категории ИИ. Так, в соответствии с указом Президента РФ от 10 октября 2019 года № 490 «О развитии искусственного интеллекта в Российской Федерации» под ним следует понимать «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека» [5]. Аналогичное определение содержится и в Федеральном законе от 24 апреля 2020 года № 123—ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»» [6]. Что, в свою очередь, позволяет сделать вывод об определенном уровне унификации, однако с точки зрения правотворчества речь должна вестись не только о единообразии, но также и о целостности, допустимости и достаточности приводимых официальных толкований. Тогда как обозначенное выше определение следует охарактеризовать как сжатое и неконкретизированное. Оно фактически находится на грани некорректного описания, содержащего логическую ошибку.
Прежде всего, на себя обращает внимание категория «имитация когнитивных функций человека», подверженная расширительному толкованию. Устройства от портативных калькуляторов до поисковых систем «Яндекс» не хуже человека способны воспроизводить функции по обработке числовой или текстовой информации, однако отождествлять их с ИИ не представляется возможным. Следующий не менее важный аспект состоит в том, являются ли осознанными и контролируемыми обозначенные «самообучение и поиск решений без заранее заданного алгоритма». Поскольку, например, разработанная еще в середине прошлого века «искусственная нейронная сеть», нашедшая свое применение в сферах психодиагностики, хемоинформатики, нейроуправления, экономики и других, вполне способна реализовывать эти процессы. Кроме того, самой дефиниции «самообучение» не удается обнаружить в отечественном законодательстве, благодаря чему возникает тавтология и лингвистическое замешательство, наглядно описываемое словами бывшего министра обороны США Дональда Рамсфельда: «...есть известные известные — вещи, о которых мы знаем, что знаем их. Есть также известные неизвестные — вещи, о которых мы знаем, что не знаем. Но еще есть неизвестные неизвестные — это вещи, о которых мы не знаем, что не знаем их».
Юридические черты, которыми наделено приведенное определение, весьма размыты и сконструированы в целях обобщения наиболее широкого круга общественных отношений, обусловленных технологическим прогрессом. Тогда как в правоприменительной деятельности они детерминируют риск расширительного толкования, появления правовых коллизий и конкуренции норм, уже имеющих место в отечественной юриспруденции. Так, например, Национальный стандарт Российской Федеорации «Роботы и робототехнические устройства. Термины и определения», утвержденный и введенный в действие приказом Федерального агентства по техническому регулированию и метрологии от 26 ноября 2014 года № 1863—ст, определяет, что «разумный робот; робот с элементами искусственного интеллекта (intelligent robot) является таковым в случае, если он выполняет работу путем считывания данных из окружающей среды, взаимодействия с внешними источниками и адаптации своего поведения» [7]. Примечательно, что впоследствии указанный термин был заменен на «адаптивный робот», сохранив при этом англоязычную формулировку (intelligent robot) [8]. В данном определении, как и в предыдущем, отсутствует элемент субъективного отношения к выполняемым действиям, более того, здесь фактически исключается позиция «очеловечивания» ИИ, в том числе и соответствующая имитация.
Нельзя не обратить внимание на еще одну попытку официального толкования, а именно на проект федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники», согласно которому «робот — устройство, способное действовать, определять свои действия и оценивать их последствия на основе информации, поступающей из внешней среды, без полного контроля со стороны человека» [9]. Основная заслуга разработанной дефиниции заключается в смещении акцента с исключительно интеллектуальной деятельности на интеллектуально-волевую. Тем не менее, маловероятен сценарий, при котором речь будет вестись о формировании у робота морально-нравственных ориентиров при выборе своих действий. Однако как минимум возможность их оценки с точки зрения законодательно установленных запретов уже будет свидетельствовать о возможности рассмотрения ИИ в качестве субъекта права. Указанный законопроект принят не был, в связи с чем более детальный анализ приведенной дефиниции представляется нецелесообразным. Обозначенная проблема детерминирует отсутствие единообразия мнений о природе искусственного интеллекта, его видах, самостоятельности, безопасности, критериях разумности, а также о том, какое место им предопределено в существующем правовом поле.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Непонимание сущности и содержания юридической категории ее правоприменнителем.
II. Неспособность сформировать обоснованное субъективное отношение к рассматриваемому правовому явлению.
III. Распространение расширительного и неофициального толкования.
IV. Некачественная постановка объекта и предмета законодательного регулирования.
V. Нарушение регулятивных функций права.
VI. Законотворческие пробелы и коллизии, технико-юридические ошибки.
VII. Неполноценность нового научного направления.
Гражданско-правовой статус.
Слабые стороны законодательной регламентации общественных отношений в сфере ИИ обусловлены в том числе и отсутствием официальных конкретно определенных критериев, определяющих самостоятельную личность, способную иметь права и обязанности, а также осуществлять их реализацию своими действиями и нести за это ответственность. Примечательно, что в современном мире уже имеются неодушевленные категории, обладающие вышеуказанными свойствами, — юридическое лицо, государство, нации, народы, трудовые коллективы, семья. Более того, самостоятельными правовыми персонами в разных странах признавались животные, природные явления, имущество, наследственная масса, бестелесные духи и представляемые существа на основании факта формирования соответствующих правовых переживаний в психике индивида [10, с. 103—104]. К сожалению, в юридической доктрине также не прослеживается общепринятая позиция по обозначенной проблематике. Тем не мене, анализ различных исследований отечественных и зарубежных правоведов позволяет выделить основополагающие критерии, дающие возможность оценивать феномены с точки зрения их правосубъектности:
a) осознание своих субъективных прав и обязанностей, а также их самостоятельная реализация;
b) способность нести юридическую ответственность за свои неправомерные поступки;
c) установка и понимание собственной ценности, своих интересов и устремлений в праве;
d) свободное формирование и выражение вовне своей правовой воли;
e) восприятие и оценка потребностей и притязаний других лиц;
f) совмещение своего поведения с интересами других участников правовой коммуникации;
g) возможность самостоятельного осуществления правовой деятельности;
h) способность самостоятельного принятия и осуществления правовых решений, влекущих юридические последствия, при полном осознании их значения для заинтересованных лиц;
i) обособленность (имущественная/организационная);
j) опознаваемость, возможность правовой индивидуализации.
Законодательная регламентация соответствующих критериев может способствовать формированию единого мировоззрения о правовой сущности ИИ, а также иных инноваций, претендующих на признание своего существования в качестве самостоятельного субъекта права. Более того, именно она наглядно демонстрирует направления развития рассматриваемой технологии, которая в настоящее время как минимум не отличается собственными интересами и волеизъявлением, не способна формировать субъективное отношение к совершаемым деяниям и наступившим в результате них последствиям, не обладает чувством вины и не может нести юридическую ответственность. В связи с этим придание искусственному интеллекту подобного статуса на данном этапе его развития является преждевременным решением, поскольку оно создает необоснованные риски как общеправового, так и отраслевого характера.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Функционирование в юридическом пространстве неоднозначной категории, находящейся на границе его базовых элементов — субъекта и объекта правоотношений.
II. Дестабилизация коммуникативного взаимодействия в праве.
III. Неопределенность либо недостаточная аргументированность регистрационных, сертификационных, лицензионно-разрешительных и иных процедур по контролю ИИ, а также сопряженной с ним деятельности.
IV. Пробелы и противоречия в вопросах определения деликтоспособности, авторских прав, пределах применения ИИ.
V. Уравнивание естественного и искусственного интеллекта.
Правовое регулирование.
Продукт стремительных инноваций, как правило, относительно быстро проходит процедуру социальной адаптации, тогда как к попыткам государственного регулирования и контроля у него нередко проявляется достаточно высокий уровень иммунитета. Юридическое сообщество всех стран мира в настоящее время активно трудится над вопросом законодательной регламентации ИИ, который совершенно ей не поддается, в силу как собственно юридико-технических проблем, так и благодаря отсутствию целостного представления о сущности данного феномена. Приведенные в настоящей статье нормативные акты фактически олицетворяют всю существующую отечественную нормативную базу в указанном направлении. Данная проблема в том числе поднимается и в Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года [11]. В качестве ключевого детерминанта отсутствия специализированного механизма правового контроля выделяется проблема достижения баланса между запросами потребителей (человек, общество, государство) — возможностями и интересами поставщиков (разработчиков ИИ) — требованиями общепризнанных этических и правовых норм. Тогда как возможность присутствия в данной цепи самого ИИ в принципе не рассматривается, что дает однозначный ответ на вопрос о современном законодательном подходе к определению его правосубъектности. Таким образом, формируется «замкнутый круг», когда проблема непонимания правовой сущности конкретного явления становится одновременно причиной и следствием отсутствия должной регламентации. В текущих условиях обсуждение деликтоспособности представляется абсолютно бессмысленным, поскольку речь ведется о предмете товарооборота (вещи), либо объекте авторских прав (программе), либо источнике повышенной опасности и не более того.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Доминирование метода «проб и ошибок» при попытках урегулировать общественные отношения, сопряженные с использованием ИИ, в ситуации, когда «на кону» стоят жизнь и здоровье людей.
II. Формирование условий непригодных для развития внедряемых в сферу здравоохранения технологий.
III. Тотальный контроль баз данных персональной информации, негативно влияющий на саму медицину.
IV. Снижение эффективности соответствующей помощи и услуг.
V. Внедрение ИИ на свой «страх и риск», в силу возможности оказаться за пределами действующего нормативного регулирования.
Инновационный и технологический нигилизм.
Современное социальное сознание настороженно относится к возможностям применения ИИ, в особенности когда это касается собственного здоровья. При этом здесь речь ведется не только о пациентах, но и о практикующих врачах, неготовых довериться программным алгоритмам. Решению данной проблемы может помочь только время, способное похвастаться обилием примеров успеха в данном направлении. Тогда как сегодня ключевые субъекты здравоохранения придерживаются презумпции доверия традиционным способам лечения, подвергающимся сомнению и модернизации со стороны инженеров, программистов и бизнесменов.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Скепсис по отношению к результатам анализа данных, полученным ИИ.
II. Дополнительная нагрузка на врачей по оценке и перепроверке поставленного диагноза и назначенного лечения.
III. Отказ пациентов от медицинских процедур с участием ИИ.
IV. Недостаток опытных данных, положительных результатов и отзывов в силу отсутствия необходимых объемов практики применения соответствующих технологий.
V. Прогрессирование социальной неофобии.
Постороннее вмешательство.
В первую очередь речь ведется о возможности взлома защитной оболочки ИИ и получения удаленного доступа третьими лицами к полному функционалу системы. Подобное способно повлечь не только нарушение врачебной тайны и распространение конфиденциальной информации, но и нанести реальный вред жизни или здоровью пациента, что, в свою очередь, сделает эту технологию крайне востребованной на «черном рынке».
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Нарушения законодательства в сфере охраны и защиты персональных данных [12].
II. Утрата и хищение личной информации пациентов.
III. Рост сопутствующих противоправных деяний (вымогательство, торговля конфиденциальными сведениями, киберпреступность, кибертерроризм и др.).
IV. Получение несанкционированного контроля за действиями ИИ и его перепрограммирование в преступных целях.
V. Вынужденное функционирование отдельных медицинских организаций в условиях, не обеспечивающих законодательно регламентированную сохранность персональных данных.
VI. Негласный принудительный вывод массивов медицинских данных за периметр учреждений в силу отсутствия должных высокопроизводительных вычислительных мощностей.
VII. Формирование стереотипного социального мышления о необходимости выбора между обращением за медицинской помощью и предоставлением своей личной информации в потенциально открытый доступ.
Кадровый потенциал.
Действительно эффективному внедрению ИИ может способствовать только наличие специализированного персонала, готового осуществлять не только техническое сопровождение и программное обеспечение, но и фактический контроль полноты и качества проводимого лечения. Медицинские организации не менее других подвержены проблемам дефицита кадров, низкой квалификации уже имеющихся работников, а также в целом нехватки ресурсов для интеграции соответствующих инноваций, тогда как полноценная технологизация сферы здравоохранения влечет за собой риск врачебной безработицы в силу замещения человеческого ресурса программным обеспечением.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Оказание неконтролируемой и некачественной медицинской помощи.
II. Бездумное принятие «на веру» выводов, сделанных ИИ.
III. Рост латентности врачебных ошибок и проблемы с установлением их причин.
IV. Прикрытие собственной халатности и некомпетентности несовершенством программы (делегирование своей вины ИИ).
V. Причинение вреда жизни и здоровью пациентов.
VI. Расширение и видоизменение квалификационных требований к медицинскому персоналу.
VII. Снижение востребованности «человеческого ресурса», в силу замещения его роботами и программами, кадровые перестановки и сокращения, эскалация социальной напряженности, внутренние конфликты.
VIII. Дегуманизация практики медицинского ухода.
IX. Рост безработицы и неопределенности в карьере (риск территориального характера, поскольку в силу уже имеющегося дефицита кадров, масштабов государства и плотности населения отдельные субъекты Федерации могут избежать обозначенной проблемы).
X. Увеличение стоимости разработки и обслуживания ИИ, а также иных услуг, сопряженных с его внедрением в сферу здравоохранения.
Полноценные систематизированные базы данных.
Следует понимать, что существующая информационно телекоммуникационная сеть «Интернет» не может выступать в качестве фундамента или хотя бы его части для функционирования ИИ, поскольку имеющаяся там информация не только не отвечает требованиям безопасности, но и обладает хаотичным характером, способным послужить основой скорее для отрицательных результатов, чем положительных. Тогда как изолированных и унифицированных в медицинских целях цифровых информационных ресурсов в настоящее время фактически не существует, что обусловливает потребность в их обобщении, структуризации и должной подготовке для последующего использования.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Частичная или полная недосягаемость информации о пациентах и их истории болезней для ИИ в силу наличия неточностей, ошибок, нестандартной терминологии в медицинских картах, а также неразборчивости соответствующего почерка.
II. Противоречия в алгоритмах лечения, обусловленные недостаточной точностью медицины, чьи научные школы могут располагать различными методиками осуществления тождественных врачебных процедур.
III. Чрезмерная длительность поиска решения (не обязательно верного) в постановке диагноза и дальнейшем медицинском сопровождении.
IV. Нераскрытый потенциал ИИ, негативно влияющий на целесообразность выделенных денежных средств и дальнейшего финансирования.
Обозначенные проблемы выступают серьезным барьером для ассимиляции и адаптации ИИ в современном здравоохранении, более того, их преодоление фактически является залогом минимизации соответствующих неблагоприятных последствий. В указанном ключе большинство правоведов акцентируют внимание на экзистенциональном и уголовно-правовом аспекте рассматриваемого феномена, однако их анализ требует соблюдения критериев комплексности и полноценности, в связи с чем этому будет посвящено отдельное исследование. Данное решение позволило в большей мере сосредоточиться на иных рисках интеграции ИИ в сферу медицины, к которым также нельзя не отнести:
I. Несоответствие затраченных ресурсов и полученных результатов; медицина в данном направлении с высокой долей вероятности будет показывать отрицательную рентабельность на краткосрочной и среднесрочной перспективе при отсутствии гарантий положительной динамики.
II. Расширение и замещение в здравоохранении медицинской помощи областью коммерческих услуг.
III. Диктование способов лечения врачам от программистов.
IV. Невозможность установления обоснованности диагноза и лечения в силу недоступности восстановления цепочки рассуждений ИИ, послужившей основой для принятия того или иного решения.
V. Нераспознавание дефектов документов, изображений или другой технической информации в процессе осуществления медицинских процедур, способное повлиять на правильность выводов и повлечь неблагоприятные последствия.
VI. Интеграция ИИ в теневой сектор экономики, активизация «черного рынка», процветание имитаторов и поставка заведомо некачественных услуг.
Несмотря на все вышеизложенное, следует понимать — «программа» или же «машина» в типичном обывательском представлении характеризуется четким ограниченным потенциалом, определенным прилагаемой инструкцией. Главная роль здесь уделяется отсутствию возможности расширения своего функционала, то есть допускается незначительное развитие, но не эволюция, предполагающая в том числе и серьезные качественные изменения. В настоящее время наиболее приемлемым применением ИИ в медицине представляется его использование в качестве инструмента — помощи для медицинских работников в принятии решений. Специалист будет просто использовать его в целях собственной разгрузки и повышения качества своей деятельности.
Тем не менее технологический прогресс уже в ближайшие десятилетия способен кардинальным образом перевернуть все существующие представления о перспективах ИИ и скорости его развития, что однозначно станет серьезной проблемой для законодательного регулирования, в особенности в отсутствие унифицированного подхода к пониманию правовой сущности указанного феномена, тогда как сегодня важно найти разумный баланс между новым технологиями и конструкциями традиционного права, оставив место и для изменений в будущем [13, с. 42]. ИИ еще не обладает теми свойствами и характеристиками, которые ему приписываются и активно обсуждаются в социальной и юридической сферах. Минимизация рисков правореализации рассматриваемой инновации в данный момент во многом возлагается на отраслевое законодательство, призванное обеспечить следующие ключевые позиции:
Гражданское право
— регламентация ответственности за вред, причиненный ИИ;
— определение статуса ИИ в правовом поле;
— распределение прав интеллектуальной собственности на произведения (методики лечения), созданные ИИ.
Трудовое право
— ограничение трудовых обязанностей, которые могут возлагаться на ИИ без участия человека/с его обязательным участием;
— разработка правил взаимодействия человека с ИИ при выполнении совместных работ;
— выделение и фиксация квот на рабочие места, предназначенные для людей.
Уголовное право
— введение норм об ответственности за причинение вреда элементами ИИ.
Перспективы и темпы развития ИИ приводят в искренний восторг и ужас, однако во всем своем многообразии они основаны, скорее, на домыслах и богатой фантазии, чем на объективных фактах и научных выводах. Таким образом, дискуссия по поводу экзистенциональных и этических рисков интеграции ИИ станет уместной только тогда, когда будут минимизированы остальные более реальные угрозы. С точки зрения продуктивности рассматриваемые технологии способны привнести значительный положительный вклад в развитие медицины, в особенности это касается перспектив реализации телемедицины [14; 15].
В соответствии с Федеральным законом от 29 июля 2017 года № 242—ФЗ «О внесении изменений в отдельные законодательные акты Российской Федерации по вопросам применения информационных технологий в сфере охраны здоровья» указанная инновация подразумевает «применение информационных технологий, обеспечивающих дистанционное взаимодействие медицинских работников между собой, с пациентами и (или) их законными представителями, идентификацию и аутентификацию указанных лиц, документирование совершаемых ими действий при проведении консилиумов, консультаций, дистанционного медицинского наблюдения за состоянием здоровья пациента» [16].
Сильные стороны данной инновации, позволяющие ей периодически доминировать над традиционными медицинскими методиками, достаточно наглядно раскрываются в условиях распространения новой коронавирусной инфекции COVID-19 (см. таблицу 1).
С учетом статистических данных, демонстрирующих, что соотношение первичных обращений за медицинской помощью и вторичных составляет 3:7, практически 2/3 визитов к врачу могут признаваться повторными. В данном ключе и должно быть сосредоточено основное целеполагание рассматриваемой технологии. В то же время здесь нельзя не обратить внимание на достаточно значимый парадокс, который состоит в синтезе одного из главных преимуществ телемедицины с ее же основным недостатком. Предполагается, что она позволит людям из всех регионов страны осуществлять дистанционный контакт с интересующим врачом, однако далеко не во всей России проведены газ и электричество. В таком контексте вести речь о высокоскоростном интернете и качественном аудио- и видеооборудовании вообще не представляется возможным.
Таблица 1
Преимущества телемедицины
для пациентов для врачей
— оперативность;
— экономия времени и денег;
— доступ к большой базе квалифицированных специалистов;
— более качественная медицинская помощь;
— динамичное наблюдение;
— исключение контактов с другими людьми;
— создание персонализированной медицины;
— возможность хранить все медицинские данные в одном месте — экономия времени;
— большое число новых пациентов;
— рост доходов;
— исключение контактов с другими людьми;
— повышение репутации и узнаваемости;
— кардинальное снижение стоимости привлечения пациентов в сравнении со стоимостью использования медицинских агрегаторов;
— новый метод рекламы и продвижения услуг клиники
К сожалению, данная отрасль цифровой медицины, также как методика применения искусственного интеллекта, не лишена определенных рисков, ставящих под сомнение возможность и перспективу ее полноценного внедрения в сферу здравоохранения. Большинство существующих в настоящее время препятствий для ее повсеместной интеграции во многом совпадает с теми, что были рассмотрены ранее в процессе анализа ИИ. В связи с этим выделим лишь наиболее характерные риски правореализации телемедицины:
I. Прямая взаимосвязь между качеством медицинских услуг и материально-технической обеспеченностью пациента (в т. ч. различные приборы для измерения и передачи данных о давлении, пульсе, температуре и т. д.).
II. Неточности в данных, передаваемых с устройств, используемых пациентом.
III. Ошибки в оценке состояния пациента и его последующем лечении.
IV. Раскрытие сведений, составляющих врачебную тайну, с сопутствующим уголовным (ст. 137 УК РФ [17]), административным (ст. 13.11, 13.14 КоАП РФ [18] или гражданско-правовым (ст. 15, 150, 151, 1064, 1068, 1099, 1101 ГК РФ [19]) разбирательством.
V. Недостоверная идентификация пациента и/или медицинского работника.
VI. Широкие возможности по осуществлению мошеннических действий.
VII. Юридические последствия для врача и медицинского учреждения.
VIII. Трудности в получении добровольного информированного согласия, являющегося необходимым условием медицинского вмешательства.
IX. Дополнительные расходы на ИТ-инфраструктуру, интернет, рекламу;
X. Низкий уровень вовлеченности квалифицированных «консервативных» врачей в цифровую методику.
XI. Различия во взглядах на телемедицину у пациентов, врачей, инженеров, программистов и бизнесменов, влекущие несоответствие ожиданий и результатов, негативные отзывы и жесткую критику.
В настоящее время менее 10% населения России пользуются телемедицинскими услугами, тем не менее преодоление данной отметки произойдет уже в ближайшие несколько лет. Сложившаяся санитарно-эпидемиологическая обстановка является активным катализатором развития подобных технологий, обеспечивающих дистанционное взаимодействие между людьми. Хотя существующие риски и не способны кардинальным образом повлиять на данный процесс, но отрицать их значимость для интеграции и распространения телемедицины не представляется возможным. В связи с этим действующее нормативное регулирование не предоставляет ей полную свободу действий и устанавливает определенные рамки правореализации:
— постановка диагноза, определение лечения и дистанционное наблюдение за состоянием здоровья пациента назначаются лечащим врачом после очного приема;
— онлайн-консультация должна осуществляться в целях профилактики, сбора, анализа жалоб пациента и данных анамнеза, оценки эффективности лечебно-диагностических мероприятий, медицинского наблюдения за состоянием здоровья пациента, либо принятия решения о необходимости проведения очного приема [20].
При этом стоит понимать, что она не подлежит самостоятельному лицензированию в качестве отдельной услуги, а ее применение будет правомерным только посредством использования Единой государственной информационной системы и только по тем услугам, на которые у конкретной клиники имеется действующая лицензия, идентифицированная в этой системе. Кроме того, для ее функционирования необходимым условием выступает обязательное распознавание пациентов и медицинских работников (внесенных в специальный федеральный реестр) через Единую систему идентификации и аутентификации [21].
В заключение стоит отметить, что два рассмотренных направления здравоохранения фактически и представляют собой современную цифровую медицину. Выделенные риски их правореализации можно подразделить на перманентные и носящие временный характер (преодолимые), тогда как основная угроза, беспокоящая общественность, заключается в возможности наступления неблагоприятных последствий для жизни и здоровья пациента. Тем не менее не представляется возможным отрицать, что и традиционные методы лечения не лишены вероятности причинения подобного вреда. В связи с этим наиболее перспективным решением в вопросе функционального и продуктивного внедрения обозначенных технологий является модернизация действующего законодательства через призму научного обоснования сущности и содержания соответствующих правовых феноменов. Определение их местоположения и статуса в юридическом пространстве должно стать отправной точкой в данном процессе.
1. Белогубцева С. Работа для робота. Хирургия при помощи роботов перестала быть научной фантастикой // Сетевое издание «Деловой Петербург». 22 января 2019 года. URL: https://www.dp.ru/a/2019/01/20/Rabota_dlja_robota (дата обращения: 26.10.2020).
2. Лаге Диндал Г., Арне Бернцен Т., Редсе-Йохансен С. Автономные военные «беспилотные летательные аппараты» перестали быть научной фантастикой // Интернет-журнал «Вестник НАТО». 28 июля 2017 года. URL: https://www.nato.int/docu/review/ru/articles/2017/07/28/avtonomnye-voennye-bpla-perestali-byt-nauchnoj-fantastikoj/index.html (дата обращения: 26.10.2020).
3. Защитные «силовые поля» перестали быть фантастикой // Сетевое издание «Вести.Ру». 23 марта 2015 года. URL: https://www.vesti.ru/hitech/article/623891 (дата обращения: 26.10.2020).
4. Егорова М.С., Боженко Н.П., Пожарская О.Д. Медицина будущего, качество жизни и активное долголетие // Успехи современного естествознания. 2015. № 1, часть 7. С. 1085-1088.
5. О развитии искусственного интеллекта в Российской Федерации: указ Президента РФ от 10 октября 2019 г. № 490 // Собрание законодательства РФ. 2019. № 41, ст. 5700.
6. О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»: федеральный закон от 24 апреля 2020 г. № 123-ФЗ // Собрание законодательства РФ. 2020. № 17, ст. 2701.
7. Роботы и робототехнические устройства. Термины и определения: национальный стандарт Российской Федерации ГОСТ Р ИСО 8373-2014 (утв. и введен в действие приказом Росстандарта от 26 ноября 2014 года № 1863-ст). Доступ из СПС «КонсультантПлюс» (дата обращения: 10.10.2020).
8. Роботы и робототехнические устройства. Термины и определения: национальный стандарт Российской Федерации ГОСТ Р 60.0.0.4-2019/ИСО 8373:2012 (утв. и введен в действие Приказом Росстандарта от 14 февраля 2019 г. № 31-ст). Доступ из СПС «КонсультантПлюс» (дата обращения: 10.10.2020).
9. О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники: проект федерального закона Российской Федерации // Проект Исследовательского центра проблем регулирования робототехники и технологий ИИ «Робоправо». URL: https://robopravo.ru/proiekty_aktov (дата обращения: 10.10.2020).
10. Петражицкий Л.И. Теория права и государства в связи с теорией нравственности. С.-Петерб. гос. ун-т. Юрид. и специал. фак., Журн. «Правоведение». СПб.: Лань, 2000. 608 с.
11. Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года: распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р // Собрание законодательства РФ. 2020. № 35, ст. 5593.
12. Конституция Российской Федерации (принята всенародным голосованием 12.12.1993 с изменениями, одобренными в ходе общероссийского голосования 01.07.2020) // Собрание законодательства. 2014. № 31, ст. 4398; О персональных данных: федеральный закон от 27 июля 2006 г. № 152-ФЗ // Собрание законодательства РФ. 2006. № 31, ст. 3451.
13. Цуканова Е.Ю., Скопенко О.Р. Правовые аспекты ответственности за причинение вреда роботом с искусственным интеллектом // Matters of Russian and International Law. 2018. Вып. 8. № 2A. С. 42-47.
14. Понкин И.В., Понкина А.А., Лаптев В.С. Концепт телемедицины: суть, достоинства, недостатки и перспективы // Наркология. 2014. № 10. С. 25-30.
15. Понкин И.В., Понкина А.А., Лаптев В.С. Концепты электронного здравоохранения и электронного здоровья человека // Наркология. 2014. № 6. С. 34-40.
16. О внесении изменений в отдельные законодательные акты Российской Федерации по вопросам применения информационных технологий в сфере охраны здоровья: федеральный закон от 29 июля 2017 г. № 242-ФЗ // Собрание законодательства РФ. 2017. № 31, ст. 4791.
17. Уголовный кодекс Российской Федерации от 13 июня 1996 года № 63-ФЗ (ред. от 27 октября 2020 г.) // Собрание законодательства РФ, 1996. № 25, ст. 2954.
18. Кодекс Российской Федерации об административных правонарушениях от 30 декабря 2001 г. № 195-ФЗ (ред. от 15 октября 2020 г.) // Собрание законодательства РФ. 2002. № 1, ст. 1.
19. Гражданский кодекс Российской Федерации (часть первая) от 30 ноября 1994 г. № 51-ФЗ (ред. от 31 июля 2020 г.) // Собрание законодательства РФ. 1994. № 22, ст. 2457.
20. Об основах охраны здоровья граждан в Российской Федерации: федеральный закон от 21 ноября 2011 г. № 323-ФЗ // Собрание законодательства РФ. 2011. № 48, ст. 6724.
21. Об утверждении порядка организации и оказания медицинской помощи с применением телемедицинских технологий: приказ Министерства здравоохранения РФ от 30 ноября 2017 г. № 965н. Доступ из СПС «КонсультантПлюс» (дата обращения: 10.10.2020).