Abstract and keywords
Abstract (English):
The population of many developing countries, including Russia, is characterized by a high level of resistance and immunity to innovations affecting their fundamental rights and freedoms. Opportunities for the introduction and application of digital medicine are perceived skeptically, on the one hand from the point of view of its fantasticism, on the other — its riskiness. A significant part of the ideas about it is based on an existential and ethical threat, which currently has virtually no scientific evidence or prerequisites. while the real problem is that the modern legal reality is not ready for rapid technological progress. legislation is not able to properly regulate social relations, the existence of which yesterday seemed unrealistic, and today they are rapidly integrated into our lives. only the formation of a comprehensive unified view of the essence and content of digital medicine can help solve this issue. Whereas this becomes possible only after assessing all the existing risks of its legal implementation, which is what this article is devoted to.

Keywords:
digital medicine, innovation, artificial intelligence, telemedicine, risk, legal regulation, legislation
Text
Publication text (PDF): Read Download

Любая достаточно развитая технология неотличима от магии.
А. Кларк
Инновации представляют собой закономерность, сопровождающую человечество на протяжении всего его существования. Сам факт того, что в настоящее время они являются обыденностью, свидетельствует об уровне их стабильности и масштабах интеграции в нашу жизнь. Более того, технологический прогресс, а также достижения в других отраслях познания достигли той стадии, когда литература и кино, еще десять лет назад считавшиеся фантастикой, перестают быть таковыми [1—3]. Квантовые компьютеры, роботы, искусственный интеллект, генные модификации, клонирование и многие другие заслуги науки перестали восприниматься чем-то нереальным. Еще в 1924 году в журнале Radio News Magazine вышла иллюстрация под названием «The Radio Doctor-Maybe!», в которой демонстрировался процесс дистанционного оказания медицинских услуг в режиме онлайн. Подобные вещи уже не вызывают серьезного резонанса относительно факта своего появления, тогда как предметом дискуссии, как правило, становятся риски, связанные с правореализацией соответствующих инноваций. Тем не менее в данном контексте пристальное внимание общественности, несмотря на все существующие противоречия, приковано к сфере здравоохранения, поскольку именно на нее возлагаются надежды на сохранение и продление жизни [4].
В настоящее время население Земли активно приближается к отметке в 8 миллиардов, подобный демографический рост закономерно пред­определил комплекс сопутствующих проблем, в числе которых особо значимую нишу занимает заболеваемость, уверенно достигающая внушительных рекордов в своих показателях. В связи с чем даже скептически настроенные люди с консервативными взглядами вынуждены проявлять лояльность и предоставлять шанс интеграции высоких технологий в сферу медицины.
К числу таковых в первую очередь уместно будет отнести главную инновацию XXI века — искусственный интеллект (далее — ИИ), являющийся одним из самых быстрорастущих сегментов мирового рынка здравоохранения. Не представляется возможным отрицать, что потенциал этой разработки способен стать существенным подспорьем врачам в диагностике заболевания и последующем лечении. Более того, потенциал «машины» по сбору и хранению информации значительно превышает возможности человека, что обладает безусловной ценностью для подобной естественной науки. Уже сегодня ИИ-сервисы способны с невероятной скоростью проводить анализ состояния здоровья человека только лишь на основании его изображения, при этом предоставляя действительно верные диагнозы.
Однако, как говорил известный английский писатель и поэт Оскар Уайльд: «Никогда ничего не идеализируй — это может плохо кончиться». Соответственно, и рассматриваемая инновация не лишена многочисленных рисков возникновения серьезных неблагоприятных последствий, в силу того что современное мироустройство устанавливает здесь целый ряд определенных препятствий правового, социального и технологического характера.
Юридическое дефинирование.
В настоящее время в системе действующих отечественных нормативных правовых актов уже содержится терминологическая регламентация категории ИИ. Так, в соответствии с указом Президента РФ от 10 октября 2019 года № 490 «О развитии искусственного интеллекта в Российской Федерации» под ним следует понимать «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека» [5]. Аналогичное определение содержится и в Федеральном законе от 24 апреля 2020 года № 123—ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»» [6]. Что, в свою очередь, позволяет сделать вывод об определенном уровне унификации, однако с точки зрения правотворчества речь должна вестись не только о единообразии, но также и о целостности, допустимости и достаточности приводимых официальных толкований. Тогда как обозначенное выше определение следует охарактеризовать как сжатое и неконкретизированное. Оно фактически находится на грани некорректного описания, содержащего логическую ошибку.
Прежде всего, на себя обращает внимание категория «имитация когнитивных функций человека», подверженная расширительному толкованию. Устройства от портативных калькуляторов до поисковых систем «Яндекс» не хуже человека способны воспроизводить функции по обработке числовой или текстовой информации, однако отождествлять их с ИИ не представляется возможным. Следующий не менее важный аспект состоит в том, являются ли осознанными и контролируемыми обозначенные «самообучение и поиск решений без заранее заданного алгоритма». Поскольку, например, разработанная еще в середине прошлого века «искусственная нейронная сеть», нашедшая свое применение в сферах психодиагностики, хемоинформатики, нейроуправления, экономики и других, вполне способна реализовывать эти процессы. Кроме того, самой дефиниции «самообучение» не удается обнаружить в отечественном законодательстве, благодаря чему возникает тавтология и лингвистическое замешательство, наглядно описываемое словами бывшего министра обороны США Дональда Рамсфельда: «...есть известные известные — вещи, о которых мы знаем, что знаем их. Есть также известные неизвестные — вещи, о которых мы знаем, что не знаем. Но еще есть неизвестные неизвестные — это вещи, о которых мы не знаем, что не знаем их».
Юридические черты, которыми наделено приведенное определение, весьма размыты и сконструированы в целях обобщения наиболее широкого круга общественных отношений, обусловленных технологическим прогрессом. Тогда как в правоприменительной деятельности они детерминируют риск расширительного толкования, появления правовых коллизий и конкуренции норм, уже имеющих место в отечественной юриспруденции. Так, например, Национальный стандарт Российской Федеорации «Роботы и робототехнические устройства. Термины и определения», утвержденный и введенный в действие приказом Федерального агентства по техническому регулированию и метрологии от 26 ноября 2014 года № 1863—ст, определяет, что «разумный робот; робот с элементами искусственного интеллекта (intelligent robot) является таковым в случае, если он выполняет работу путем считывания данных из окружающей среды, взаимодействия с внешними источниками и адаптации своего поведения» [7]. Примечательно, что впоследствии указанный термин был заменен на «адаптивный робот», сохранив при этом англоязычную формулировку (intelligent robot) [8]. В данном определении, как и в предыдущем, отсутствует элемент субъективного отношения к выполняемым действиям, более того, здесь фактически исключается позиция «очеловечивания» ИИ, в том числе и соответствующая имитация.
Нельзя не обратить внимание на еще одну попытку официального толкования, а именно на проект федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники», согласно которому «робот — устройство, способное действовать, определять свои действия и оценивать их последствия на основе информации, поступающей из внешней среды, без полного контроля со стороны человека» [9]. Основная заслуга разработанной дефиниции заключается в смещении акцента с исключительно интеллектуальной деятельности на интеллектуально-волевую. Тем не менее, маловероятен сценарий, при котором речь будет вестись о формировании у робота морально-нравственных ориентиров при выборе своих действий. Однако как минимум возможность их оценки с точки зрения законодательно установленных запретов уже будет свидетельствовать о возможности рассмотрения ИИ в качестве субъекта права. Указанный законопроект принят не был, в связи с чем более детальный анализ приведенной дефиниции представляется нецелесообразным. Обозначенная проблема детерминирует отсутствие единообразия мнений о природе искусственного интеллекта, его видах, самостоятельности, безопасности, критериях разумности, а также о том, какое место им предопределено в существующем правовом поле.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Непонимание сущности и содержания юридической категории ее правоприменнителем.
II. Неспособность сформировать обоснованное субъективное отношение к рассматриваемому правовому явлению.
III. Распространение расширительного и неофициального толкования.
IV. Некачественная постановка объекта и предмета законодательного регулирования.
V. Нарушение регулятивных функций права.
VI. Законотворческие пробелы и коллизии, технико-юридические ошибки.
VII. Неполноценность нового научного направления.
Гражданско-правовой статус.
Слабые стороны законодательной регламентации общественных отношений в сфере ИИ обусловлены в том числе и отсутствием официальных конкретно определенных критериев, определяющих самостоятельную личность, способную иметь права и обязанности, а также осуществлять их реализацию своими действиями и нести за это ответственность. Примечательно, что в современном мире уже имеются неодушевленные категории, обладающие вышеуказанными свойствами, — юридическое лицо, государство, нации, народы, трудовые коллективы, семья. Более того, самостоятельными правовыми персонами в разных странах признавались животные, природные явления, имущество, наследственная масса, бестелесные духи и представляемые существа на основании факта формирования соответствующих правовых переживаний в психике индивида [10, с. 103—104]. К сожалению, в юридической доктрине также не прослеживается общепринятая позиция по обозначенной проблематике. Тем не мене, анализ различных исследований отечественных и зарубежных правоведов позволяет выделить основополагающие критерии, дающие возможность оценивать феномены с точки зрения их правосубъектности:
a) осознание своих субъективных прав и обязанностей, а также их самостоятельная реализация;
b) способность нести юридическую ответственность за свои неправомерные поступки;
c) установка и понимание собственной ценности, своих интересов и устремлений в праве;
d) свободное формирование и выражение вовне своей правовой воли;
e) восприятие и оценка потребностей и притязаний других лиц;
f) совмещение своего поведения с интересами других участников правовой коммуникации;
g) возможность самостоятельного осуществления правовой деятельности;
h) способность самостоятельного принятия и осуществления правовых решений, влекущих юридические последствия, при полном осознании их значения для заинтересованных лиц;
i) обособленность (имущественная/организационная);
j) опознаваемость, возможность правовой индивидуализации.
Законодательная регламентация соответствующих критериев может способствовать формированию единого мировоззрения о правовой сущности ИИ, а также иных инноваций, претендующих на признание своего существования в качестве самостоятельного субъекта права. Более того, именно она наглядно демонстрирует направления развития рассматриваемой технологии, которая в настоящее время как минимум не отличается собственными интересами и волеизъявлением, не способна формировать субъективное отношение к совершаемым деяниям и наступившим в результате них последствиям, не обладает чувством вины и не может нести юридическую ответственность. В связи с этим придание искусственному интеллекту подобного статуса на данном этапе его развития является преждевременным решением, поскольку оно создает необоснованные риски как общеправового, так и отраслевого характера.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Функционирование в юридическом пространстве неоднозначной категории, находящейся на границе его базовых элементов — субъекта и объекта правоотношений.
II. Дестабилизация коммуникативного взаимодействия в праве.
III. Неопределенность либо недостаточная аргументированность регистрационных, сертификационных, лицензионно-разрешительных и иных процедур по контролю ИИ, а также сопряженной с ним деятельности.
IV. Пробелы и противоречия в вопросах определения деликтоспособности, авторских прав, пределах применения ИИ.
V. Уравнивание естественного и искусственного интеллекта.
Правовое регулирование.
Продукт стремительных инноваций, как правило, относительно быстро проходит процедуру социальной адаптации, тогда как к попыткам государственного регулирования и контроля у него нередко проявляется достаточно высокий уровень иммунитета. Юридическое сообщество всех стран мира в настоящее время активно трудится над вопросом законодательной регламентации ИИ, который совершенно ей не поддается, в силу как собственно юридико-технических проблем, так и благодаря отсутствию целостного представления о сущности данного феномена. Приведенные в настоящей статье нормативные акты фактически олицетворяют всю существующую отечественную нормативную базу в указанном направлении. Данная проблема в том числе поднимается и в Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года [11]. В качестве ключевого детерминанта отсутствия специализированного механизма правового контроля выделяется проблема достижения баланса между запросами потребителей (человек, общество, государство) — возможностями и интересами поставщиков (разработчиков ИИ) — требованиями общепризнанных этических и правовых норм. Тогда как возможность присутствия в данной цепи самого ИИ в принципе не рассматривается, что дает однозначный ответ на вопрос о современном законодательном подходе к определению его правосубъектности. Таким образом, формируется «замкнутый круг», когда проблема непонимания правовой сущности конкретного явления становится одновременно причиной и следствием отсутствия должной регламентации. В текущих условиях обсуждение деликтоспособности представляется абсолютно бессмысленным, поскольку речь ведется о предмете товарооборота (вещи), либо объекте авторских прав (программе), либо источнике повышенной опасности и не более того.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Доминирование метода «проб и ошибок» при попытках урегулировать общественные отношения, сопряженные с использованием ИИ, в ситуации, когда «на кону» стоят жизнь и здоровье людей.
II. Формирование условий непригодных для развития внедряемых в сферу здравоохранения технологий.
III. Тотальный контроль баз данных персональной информации, негативно влияющий на саму медицину.
IV. Снижение эффективности соответствующей помощи и услуг.
V. Внедрение ИИ на свой «страх и риск», в силу возможности оказаться за пределами действующего нормативного регулирования.
Инновационный и технологический нигилизм.
Современное социальное сознание настороженно относится к возможностям применения ИИ, в особенности когда это касается собственного здоровья. При этом здесь речь ведется не только о пациентах, но и о практикующих врачах, неготовых довериться программным алгоритмам. Решению данной проблемы может помочь только время, способное похвастаться обилием примеров успеха в данном направлении. Тогда как сегодня ключевые субъекты здравоохранения придерживаются презумпции доверия традиционным способам лечения, подвергающимся сомнению и модернизации со стороны инженеров, программистов и бизнесменов.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Скепсис по отношению к результатам анализа данных, полученным ИИ.
II. Дополнительная нагрузка на врачей по оценке и перепроверке поставленного диагноза и назначенного лечения.
III. Отказ пациентов от медицинских процедур с участием ИИ.
IV. Недостаток опытных данных, положительных результатов и отзывов в силу отсутствия необходимых объемов практики применения соответствующих технологий.
V. Прогрессирование социальной неофобии.
Постороннее вмешательство.
В первую очередь речь ведется о возможности взлома защитной оболочки ИИ и получения удаленного доступа третьими лицами к полному функционалу системы. Подобное способно повлечь не только нарушение врачебной тайны и распространение конфиденциальной информации, но и нанести реальный вред жизни или здоровью пациента, что, в свою очередь, сделает эту технологию крайне востребованной на «черном рынке».
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Нарушения законодательства в сфере охраны и защиты персональных данных [12].
II. Утрата и хищение личной информации пациентов.
III. Рост сопутствующих противоправных деяний (вымогательство, торговля конфиденциальными сведениями, киберпреступность, кибертерроризм и др.).
IV. Получение несанкционированного контроля за действиями ИИ и его перепрограммирование в преступных целях.
V. Вынужденное функционирование отдельных медицинских организаций в условиях, не обеспечивающих законодательно регламентированную сохранность персональных данных.
VI. Негласный принудительный вывод массивов медицинских данных за периметр учреждений в силу отсутствия должных высокопроизводительных вычислительных мощностей.
VII. Формирование стереотипного социального мышления о необходимости выбора между обращением за медицинской помощью и предоставлением своей личной информации в потенциально открытый доступ.
Кадровый потенциал.
Действительно эффективному внедрению ИИ может способствовать только наличие специализированного персонала, готового осуществлять не только техническое сопровождение и программное обеспечение, но и фактический контроль полноты и качества проводимого лечения. Медицинские организации не менее других подвержены проблемам дефицита кадров, низкой квалификации уже имеющихся работников, а также в целом нехватки ресурсов для интеграции соответствующих инноваций, тогда как полноценная технологизация сферы здравоохранения влечет за собой риск врачебной безработицы в силу замещения человеческого ресурса программным обеспечением.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Оказание неконтролируемой и некачественной медицинской помощи.
II. Бездумное принятие «на веру» выводов, сделанных ИИ.
III. Рост латентности врачебных ошибок и проблемы с установлением их причин.
IV. Прикрытие собственной халатности и некомпетентности несовершенством программы (делегирование своей вины ИИ).
V. Причинение вреда жизни и здоровью пациентов.
VI. Расширение и видоизменение квалификационных требований к медицинскому персоналу.
VII. Снижение востребованности «человеческого ресурса», в силу замещения его роботами и программами, кадровые перестановки и сокращения, эскалация социальной напряженности, внутренние конфликты.
VIII. Дегуманизация практики медицинского ухода.
IX. Рост безработицы и неопределенности в карьере (риск территориального характера, поскольку в силу уже имеющегося дефицита кадров, масштабов государства и плотности населения отдельные субъекты Федерации могут избежать обозначенной проблемы).
X. Увеличение стоимости разработки и обслуживания ИИ, а также иных услуг, сопряженных с его внедрением в сферу здравоохранения.
Полноценные систематизированные базы данных.
Следует понимать, что существующая информационно телекоммуникационная сеть «Интернет» не может выступать в качестве фундамента или хотя бы его части для функционирования ИИ, поскольку имеющаяся там информация не только не отвечает требованиям безопасности, но и обладает хаотичным характером, способным послужить основой скорее для отрицательных результатов, чем положительных. Тогда как изолированных и унифицированных в медицинских целях цифровых информационных ресурсов в настоящее время фактически не существует, что обусловливает потребность в их обобщении, структуризации и должной подготовке для последующего использования.
Риски интеграции ИИ, обусловленные отсутствием решения вышеуказанной проблемы:
I. Частичная или полная недосягаемость информации о пациентах и их истории болезней для ИИ в силу наличия неточностей, ошибок, нестандартной терминологии в медицинских картах, а также неразборчивости соответствующего почерка.
II. Противоречия в алгоритмах лечения, обусловленные недостаточной точностью медицины, чьи научные школы могут располагать различными методиками осуществления тождественных врачебных процедур.
III. Чрезмерная длительность поиска решения (не обязательно верного) в постановке диагноза и дальнейшем медицинском сопровождении.
IV. Нераскрытый потенциал ИИ, негативно влияющий на целесообразность выделенных денежных средств и дальнейшего финансирования.
Обозначенные проблемы выступают серьезным барьером для ассимиляции и адаптации ИИ в современном здравоохранении, более того, их преодоление фактически является залогом минимизации соответствующих неблагоприятных последствий. В указанном ключе большинство правоведов акцентируют внимание на экзистенциональном и уголовно-правовом аспекте рассматриваемого феномена, однако их анализ требует соблюдения критериев комплексности и полноценности, в связи с чем этому будет посвящено отдельное исследование. Данное решение позволило в большей мере сосредоточиться на иных рисках интеграции ИИ в сферу медицины, к которым также нельзя не отнести:
I. Несоответствие затраченных ресурсов и полученных результатов; медицина в данном направлении с высокой долей вероятности будет показывать отрицательную рентабельность на краткосрочной и среднесрочной перспективе при отсутствии гарантий положительной динамики.
II. Расширение и замещение в здравоохранении медицинской помощи областью коммерческих услуг.
III. Диктование способов лечения врачам от программистов.
IV. Невозможность установления обоснованности диагноза и лечения в силу недоступности восстановления цепочки рассуждений ИИ, послужившей основой для принятия того или иного решения.
V. Нераспознавание дефектов документов, изображений или другой технической информации в процессе осуществления медицинских процедур, способное повлиять на правильность выводов и повлечь неблагоприятные последствия.
VI. Интеграция ИИ в теневой сектор экономики, активизация «черного рынка», процветание имитаторов и поставка заведомо некачественных услуг.
Несмотря на все вышеизложенное, следует понимать — «программа» или же «машина» в типичном обывательском представлении характеризуется четким ограниченным потенциалом, определенным прилагаемой инструкцией. Главная роль здесь уделяется отсутствию возможности расширения своего функционала, то есть допускается незначительное развитие, но не эволюция, предполагающая в том числе и серьезные качественные изменения. В настоящее время наиболее приемлемым применением ИИ в медицине представляется его использование в качестве инструмента — помощи для медицинских работников в принятии решений. Специалист будет просто использовать его в целях собственной разгрузки и повышения качества своей деятельности.
Тем не менее технологический прогресс уже в ближайшие десятилетия способен кардинальным образом перевернуть все существующие представления о перспективах ИИ и скорости его развития, что однозначно станет серьезной проблемой для законодательного регулирования, в особенности в отсутствие унифицированного подхода к пониманию правовой сущности указанного феномена, тогда как сегодня важно найти разумный баланс между новым технологиями и конструкциями традиционного права, оставив место и для изменений в будущем [13, с. 42]. ИИ еще не обладает теми свойствами и характеристиками, которые ему приписываются и активно обсуждаются в социальной и юридической сферах. Минимизация рисков правореализации рассматриваемой инновации в данный момент во многом возлагается на отраслевое законодательство, призванное обеспечить следующие ключевые позиции:
Гражданское право
— регламентация ответственности за вред, причиненный ИИ;
— определение статуса ИИ в правовом поле;
— распределение прав интеллектуальной собственности на произведения (методики лечения), созданные ИИ.
Трудовое право
— ограничение трудовых обязанностей, которые могут возлагаться на ИИ без участия человека/с его обязательным участием;
— разработка правил взаимодействия человека с ИИ при выполнении совместных работ;
— выделение и фиксация квот на рабочие места, предназначенные для людей.
Уголовное право
— введение норм об ответственности за причинение вреда элементами ИИ.
Перспективы и темпы развития ИИ приводят в искренний восторг и ужас, однако во всем своем многообразии они основаны, скорее, на домыслах и богатой фантазии, чем на объективных фактах и научных выводах. Таким образом, дискуссия по поводу экзистенциональных и этических рисков интеграции ИИ станет уместной только тогда, когда будут минимизированы остальные более реальные угрозы. С точки зрения продуктивности рассматриваемые технологии способны привнести значительный положительный вклад в развитие медицины, в особенности это касается перспектив реализации телемедицины [14; 15].
В соответствии с Федеральным законом от 29 июля 2017 года № 242—ФЗ «О внесении изменений в отдельные законодательные акты Российской Федерации по вопросам применения информационных технологий в сфере охраны здоровья» указанная инновация подразумевает «применение информационных технологий, обеспечивающих дистанционное взаимодействие медицинских работников между собой, с пациентами и (или) их законными представителями, идентификацию и аутентификацию указанных лиц, документирование совершаемых ими действий при проведении консилиумов, консультаций, дистанционного медицинского наблюдения за состоянием здоровья пациента» [16].
Сильные стороны данной инновации, позволяющие ей периодически доминировать над традиционными медицинскими методиками, достаточно наглядно раскрываются в условиях распространения новой коронавирусной инфекции COVID-19 (см. таблицу 1).
С учетом статистических данных, демонстрирующих, что соотношение первичных обращений за медицинской помощью и вторичных составляет 3:7, практически 2/3 визитов к врачу могут признаваться повторными. В данном ключе и должно быть сосредоточено основное целеполагание рассматриваемой технологии. В то же время здесь нельзя не обратить внимание на достаточно значимый парадокс, который состоит в синтезе одного из главных преимуществ телемедицины с ее же основным недостатком. Предполагается, что она позволит людям из всех регионов страны осуществлять дистанционный контакт с интересующим врачом, однако далеко не во всей России проведены газ и электричество. В таком контексте вести речь о высокоскоростном интернете и качественном аудио- и видеооборудовании вообще не представляется возможным.
Таблица 1

Преимущества телемедицины
для пациентов    для врачей
— оперативность;
— экономия времени и денег;
— доступ к большой базе квалифицированных специалистов;
— более качественная медицинская помощь;
— динамичное наблюдение;
— исключение контактов с другими людьми;
— создание персонализированной медицины;
— возможность хранить все медицинские данные в одном месте    — экономия времени;
— большое число новых пациентов;
— рост доходов;
— исключение контактов с другими людьми;
— повышение репутации и узнаваемости;
— кардинальное снижение стоимости привлечения пациентов в сравнении со стоимостью использования медицинских агрегаторов;
— новый метод рекламы и продвижения услуг клиники

К сожалению, данная отрасль цифровой медицины, также как методика применения искусственного интеллекта, не лишена определенных рисков, ставящих под сомнение возможность и перспективу ее полноценного внедрения в сферу здравоохранения. Большинство существующих в настоящее время препятствий для ее повсеместной интеграции во многом совпадает с теми, что были рассмотрены ранее в процессе анализа ИИ. В связи с этим выделим лишь наиболее характерные риски правореализации телемедицины:
I. Прямая взаимосвязь между качеством медицинских услуг и материально-технической обеспеченностью пациента (в т. ч. различные приборы для измерения и передачи данных о давлении, пульсе, температуре и т. д.).
II. Неточности в данных, передаваемых с устройств, используемых пациентом.
III. Ошибки в оценке состояния пациента и его последующем лечении.
IV. Раскрытие сведений, составляющих врачебную тайну, с сопутствующим уголовным (ст. 137 УК РФ [17]), административным (ст. 13.11, 13.14 КоАП РФ [18] или гражданско-правовым (ст. 15, 150, 151, 1064, 1068, 1099, 1101 ГК РФ [19]) разбирательством.
V. Недостоверная идентификация пациента и/или медицинского работника.
VI. Широкие возможности по осуществлению мошеннических действий.
VII. Юридические последствия для врача и медицинского учреждения.
VIII. Трудности в получении добровольного информированного согласия, являющегося необходимым условием медицинского вмешательства.
IX. Дополнительные расходы на ИТ-инфра­структуру, интернет, рекламу;
X. Низкий уровень вовлеченности квалифицированных «консервативных» врачей в цифровую методику.
XI. Различия во взглядах на телемедицину у пациентов, врачей, инженеров, программистов и бизнесменов, влекущие несоответствие ожиданий и результатов, негативные отзывы и жесткую критику.
В настоящее время менее 10% населения России пользуются телемедицинскими услугами, тем не менее преодоление данной отметки произойдет уже в ближайшие несколько лет. Сложившаяся санитарно-эпидемиологическая обстановка является активным катализатором развития подобных технологий, обеспечивающих дистанционное взаимодействие между людьми. Хотя существующие риски и не способны кардинальным образом повлиять на данный процесс, но отрицать их значимость для интеграции и распространения телемедицины не представляется возможным. В связи с этим действующее нормативное регулирование не предоставляет ей полную свободу действий и устанавливает определенные рамки правореализации:
— постановка диагноза, определение лечения и дистанционное наблюдение за состоянием здоровья пациента назначаются лечащим врачом после очного приема;
— онлайн-консультация должна осуществляться в целях профилактики, сбора, анализа жалоб пациента и данных анамнеза, оценки эффективности лечебно-диагностических мероприятий, медицинского наблюдения за состоянием здоровья пациента, либо принятия решения о необходимости проведения очного приема [20].
При этом стоит понимать, что она не подлежит самостоятельному лицензированию в качестве отдельной услуги, а ее применение будет правомерным только посредством использования Единой государственной информационной системы и только по тем услугам, на которые у конкретной клиники имеется действующая лицензия, идентифицированная в этой системе. Кроме того, для ее функционирования необходимым условием выступает обязательное распознавание пациентов и медицинских работников (внесенных в специальный федеральный реестр) через Единую систему идентификации и аутентификации [21].
В заключение стоит отметить, что два рассмотренных направления здравоохранения фактически и представляют собой современную цифровую медицину. Выделенные риски их правореализации можно подразделить на перманентные и носящие временный характер (преодолимые), тогда как основная угроза, беспокоящая общественность, заключается в возможности наступления неблагоприятных последствий для жизни и здоровья пациента. Тем не менее не представляется возможным отрицать, что и традиционные методы лечения не лишены вероятности причинения подобного вреда. В связи с этим наиболее перспективным решением в вопросе функционального и продуктивного внедрения обозначенных технологий является модернизация действующего законодательства через призму научного обоснования сущности и содержания соответствующих правовых феноменов. Определение их местоположения и статуса в юридическом пространстве должно стать отправной точкой в данном процессе.

References

1. Belogubtseva S. Work for the robot. Robot-assisted surgery is no longer science fiction. Online publication “Delovoy Peterburg”. January 22, 2019. URL: https://www.dp.ru/a/2019/01/20/Rabota_dlja_robota (accessed 26.10.2020). (In Russ.)

2. Lage Dindal G., Arne Berntsen T., Redse-Johansen S. Autonomous military “unmanned aerial vehicles” have ceased to be science fiction. Online magazine “NATO Bulletin”, July 28, 2017. URL: https://www.nato.int/docu/review/ru/articles/2017/07/28/avtonomnye-voennye-bpla-perestali-byt-nauchnoj-fantastikoj/index.html (accessed 26.10.2020). (In Russ.)

3. Protective “force fields” have ceased to be a fantasy. Online publication “Vesti.Ru”, March 23, 2015. URL: https://www.vesti.ru/hitech/article/623891 (accessed 26.10.2020). (In Russ.)

4. Egorova M.S., Bozhenko N.P., Pozharskaya O.D. Medicine of the future, quality of life and active longevity. The successes of modern natural science, 2015, no. 1, part 7, pp. 1085-1088. (In Russ.)

5. On the development of artificial intelligence in the Russian Federation: decree of the President of the Russian Federation №. 490 of October 10, 2019. Collection of legislative acts of the RF, 2019, no. 41, art. 5700. (In Russ.)

6. The experiment of establishing a special regulation in order to create the necessary conditions for the development and implementation of artificial intelligence technologies in the Russian Federation - Federal city of Moscow and amendments to articles 6 and 10 of the Federal law “On personal data”: the federal law of April 24, 2020 no. 123-FZ. Collection of legislative acts of the RF, 2020, no. 17, art. 2701. (In Russ.)

7. Robots and robotic devices. Terms and definitions: national standard of the Russian Federation GOST R ISO 8373-2014 (approved and put into effect by Rosstandart order no. 1863-st of November 26, 2014). Access from the reference legal system “ConsultantPlus” (accessed 10.10.2020). (In Russ.)

8. Robots and robotic devices. Terms and definitions: national standard of the Russian Federation GOST R  60.0.0.4-2019/ISO8373:2012 (approved and put into effect by Rosstandart order no. 31-st of February 14, 2019). Access from the reference legal system “ConsultantPlus” (accessed 10.10.2020). (In Russ.)

9. On Amendments to the Civil code of the Russian Federation in terms of improving the legal regulation of relations in the field of robotics: draft federal law of the Russian Federation. The project of the Research center for regulation of robotics and AI technologies “Robopro”. URL: https://robopravo.ru/proiekty_aktov (accessed 10.10.2020). (In Russ.)

10. Petrazhitsky L.I. Theory of law and state in connection with the theory of morality. The faculty of law. and special. FAK., Sib. “Jurisprudence”. St. Petersburg: Lan, 2000. Pp. 103-104. (In Russ.)

11. On approval of the concept of regulation of relations in the field of artificial intelligence and robotics for the period up to 2024: the decree of the RF Government of August 19, 2020 no. 2129-p. Collection of legislative acts of the RF, 2020, no. 35, art. 5593. (In Russ.)

12. The Constitution of the Russian Federation (adopted by popular vote 12.12.1993 with changes approved in a nationwide vote 01.07.2020). Collection of legislative acts of the RF, 2014, no. 31, art. 4398; On personal data: federal law of 27 July 2006 no. 152-FZ. Collection of legislative acts of the RF, 2006, no. 31, art. 3451. (In Russ.)

13. Tsukanov E.Yu., Skopenko O.R. Legal aspects of liability for damage caused by a robot with artificial intelligence. Issues of Russian and international law, 2018, vol. 8, no. 2A, pp. 42-47. (In Russ.)

14. Ponkin I.V., Ponkin A.A., Laptev S.V. The Concept of telemedicine: the essence, advantages, disadvantages and prospects. Narcology, 2014, no. 10, pp. 25-30. (In Russ.)

15. Ponkin I.V. Ponkin A.A., Laptev S.V. The Concepts of e-health and e-health. Addiction medicine, 2014, no. 6, pp. 34-40. (In Russ.)

16. On amendments to certain legislative acts of the Russian Federation on the application of information technology in the health sector: the federal law of July 29, 2017 no. 242-FZ. Collection of legislative acts of the RF, 2017, no. 31, art. 4791. (In Russ.)

17. Criminal code of the Russian Federation no. 63-FZ of June 13, 1996 (as amended on October 27, 2020). Collection of legislative acts of the RF, 1996, no. 25, art. 2954. (In Russ.)

18. The Russian code of administrative offences of 30 December 2001 no. 195-FZ (as amended on October 15, 2020. Collection of legislative acts of the RF, 2002, no. 1, art. 1. (In Russ.)

19. The Civil code of the Russian Federation (part one) dated 30 November 1994 no. 51-FZ (as amended on July 31, 2020). Collection of legislative acts of the RF, 1994, no. 22, art. 2457. (In Russ.)

20. On the basis of health protection in the Russian Federation: federal law of 21 November 2011 no. 323-FZ. Collection of legislative acts of the RF, 2011, no. 48, art. 6724. (In Russ.)

21. On approval of the procedure for organizing and providing medical care using telemedicine technologies: order of the Ministry of Health of the Russian Federation no. 965n of November 30, 2017. Access from the reference legal system “ConsultantPlus” (accessed 10.10.2020). (In Russ.)


Login or Create
* Forgot password?