rss Twitter Добавить виджет на Яндекс
Реклама:
     
 
 
 
     
     
 
 
 
     
     
 

Российский ИИ прощается с тремя законами робототехники

АНО «Цифровая экономика» представила концепцию регулирования искусственного интеллекта и робототехники. В основе ее лежит риск-ориентированный подход к регулированию. Участвовавшие в разработке концепции эксперты рассказали, какие этические принципы и технологические тренды учитывались при этом. В частности, гуманистический характер документа ориентирован на сохранение благополучия человека, поэтому предполагает запрет на причинение искусственным интеллектом вреда человеку, недопущение влияния противоправного ИИ на человека, а также подконтрольность.

Культурный слом

Как рассказал директор направления «Нормативное регулирование» АНО «Цифровая экономика» Дмитрий Тер-Степанов, по мере развития ИИ в стране стало понятно, что правовые основы этого направления требуют отдельного описания и определения. Работа над концепцией шла больше года, она прошла первое одобрение, а следующим этапом станет рассмотрение и утверждение ее на Комиссии соответствующей рабочей группы. Практика принятия подобных законопроектов показывает, что их межведомственное согласование занимает около года. Так что ее создатели рассчитывают, что согласование федеральными органами исполнительной власти уложится в полгода.  

Владимир Авербах, начальник центра исследования данных для госорганов Сбербанка, заметил, что ИИ не просто технология: за нею стоит культурный слом. ИИ проникает во все сферы и изменяет их, поэтому необходимо было договориться о том, как это должно происходить. Например, в области страхования КАСКО и ОСАГО принципы урегулирования со временем были выработаны долгими правовыми отношениями. А в отношении беспилотников пока такой практики нет. Другой пример – применение ИИ в медицине. Как нужно проверять и собирать данные? Как принимать решение, что система на основе ИИ может ставить диагнозы и лечить? Будет ли она всегда лишь помощником врача, или с какого-то момента мы будем полностью доверять ей отдельные процессы?

Чтобы сформировать новую систему правовых отношений, нужно было решить вопрос доступа к данным, их сбору и обезличиванию, применению их к моделям. Такой подход позволит стимулировать развитие этой отрасли, а не действовать исключительно запретительными инструментами, поддерживать конкуренцию, но при этом обеспечить технологический суверенитет. Фактически концепция, по мнению Владимира Авербаха, позволила впервые выработать общий язык и подходы к ИИ.

Тотальное наблюдение и лифты

Александр Крайнов, руководитель лаборатории машинного интеллекта компании «Яндекс», заметил, что ИИ долго разрабатывался и применялся без всякого внимания со стороны законотворцев и СМИ. И без этого отлично развивалось компьютерное зрение, распознавание языка и т.д. Проблемы появились, когда стали делать беспилотные автомобили – законодательство к этому оказалось не готово. По словам эксперта, когда мы думаем о том, где же поедет первый беспилотный автомобиль по улицам, в первую очередь оцениваем технологии. Но на самом деле поедет он там, где лучше разработаны соответствующие законы. Концепция должна помочь решить эту проблему.

Еще одна проблема – объяснимость решений. Сейчас законодательство требует, чтобы была объяснимость: почему вынесен именно такой вердикт. Однако суть ИИ и машинного обучения в том, что составляется очень сложная формула, которая необъяснима. Если ее делать объяснимой, она будет упрощаться и станет работать менее качественно. Так что предстоит решить, что важнее: объяснимость или качество принимаемого ИИ решения, к примеру, по диагнозу в медицине. И не всегда мы будем выбирать качество. Ясно одно: законодательство должно учитывать интересы общества, конкретную задачу и четко выбирать между объяснимостью и качеством результата.  

Александр Крайнов уверен, что в дальнейшем нормы придется дорабатывать много и постоянно. Причина в том, что технологии развиваются очень быстро, и законодательство должно технологическим трендам соответствовать. Поэтому, возможно, какие-то этапы законотворчества придется пропускать, догоняя технологии.

При этом эксперт отмечает, что по мере развития технологий будет меняться и понимание обществом ИИ. Он напомнил, сейчас для нас неактуален вопрос о том, какую ответственность несет лифт, который возит людей в доме. Сейчас это даже смешно обсуждать, а когда лифты стали самоуправляемыми, такие вопросы были актуальны. Возможно, через некоторое время вопросы, которые вызывают сейчас беспилотные автомобили, также потеряют актуальность.

Кроме того, Александр Крайнов подчеркнул, что пандемия может заставить нас пересмотреть многие вопросы. Например, если в процессе «разбора полетов» выяснится, что можно было снизить нагрузку на экономику и здравоохранение, внедрив систему, позволяющую отслеживать контакты всех потенциально зараженных людей, встанет вопрос целесообразности тотальной слежки. Но готовы ли мы сейчас к такому? Скорее всего, нет. Пока для нас это выглядит как немыслимое и неправильное. Но, возможно, вскоре мы пересмотрим свои взгляды и поймем, что такие системы будут более приемлемыми, чем их отсутствие.

Этика и технологии

Виктор Наумов, управляющий партнер Санкт-Петербургского офиса Dentons и руководитель российской практики в области интеллектуальной собственности, ИТ и телекоммуникаций, заметил, что при создании концепции удалось подойти сбалансировано к построению будущей системы регулирования. Разработчики учли всю палитру решений и подходов, которая накопилась за 12 лет – ведь первый закон появился в 2008 году в Южной Корее. За полтора десятилетия в мире разработка идей регулирования ИИ шло несколькими путями. Весомая часть их учтена в концепции.

В ней поднят вопрос ответственности за действия ИИ и роботов, вопрос безопасности – все то, что напрямую воздействует на граждан и юрлица, которые до появления ИИ и роботов не сталкивались с автономными системами с материальными оболочками и без них. Отдельной проблемой является определение пределов воздействия ИИ на классических субъектов права.

Среди прочего эксперт отметил значимость еще одной проблемы: субъекты отношений, которые внедряют ИИ-решения, разбираются во многих вопросах лучше, чем государство, поэтому им надо дать возможность разрабатывать отраслевые стандарты. Внимания заслуживает и этика создания платформ ИИ – она является основой для развития технологии. Поэтому в основу концепции были положены несколько принципов, связанных с безопасностью граждан. Нельзя забывать, что ключевая цель развития ИИ – обеспечение благополучия граждан.  

Руслан Ибрагимов, руководитель рабочей группы «Нормативное регулирование цифровой среды», заметил, что, как только ИИ вышел за двери лабораторий, встали вопросы взаимодействия ИИ с людьми и появилась социальная настороженность. И, чтобы в этой сфере успокоить людей и дать развиваться технологиям, и возникла необходимость в разработке концепции.

Причина того, что сначала появилась концепция, а не законы, кроется в том, что это направление в праве новое, не разработанное ранее никем, кроме футурологов и писателей. Практического опыта взаимодействия с роботами у человечества нет. Для права же всегда было важно следование философским концепциям общества, которые и закреплялись нормами. В случае с ИИ у нас впервые ситуация иная: нет времени, чтобы дождаться философских выводов, надо срочно определяться, чтобы двигать технологию вперед и развеять настороженность людей. Но как делать это, никто не знает. Поэтому и потребовалась концепция, которая бы показала, какие основные проблемы есть, а дальше уже щадящим способом можно подходить к регулированию. И все же важно было сохранить гуманистическую направленность концепции: она ориентируется н благополучие человека, декларирует запрет на причинение вреда человеку, во главу угла ставит контроль и недопущение влияния противоправного ИИ на человека.

Автор: Алена Журавлева (info@mskit.ru)

Рубрики: ПО, Регулирование

наверх
 
 
     

А знаете ли Вы что?

     
 

NNIT.RU: последние новости Нижнего Новгорода и Поволжья

18.01.2024 ИТ-2023: скорость движения вперед кратно выросла

MSKIT.RU: последние новости Москвы и Центра

ITSZ.RU: последние новости Петербурга