Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России

Tekst
Autor:
0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Czcionka:Mniejsze АаWiększe Aa

В Аналитическом докладе, подготовленном группой CDTO (Центр подготовки руководителей цифровой трансформации) РАНХиГС предлагается анализ возможных подходов к созданию машинной этике на основе существующих сегодня исследований, который приведен в Таблице 2.1.

Таблица 2.1

Критерии «машинной этики» [100]



Кроме того, пока нет однозначного ответа на вопрос, следует ли закладывать в алгоритм ИС ментальных особенностей морально-этических норм, о которых было сказано выше. Какие нормы робоэтики (машинной этики) должны быть урегулированы на международном уровне, а какие – только на национальном? При определении стандартов этического поведения ИИ на международном уровне основой, по мнению П.М. Готовцева и Г.В. Ройзензона, входящих в состав группы по этическим стандартам[7] Института инженеров в области электротехники и электроники (Institute of Electrical and Electronics Engineers, IEEE), должна быть гибкая система правил поведения стандартов, в результате применения которых ИИ не стало бы худшее решение, чем то, которое мог бы принять человек самостоятельно. Критерием правильности машинной этики является ее влияние на содержание прав человека. С этой целью в 2017–2019 гг. European Parliamentary Technology Assessment (EPTA Network) были подготовлены доклады. С 2011 г. идет процесс принятия отдельных документов, регламентирующих необходимость использования оценки воздействия ИИ на права человека (Human rights impact assessment) как самостоятельного института этики ИИ (см. Приложение B).

К апрелю 2020 г. практически во всех странных были приняты юридические акты и различного рода рекомендации, посвященные этике ИИ: «Азиломарские принципы ИИ» [108] (США, 2017); Рекомендации по беспилотным автомобилям [109] (Германия, 2017), Монреальская декларация об ответственном развитии искусственного интеллекта [110](Канада, 2017); «Этические руководящие принципы для Японского общества искусственного интеллекта (JSAI)» (Япония, 2017) [111]. Руководство по этике для надежного ИИ Специальной группы экспертов высокого уровня Совета Европы [112] (2018); Модельная конвенция робототехники и искусственного интеллекта [113] (Россия, 2018); Римский призыв к этике [114] (Ватикан, 2020), Этические принципы для искусственного интеллекта [115](США, 2020).

Анализируя эти акты, предлагаем следующие ключевые этические принципы взаимодействия человека и ИИ, киберфизических систем, нейронных сетей, роботов и объектов робототехники:

1. Безопасность, качество, надежность касается нескольких аспектов: надежности и безопасности технических (программно-технических) систем вообще (имеет значение для слабого ИИ, роботов и объектов робототехники; правильности выбора варианта действия как «разумного», «правильного» «корректного» из всех предложенных; проблемы программы-советчика («опыт оператора»), когда, с одной стороны, у индивидов в результате непрозрачности ИИ и дефицита времени для принятия того или иного решения может возникнуть как недоверие, так и сверхдоверие к ИС и роботам [116, 117, 118, 119]. Причем последнее тем более вероятно, чем такой робот или иная ИАС внешне уподоблена человеку и комментирует собственные действия «разумно» с позиции определенного признанного конкретным субъектом алгоритма принятия решения или совершения определенного действия. В дальнейшем это может привести к некритичному отношению вообще к любой ИС, что может повлечь за собой отказу от самостоятельного решения лишь при помощи нейронной сети или бота-робота, а, следовательно, к совершению всё больших ошибок, потери квалификационных компетенций, что и приведет в полной замене человека на рабочем месте моделями ИИ. На наш взгляд, в сфере здравоохранения, образования, управления, на опасном производстве подобная ситуация может обернуться катастрофой из-за того, что возникает сомнение в качестве используемых ИАС.

2. Прозрачность важна для пользователей роботов, иных киберфизических систем, ИИ, т. к. индивид, общество и государство в лице государственных и муниципальных органов должны быть осведомлены об алгоритмах принимаемых ИАС решений, при этом особенно важно, чтобы их решения были максимально сходи с теми, которые принял бы человек при получении той же задачи. Именно прозрачность, а также возможность проверки и сертификаци моделей нейронных сетей, роботов, киберфизических систем и ИИ на соответствие утвержденным международными и национальными ГОСТами и законодательству Российской Федерации в сфере цифровых технологий и ИИ позволит сформировать доверие граждан к данным системам и внедрению их в повседневную жизнь, в том числе на основании экспериментального правого режима в г. Москве с 01 июля 2020 г.

3. Инклюзивность, защита прав человека в ближайшие годы можно ожидать появления программ, основанных на технологиях ИИ, которые станут помогать преодолевать проблемы [120], помогать создавать инклюзивную среду. Масштабные инклюзивные проекты есть у крупных технологических корпораций Microsoft, Apple и Google. Microsoft – один из лидеров в этой области и главных популяризаторов метода. Компания разработала руководство для дизайнеров по созданию доступного сервиса [121, 122, 123, 124]. ИИ должен принимать во внимание потребности всех людей с тем, чтобы каждый человек мог принести пользу и всем людям могут быть предложены наилучшие возможные условия для выражения саморазвития, а также обеспечивать защиту прав и свобод человека, в том числе права на труд, на образование и др.

4. Беспристрастность, справедливость, зависит от разработчика ИИ, ведь предубеждения и предположения могут скрываться в данных, на основе которых строятся ИАС, что влияет на объективность принятия решений. Данный принцип зафиксирован в «Европейской этической Хартии по использованию искусственного интеллекта (ИИ) в судебных системах и их среде» [125]. Как показывают исследования [126], алгоритмы способны помочь уменьшить, например, расовое неравенство в системе оказания медицинской помощи [127], доступа к услугам и др. Все решения, действия, предпринимаемые различными сертифицированными моделями нейронных сетей, киберфизическими системами или ботами должны быть валидированы с позиции признания их обоснованными и справедливыми, исходя из конкретных обстоятельств при условии безусловного соблюдения принципа презумпции невиновности индивида и презумпции виновности самих ИАС.

5. Контролируемость всех ИАС, прежде всего, военные системы искусственного интеллекта, а также в сфере опасного производства, в медицине и т. д., должны полностью выполнять предназначенные для них задачи, потребители их услуг должны иметь возможность обнаруживать и предотвращать нежелательные последствия использования искусственного интеллекта, а также должны иметь возможность выключать системы искусственного интеллекта, у которых замечены отклонения в работе. Полагаем, что на современном этапе развития технологий ИИ и цифровых технологий необходим «контроль пользователя», когда органы государственной и муниципальной власти, профессионалы в конкретных областях, индивиды, в отношении которых ИАС принимает то или иной решения, имели доступ к той же информации, которой располагал ИИ, и могли в соответствие с законом коррелировать принимаемые решения.

6. Конфиденциальность, системы ИИ должны обеспечивать защиту данных и приватности всех людей, особенно детей, пациентов, лиц с определенными ограничениями. Так, например, государства должны информировать детей о праве на приватность и о вопросах защиты ПД в цифровом мире; при решении вопроса о возрасте, когда ребенок может сам давать согласие на обработку данных, государства должны учитывать возрастные особенности развития и необходимость обеспечить интересы ребенка. Государство должно обеспечить интеграцию принципа конфиденциальности по умолчанию (privacy-by-default) и механизмов встроенного алгоритма конфиденциальности (privacy-by-design); профайлинг детей должен быть законодательно запрещен. Особое внимание уделить содержанию «конфиденциальность» для IT-кампаний.

7. Ответственность. По словам основателя проекта «Робоправо» А.В. Незнамова, на это есть ряд причин [128]: «Во-первых, институты ответственности могут иметь отдельные нюансы для разных категорий роботов в зависимости от степени их общественной опасности, контролируемости или способности к обучению. Во-вторых, в ряде случаев, в принципе, трудно восстановить фактические обстоятельства причинения вреда. В-третьих, одна и та же ситуация может получить разное решение с точки зрения конкретной юрисдикции. Поэтому национальные особенности конкретной правовой системы часто не позволяют учитывать существующий опыт других стран.

 

Представляется необходимым избегать двух крайностей: когда ответственность не несет вообще никто и когда ответственность несет сама система искусственного интеллекта. Оба этих варианта кажутся совершенно нерелевантными в существующих условиях» [100]. Мы полагаем необходимым признать существующий сегодня слабый ИИ объектом правоотношений, определяя его, в определенной мере, источником повышенной опасности, разделив меру ответственности между владельцем ИС и государством за его применение и принимаемые решения. Разделяем позицию Н.Н. Апостоловой, предлагающей установить «административную ответственности за создание и использование систем ИИ, не отвечающих необходимым требованиям качества и безопасности, не прошедших сертификацию и не поставленных на учет в соответствующем реестре; (…) закрепить в УК РФ составы преступлений, предусматривающие уголовную ответственность за создание и использование искусственного интеллекта с целью причинения смерти или иного общественно опасного вреда, а также за неправомерное вмешательство в деятельность систем искусственного интеллекта, повлекшее причинение общественно опасного вреда» [129, c. 137].

Таким образом, когда мы говорим об этических принципах взаимодействия человека и ИИ следует иметь в виду общие системы жизненных программ, основанные на определенных источниках и системах координат, преимущественно в дихотомии добро – зло, а если о моральных – то систему конкретных принципов отдельного человека или общества на конкретном временном этапе его развития [130, 131]. Поэтому, для программирования роботов, создания их программного обеспечения следует говорить исключительно об этических принципах взаимодействия человека и таких киберфизических систем. При этом необходимо отметить, что сфера применения роботов оказывает значительное влияние на систему таких этических принципов. Полагаем, что следует различать дата-этику (умный город, умный дом, Big Data системы распознавания лиц и др.); этики социальных роботов (боты-адвокаты, роботы-сиделки, роботы-учителя, роботы-медицинский персонал и др.); этики военных роботов; этики ИИ в сфере охраны правопорядка и правосудия и т. д.

В случае, когда мы имеем дело с универсальными моделями нейронных сетей, сильном ИИ и предполагаем появление в недалеком будущем сверхсильного ИИ, необходимо создание, по меньшей мере, трех видов этических принципов, тесно связанных с правовыми и представляющие содержание следующих видов этики:

1) этики принятия решения ИИ – первые «точки входа» создает человек, закладывая определенные моральные принципы, но в процессе самообучения система ИИ ведет себя автономно, улучшая свои параметры и принимая решения, влияющие на жизнь человека; поэтому необходимы гарантии моральности ИИ, что вызывает наибольшие трудности при верификации морального выбора);

2) этики взаимодействия с человеком и этика создателей программного обеспечения ИИ, цель которой проанализировать и предотвратить этические коллизии, возникающие в процессе применения ИИ, а именно: нарушение приватности, возможная дискриминация, социальное расслоение, проблемы трудоустройства и т. д.

3) профессиональной этики разработчиков систем ИИ, включающая в себя такие принципы, как: вклад в развитие человечества (защищать основные права человека, уважать культурное разнообразие, предотвращать угрозу безопасности человека); соблюдение законов и нормативных актов; уважение частной жизни других лиц; справедливость (беспристрастность, запрет любой дискриминации); безопасность (создание мер безопасности для самого ИИ, безопасность, управляемость и необходимая конфиденциальность при обеспечении того, чтобы пользователям ИИ предоставлялись соответствующие и достаточные средства информация); добросовестность, основанная на доверии общества к технологиям ИИ; подотчетность и социальная ответственность; коммуникабельность и саморазвитие [132].

Выводы и предложения

1. В связи с появлением технологических решений, позволяющих создавать системы на основе сильного искусственного интеллекта, и высокой долей вероятности разработки в недалеком будущем сверхсильного ИИ, особое внимание с недавних пор приковано к правовым и этическим проблемам регулирования взаимодействия человека и общества с новыми разумными агентами.

2. Наиболее важным аспектом правового регулирования в исследуемой сфере является формирование принципиальной основы этого процесса, то есть, агломерата принципов, способных заложить верную фундаментальную основу взаимодействия человека и умных машин. В качестве основных, базовых, принципов правового регулирования искусственного интеллекта, роботов и объектов робототехники, предлагаем закрепить в соответствующих частях Гражданского кодекса РФ, следующие основополагающие правовые принципы взаимодействия: принцип гуманизма; принцип справедливости; запрет дискриминации в сфере использования ИИ, роботов и объектов робототехники; презумпция невиновности человека; принцип недопустимости причинения вреда человеку; принцип уважения человеческого достоинства; принцип конфиденциальности; принцип раскрытия информации о разработке, производстве и, использовании роботов и искусственного интеллекта; принцип автономности воли при использовании систем, оснащенных ИИ; принцип презумпции согласия принцип информированного согласия на использование (воздействие) систем, оснащенных ИИ.

3. Умеренный подход в определении места ИИ в правоотношениях, актуализирует формирование новых этических принципов, определяющих философско-правовой базис новой реальности. Полагаем, что проблему этики взаимодействия ИИ с людьми и обществом, необходимо разрешить в трех плоскостях, а именно: этики принятия решения и действий самого ИИ, этики тех программистов, которые создают алгоритмы, по которым действуют и самообучаются эти системы, и этики взаимодействия человека, киберфизических и когнитивных систем.

4. Этика ИИ (робоэтика) от этики других областей отличает проблема этичного поведения ИС в ситуации, когда ее решение касается людей, ведь такая система способна самостоятельно принимать решения, касающиеся человека, а также анализировать данные в неизмеримо больших объемах и со скоростью, на которую человек не способен. Это приводит к тому, что человек просто не сможет проверить верность принимаемых ИС решений. Здесь основная проблема заключается в определении того, насколько решения, принимаемые интеллектуальной автономной системой, соответствуют этическим нормам. Исходя их этого, полагаем, что, выделяя данную категорию этических принципов и правил, все-же следует четко понимать – установление и реальная реализация указанных этических норм, возможна только через воздействие на сознание программистов, производителей и пользователей ИИ. То есть, робоэтика – есть производное от этики людей, и носит от их поведения зависимый характер.

5. В отношении этики разработчиков (профессиональная этика), полагаем, что она должна основываться на таких принципах, как: вклад в развитие человечества (защищать основные права человека, уважать культурное разнообразие, предотвращать угрозу безопасности человека); соблюдение законов и нормативных актов; уважение частной жизни других лиц; справедливость (беспристрастность, запрет любой дискриминации); безопасность (создание мер безопасности для самого ИИ, безопасность, управляемость и необходимая конфиденциальность при обеспечении того, чтобы пользователям ИИ предоставлялись соответствующие и достаточные средства информация); добросовестность, основанная на доверии общества к технологиям ИИ; подотчетность и социальная ответственность; коммуникабельность и саморазвитие. При выработке этических принципов разработки ИИ, и его взаимодействия с людьми, необходимо предполагать, что такие принципы должны лечь в основу правового регулирования, и четко коррелировать с принципами юридическими, закрепленными законодательно.

6. При этом, трансформируя этические принципы в правовые, мы должны рассматривать данный процесс через призму функциональности. То есть, иметь в виду, что необходимо избегать излишней идеализации, будущего субъекта (квазисубъекта) правоотношений, учитывать потенциальную опасность искусственных интеллектуальных систем для человека и общества, а также непрогнозируемый уровень вероятности желания (нежелания) интеллектуальных агентов в дальнейшем следовать правилам и принципам, установленным людьми.

Поэтому, полагаем, что необходимо изначально установить такие принципиальные подходы взаимодействия ИИ и человека, которые в дальнейшем закрепили бы и обеспечили зависимый характер искусственных интеллектуальных систем от субъектов правоотношений – людей (субъектов, аффилированных с людьми), предусмотрели возможность предоставления ИИ только тех правомочий, которые были бы направлены на обеспечение благополучия человечества, и ограничивались только теми, правами и обязанностями, которые прямо вытекают из заложенного функционала той или иной интеллектуальной системы искусственного происхождения. С другой стороны, необходимо четко установить недопустимость перекладывания юридической ответственности с людей (их организаций) на интеллектуальных агентов, одновременно закрепив запрет на уменьшение объема возмещения вреда для тех лиц, которые пострадали в результате взаимодействия с системами, оснащенными ИИ.

7. Предлагаем внести предложенную систему этических принципов взаимодействия с искусственным интеллектом, кибертфизическими системами и роботами в виде изменений в Раздел 1 Дорожной карты развития «сквозной» цифровой технологии «нейротехнологии и искусственный интеллект» добавив пункт 1.9. Этику принятия решения ИИ; пункт 1.10. Этика создателей программного обеспечения ИИ и пункт 1.11. Профессиональная этика разработчиков систем ИИ.

8. В Федеральный закон от 24.04.2020 № 123‐ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»» внести изменения, дополнив статью 1 пунктом 6 «Правовые принципы взаимодействия человека и систем искусственного интеллекта, киберфизических систем, нейронных сетей, роботов и объектов робототехники», отделив, таким образом, принципы эспериментального правового режима от непосредственно принципов взаимодействия субъектов права с ИИ.

9. При создании «Дорожной карты» развития высокотехнологичной области «Искусственный интеллект» выделить специальный раздел в рамках реализации цели № 7 по созданию комплексной системы регулирования общественных отношений, возникающих в связи с развитием и использованием технологий искусственного интеллекта, посвященный правоприменению правовых принципов взаимодействия с ИИ, уделив особое внимание содержательному разъяснению юридических терминов по отношению к различным субъектам, создающим, вступающим во взаимодействие, правообладателям и т. д.

Глава 3
Анализ правосубъектности искусственного интеллекта, роботов и объектов робототехники

Научные исследования в сфере новых технологий, связанных с развитием искусственного интеллекта, детерминируют предположение, что облик общества в обозримом будущем изменится кардинально. Согласно закону ускоряющейся отдачи Реймонда Курцвела [133] развитие технологий происходит экспоненциально: то есть чем мощнее становится та или иная технология, тем большее ускорение в своём развитии она приобретает. Билл Гейтс [134] утверждает, что через несколько десятилетий искусственные интеллектуальные системы (далее ИИС) и уровень их интеллекта приведут к серьезным проблемам, поэтому необходимо как следует подготовиться. Движение неолуддизма настаивает на том, что технологическое развитие, и в первую очередь в разрезе интеллектуальных искусственных систем приведет к экзистенциальному кризису. То есть, несмотря на различные точки зрения, и технократы, и антитехнократы сходятся в одном – эволюция искусственного интеллекта анонсирует будущие сложности, и легче их предотвратить, чем потом преодолевать. Действительно, по мере того как ИИС все больше будут проникать в нашу повседневную жизнь и становится все более важными, мы начнем сталкиваться с различными проблемами: экономическими, моральными, этическими вопросами и дилеммами. Правовое регулирование и сама правовая система также не будут исключением. Поэтому, даже если роботы еще не стали обычным явлением, пришло время самым серьезным образом приступить к обеспечению правового базиса взаимодействия с ИИС, чтобы устранить в будущем любые недоразумения или неверные представления о робототехнике и искусственном интеллекте на законодательном уровне.

 

Кроме того, идентификация ИИ, роботов, объектов робототехники в качестве объекта или субъекта правовых отношений тесно связана с тем, что современные технологии могут совершать юридически значимые действия, при этом, зачастую, оставаясь механизмами, лишенными признаков социализации. Нахождение человечества на стадии шестого технологического уклада, свидетельствует о внедрении в нашу жизнь, по меньшей мере, пяти факторов, способных полностью изменить не только материальную, но и духовно-нравственную составляющую цивилизационного развития. К их числу должны быть, безусловно, отнесены: базы данных, различного рода алгоритмы, нейронные сети, многообразные облачные технологии [135, c. 86], социальные сети (Facebook, YouTube,Twitter, LinkedIn, Instagram) [136, c. 17], и системы «экспоненциального улучшения аппаратного обеспечения» [137, 138, 139]. Все перечисленные технологии свидетельствуют о новом этапе взаимодействия человека и окружающего его мира технических вещей, основанного на массовом использовании различного рода киберфизических систем, в том, числе слабом (NAI) и сильном ИИ (GAI).

В данном разделе исследования речь идет о таком юридическом концепте как правосубъектность, применительно и искусственному интеллекту, роботам и объектам роботизированной техники. Сама по себе правосубъектность, имеет длительную теоретическую историю формирования парадигмы по данному вопросу. И, в целом, большинство исследователей сошлись на обобщенной концепции понимания правосубъектности как объединенной совокупности трех взаимодополняющих элементов – правоспособности, дееспособности и деликтоспособности, (рисунок 3.1) характеризующих субъекта права.

При этом, с точки зрения юридической науки – субъект права – есть участник правоотношений, обладающий хотя бы одним из перечисленных трех элементов, а именно – правоспособностью. Примерами, подтверждающими данный подход, являются правовые состояния таких субъектов права, как дети до 6 лет, граждане признанные недееспособными, находящиеся в состоянии комы, и других болезненных состояниях, препятствующих принятию юридически значимых решений и претерпеванию юридических последствий за совершенные действия. То есть, правоспособность является краеугольным камнем формирования правосубъектности участника правовых отношений.


Рисунок 3.1. Содержание правосубъектности

Источник: составлено автором раздела.


Соответственно, в классической науке есть базовый, устоявшийся перечень субъектов права (рисунок 3.2), которых в противовес «юридическим вещам» можно назвать обобщенно «юридическими лицами» – то есть так или иначе олицетворяющих человека или определенную группу людей в правовом поле.


Рисунок 3.2. Субъекты права

Источник: составлено автором раздела


Юридическое лицо (в широком понимании слова) имеет право владеть законными правами, так как тот, кто обладает юридическим правом, и является юридическим лицом. «Юридические вещи» не способны обладать законными правами – они невидимы для права и априори существуют для юридических лиц. В процессуальных отношениях учитываются исключительно юридические лица, поскольку только они действуют в соответствии с законом в своих собственных интересах. Напомним, что, несмотря на то, что сегодня перечень видов субъектов права достаточно стабилен, тем не менее, его пересмотр, это нормальная историческая практика, поскольку еще не так давно в качестве субъектов права не рассматривались ни юридические лица (корпорации), ни государство, ни народ, ни нации. И, более того, даже не все физические лица являлись таковыми вплоть до отмены института рабства.

Сегодня, современная обновляющаяся реальность опять ставит вопрос о расширении перечня субъектов права за счет включения в него либо некоторых видов «юридических вещей» (например, высокоорганизованных животных), либо принципиально новых феноменов, таких как ИИС. На примере обсуждаемого присвоения статуса субъекта животному, очевидно, что речь, в первую очередь идет о признании за ним некоторых прав, то есть о закреплении на законодательном уровне определенного объема правоспособности. Кроме того, в отсутствии правоспособности, ни о какой дееспособности и деликтоспособности просто не может идти речи.

А значит, исследование вопроса о правосубъектности искусственного интеллекта, роботов и объектов роботизированной техники также следует начать с обсуждения возможности установления правоспособности указанных технологических систем. Отметим, дискуссия, в принципе, имеет смысл только в том случае, если мы говорим, как минимум, о так называемом, сильном искусственном интеллекте (General AI), то есть таком, который способен действовать автономно, и сопоставим по своим характеристикам с интеллектом естественным, присущим человеку.

Напомним, что впервые определение «искусственный интеллект» (ИИ, AI), было сформулировано еще в 1950-х гг. Автор самого термина, Дж. Маккарти, под AI подразумевал искусственно созданную машину, умеющую решать задачи с возможностью дальнейшего самообучения, способностью анализировать механизм человеческого мышления и имитировать мыслительный процесс человека для моделирования интеллектуальной деятельности искусственным путем. Позднее определение ИИ (AI), перечень его целей и задач изменялся в зависимости от сферы применения и возможности определения не только преимуществ его применения, но и рисков.

Развитие киберфизических и когнитивных систем, основанных на использовании ИИ, зависит от заложенного в них алгоритма, заданного для принятия ими оптимального решения в определенных целях. Как известно, основой для такого алгоритма является опыт и способность рационально оценивать риски принятия тех или иных решений. Вопрос, который важен для определения места роботов, объектов роботехники или искусственного интеллекта, заключается в том, кто является автором такого алгоритма и может ли конкретный «умный робот» изменить его в зависимости от полученной в ходе самообучения информации?

По аналогии с трактовкой человека как биосоциального существа, в котором сознание (идеальное) и тело (материальное) представляет собой неразрывную дихотомию, в науке и практике предпринимаются попытки создания единого виртуального «человека» (интеллектуальной системы), в котором искусственный интеллект будет помещен в тело робота или отдельный объект робототехники. Такие системы должны, по мнению Д.А. Поспелова, обладать тремя базовыми функциями, выражаемые посредством способности:

а) предоставлять и обрабатывать знания (накапливать классифицировать и оценивать знания, исходя из постулатов прагматики и непротиворечивости), а также к самообучению, представляемому как способность анализировать информацию, сопоставляя уже с существующей и синтезировать новое знание;

б) рассуждать, «выдавая» логические умозаключения, являющиеся началом нового обобщенное знания, используя потенциал которого становится возможным рациональное планирование дальнейшей деятельности;

в) к взаимодействию между интеллектуальными системами, а также такими системами и индивидом на основе принципов человеческого общения, т. е.

при помощи естественных языков, слуха, зрения, когда ИИ будет способен «понимать» собственные действия, принимать обоснованные решения, не нарушая права и свободы человека, в интересах социума [140].

Определяя искусственный интеллект, как цифровой интеллект, Н. Бостром выделяет следующие его преимущества, по сравнению с естественным (биологическим) разумом человека:

1. Скорость вычислительных элементов современных микропроцессоров составляет около 2 ГГц, в то время как пиковая скорость работы биологических нейронов составляет лишь 200 Гц;

2. Скорость внутренних коммуникаций цифрового интеллекта сравнима со скоростью света, т. е. около 300 000 000 м/с, а человеческого мозга – примерно только 120 м/с;

3. Емкость памяти у среднестатистического человека состоит их четырех-пяти блоков информации одновременно, в то время как рабочая память цифрового интеллекта гораздо большего размера.

4. Надежность, продолжительность жизни, сенсоры и др. гораздо выше у ИИ, чем у человека [141].

Вначале XXI в. в научной литературе было определено, что создаваемые технологии на основе искусственного интеллекта, должны: «думать» рационально и действовать рационально как люди [142, С. 35], т. е. искусственный интеллект определяется как рационально действующий «агент», обладающий способностью самостоятельно разрабатывать алгоритмы поведения, но не наделенный понятием человечности, которая является обязательной для естественного интеллекта. Электронная виртуальная реальность и искусственный интеллект, в соответствие с абиотической теорией А.И. Опарина, возникает примерно по той же схеме, что и зарождение жизни на земле из «протожизненных элементов-коацерватов» [143]. Поэтому создание «параллельной» действительности уже не представляется утопией [144].

Проведя сравнительный анализ всех существующих определений ИИ, можно их систематизировать следующим образом, ИИ – это:

7Этой организацией приняты проекты этических стандартов в сфере дата-этики: P7001. Transparency of Autonomous Systems (Прозрачность автономных систем) – руководство для оценки прозрачности в процессе разработки ИИ и предлагает механизмы для повышения прозрачности (например, обязательное защищенное хранение данных датчиков и данных о внутреннем состоянии аналогично регистратору данных полета или «черному ящику»); P7002. Data Privacy Process (Обеспечение конфиденциальности данных) – стандарт ориентирован на защиту приватности граждан, касается использования персональных данных граждан рекламными сетями при помощи ИАС. Для стандартизации пока выделены несколько групп: участники взаимоотношений «работник – работодатель», дети (несовершеннолетние), студенты; P7003. Algorithmic Bias Considerations (Учет необъективности алгоритма) обязывает разработчиков, прежде всего, систем машинного обучения ответственно подходить к данным, используемым для обучения, к их разметке, к тестированию и валидации систем; P7004. Standard for Childand Student Data Governance (Управление данными детей и студентов) создан для урегулирования работы алгоритмов с данными детей и учащихся.
To koniec darmowego fragmentu. Czy chcesz czytać dalej?