bannerbanner
Защита от злоупотребления искусственным интеллектом и нейротехнологиями в аспекте медиабезопасности
Защита от злоупотребления искусственным интеллектом и нейротехнологиями в аспекте медиабезопасности

Полная версия

Защита от злоупотребления искусственным интеллектом и нейротехнологиями в аспекте медиабезопасности

Язык: Русский
Год издания: 2024
Добавлена:
Настройки чтения
Размер шрифта
Высота строк
Поля
На страницу:
3 из 4

Деяния, совершаемые с использованием ИИ (в том числе генеративных), могут быть квалифицированы как преступления в соответствии со статьями Уголовного кодекса Российской Федерации; преимущественно речь идет о корыстных преступлениях (в первую очередь – мошенничестве) и преступлениях, связанных с незаконным (ограниченным или запрещенным) оборотом недостоверной и иной информации. Как можно заметить, этот перечень весьма объемный, и это без учета того, что генеративные нейросети могут быть элементом механизма иных преступлений (например, использоваться при подготовке или сокрытии убийств, террористических актов и т. д.), а также административных правонарушений и гражданских деликтов.

Исследования в области ИИ и нейротехнологий тесно связаны между собой, так как и первые, и вторые разрабатываются на материале исследований человеческого мозга. Параллельная работа над этими направлениями дает синергетический эффект: исследования мозга позволяют разрабатывать самообучающиеся нейронные сети, в перспективе (при должном объеме и продолжительности обучения) способные обрести разум, сравнимый с естественным, или даже превзойти его[45].

Таким образом, проблематика разработки ИИ и нейротехнологий тесно переплетена. Анализ нейросетей и процесса их функционирования[46] при наличии нейроинтерфейса «мозг – компьютер» (делающего возможной нейрокоммуникацию; в основе этих технологий лежит принцип прямого информационного воздействия на мозговые центры в обход органов чувств[47]) потенциально открывает возможности для непосредственного влияния на человеческий разум через цифровую медиасреду.

В различных прикладных научных исследованиях (в том числе связанных с созданием нейрокомпьютера[48]) ведутся работы по составлению карты мозга (в частности, в России получили широкую известность работы С. В. Савельева[49]); одним из возможных эффектов создания такой карты (в совокупности с моделированием нейропроцессов и анализом того, как информация кодируется и передается внутри естественных и искусственных нейросетей) может стать разработка искусственных каналов прямого взаимодействия мозга как с компьютером, так и с другим мозгом через сеть[50].

Поэтому следующим предполагаемым этапом после децентрализованного компьютерно-ориентированного интернета вещей Web 3.0 (деятельность которого напрямую связана с ИИ) является Web 4.0, иначе – Нейронет, в котором взаимодействие участников (человек – человек, человек – машина) будет осуществляться с помощью новых нейрокомпьютерных интерфейсов, в дополнение к традиционным методам, а сами компьютеры станут нейроморфными (похожими на мозг) на основе гибридных цифро-аналоговых архитектур; в 2015 г. Нейронет был включен в число ключевых рынков Национальной технологической инициативы[51]. В литературе отмечают, что ранее термин «Нейронет» был лишь калькой термина «нейросеть», однако теперь он обозначает коммуникационную среду следующего поколения, основанную на нейроинтерфейсах и новых протоколах опосредованного ими взаимодействия между людьми, коллективами, искусственными автономными агентами, системами работы с данными и объектами реального мира[52].

Для построения такой сети необходимо решить проблемы понимания мозга, создания специальных интерфейсов и сетевых протоколов. Как отмечается в литературе, «психофизиология вида Homo sapiens (реакции человека на цвет, цветовую гамму, частотный диапазон подаваемых сигналов, форму и другие перцептивно-эстетические параметры машины) определяется единообразием, но этнические или мировоззренческие картины мира разнятся. <..> Машинное смысловое пространство должно быть максимально дружественным для пользователя с любым уровнем технической подготовки, любого возраста и религиозной принадлежности»[53]. Решение инвариантности внутренней речи исследователи усматривают в гипотетически возможной «семантической паутине», представляющей собой некий единый, универсальный язык смыслов (с возможностью автоматизированного семантического перевода между этим языком и языком каждого отдельного мозга). Подобное предположение подразумевает необходимость установления семантических универсалий и их коррелятов в индивидуальных нервных системах.

Аналитики следующим образом описывают результаты разработки и внедрения таких технологий: «Главное отличие от нынешнего Интернета будет в том, что Нейронет начнет строиться на коммуникации уникальных нервных систем, по сути, без обязательного использования естественного языка. Скорее будут использоваться специальные уникальные языки, соединяющие „карты“ нервных систем – а значит, коммуникация станет происходить быстрее и точнее, в ней появится возможность „выражать невыразимое“, передавать непосредственно состояния. Можно будет „перегружать знания“ напрямую из одной нервной системы в другую, обмениваться не только вербальными, но и психоэмоциональными опытами и переживаниями, создавать друг у друга сложные и высоко реалистичные ощущения»[54].

Экономически, юридически и психологически к появлению Нейронета в описанном виде следует готовиться уже сейчас, так как понятно, что с высокой долей вероятности его возникновение является вопросом времени; даже названы приблизительные временные рамки этапов его развития[55]:

1. Первый этап (2015–2020 гг.) подразумевает неравномерное проявление отдельных эффектов и технологий с началом появления основных субъектов. До 2020 г. ожидается появление первых ростков будущей сети (пример – НейроЧат, социальная сеть на основе интерфейсов «мозг – компьютер» для людей с тяжелыми нарушениями речи и опорно-двигательного аппарата[56]), неравномерно возникающих в разных отраслях, проявления отдельных эффектов и технологий. Основные изменения сосредоточены и реализуются в таких областях, как медицина, безопасность и развлечения.

2. Второй этап (2020–2030 гг.) – этап параллельного и, вероятно, не связанного друг с другом проявления двух прототипов Нейронета. Во-первых, это пролог Нейронета – «биометрический веб»: «интернета биометрических вещей» (устройств, считывающих физиологические параметры человека) и Web 2.0+ практик, использующих биометрическую инфраструктуру. Во-вторых, речь о «коллаборационном Вебе» – системе взаимосвязанных порталов открытых сообществ, специализирующихся на разработке и использовании инструментов и практик коллективной деятельности; такая организационная модель способна вовлечь в упорядоченную целенаправленную коммуникацию человека с любыми компетенциями. Ключевыми игроками в первой отрасли с высокой вероятностью станут медицина, спорт, сферы развлечений, образования и услуг. Ключевыми игроками во второй – профессиональные сообщества, сообщества практик, сообщества практик на территориях. Кроме того, произойдет насыщение технологической линейки интерфейсов.

3. Третий этап (2030–2040 гг.) – полноценная реализация локальных прототипов Нейронета в статусе очагов, привязанных к отраслям или отдельным типам деятельности. Коммуникативная среда, основанная на протоколах прямого взаимодействия нервных систем (типа протокола «передачи мыслей» HTTP–2) и подразумевающая создание нейроколлективов, может появиться уже в ближайшие 10–15 лет. Важную роль в возникновении таких коллективов будет играть технология «экзокортекса» («внешнего мозга») – искусственных частей психики, поддерживаемых машинами и синхронизируемых с естественной психикой. Это могут быть, например, дополнительная внешняя память, «расширения» сенсорно-эффекторной системы, вспомогательные ментальные функции типа проведения сложных вычислений. По сути, нейроколлективы есть не что иное, как несколько человеческих психик, связанных экзокортексом в единый коллективный субъект. Техническая инфраструктура развивается в сторону прямой синхронизации живых систем, что позволяет моделировать и создавать «виртуальных сиамских близнецов». В нейроколлективах становятся возможны прямая передача опыта через сонастройку людей, создание искусственного опыта.

4. Четвертый этап (после 2040 г.) – Нейронет, выйдя за пределы очагов его использования, охватывает область коммуникаций целиком и превращается в массовый инструмент и цивилизационную инфраструктуру.

Таким образом, нейротехнологии и ИИ тесно взаимосвязаны, а их разработка и повсеместное внедрение приводят к невиданным ранее трансформации информационно-коммуникационной деятельности, совершенствованию инфраструктуры и появлению новых способов передачи информации. На порядки возросли объем и скорость обработки информации; появились искусственные субъекты информационной деятельности (пока не наделенные правосубъектностью ввиду недостаточного развития) – ИИ. Если ранее и сейчас основным инструментом коммуникации является речь, то в перспективе возможно возникновение средств невербальной коммуникации, буквально позволяющих обмениваться мыслями.

Хотя подобные перспективы способны вызывать энтузиазм, они также представляются поводом для серьезного беспокойства за конфиденциальность, мировоззренческую безопасность и когнитивный суверенитет пользователей. Анализ уже существующих информационных угроз медиабезопасности демонстрирует высокую степень их распространенности, разнообразия и общественной опасности; поэтому уже сейчас информационное оружие является эффективным и обязательным средством ведения текущих социально-политических конфликтов. Надо полагать, что с появлением доступа непосредственно к нервной системе пользователей данные угрозы еще более усугубятся (перспективы цифровой утопии и бессмертия могут обернуться цифровым заточением и рабством – более чем реальными).

Глава 2. Регулирование нейротехнологий и ии в контексте обеспечения национальной безопасности российской федерации

Создание принципиально новых технологий, существенно меняющих социальную реальность, всегда было нетривиальной задачей. Ярким примером является история правового регулирования Интернета, некоторое время находившегося на периферии или же за пределами внимания законодателя ввиду своей новизны. И это притом, что, хотя в отечественном научном дискурсе принято говорить о телекоммуникационной сети Интернет как о новом, недавно сформировавшемся предмете, ему в его современном виде уже исполнилось тридцать лет; о продолжительности его существования свидетельствует хотя бы наличие доменного имени СССР – su[57]. Да, повсеместное его внедрение в России произошло позже (на рубеже 1990–2000-х гг.), а тридцать лет в рамках фундаментальных научных исследований – не такой большой период времени, и все же Интернет существует уже достаточно долго для того, чтобы говорить о нем как о явлении изученном. Вместе с тем его динамичность, глобальный децентрализованный характер и сложное техническое устройство создавали проблемы для правильного определения границ возможного нормативно-правового регулирования и, собственно, его осуществления.

С повсеместной цифровизацией общественной жизни (которую дополнительно стимулировали сторонние факторы, такие как эпидемиологическая обстановка[58]) в начале 2020-х гг. была проведена оптимизация нормативно-правового регулирования сети Интернет и осуществляемой в ней деятельности. Вместе с тем в 2022 г. произошел прорыв в области ИИ, связанный с развитием и распространением больших языковых моделей (пример – ChatGPT; результат – текст) и их мультимодальных вариантов (примеры – Midjourney, Runway Gen–2; позволяют создавать изображения, аудио-/видеозаписи и т. д.). Прорыв в области нейротехнологий (в первую очередь – нейроинтерфейсов) лишь предстоит, однако уже в обозримом будущем они полноценно присоединятся к ИИ и продолжат совместную трансформацию информационно-коммуникативной сферы. Имеется насущная потребность в правовом регулировании создания и использования данных технологий; такого рода регулирование должно конструироваться в опережающей логике, ведь в противном случае имеются высокие риски негативных последствий.

Как отмечает И. А. Филипова, среди общетеоретических вопросов, требующих урегулирования правом, главное место занимают следующие[59]:

1) вопрос о статусе ИИ (объект или субъект в составе правоотношения);

2) вопрос об ответственности за решения ИИ;

3) вопрос о правах на результаты деятельности ИИ, носящей творческий характер;

4) вопрос о сохранении конфиденциальности данных, в первую очередь – персональных данных;

5) вопрос о правах человека в мире, который заполняется все более совершенными моделями ИИ;

6) вопрос о прозрачности принятия решения ИИ;

7) вопрос о возможной предвзятости, дискриминации со стороны ИИ;

8) вопрос о безопасности и о запрещении использования отдельных разновидностей ИИ;

9) вопрос о том, в какой степени закон должен защищать разумный ИИ (который сможет чувствовать удовольствие и боль).

Перечисленные выше вопросы активно дискутируются в отечественной и зарубежной юридической науке; идет процесс первичного формирования доктринальных подходов к их разрешению в условиях отсутствия четкого правового регулирования всего многообразия связанной с такими технологиями проблематики. Правовое регулирование данной сферы пока находится в зачаточном состоянии; сначала должна быть сформирована общая концепция, модель правового регулирования, и лишь затем следует принимать или изменять отдельные нормативные правовые акты. Тем важнее, ввиду сложности его предмета, проследить связь и соотношение с иными формами нормативного регулирования – этическим и техническим регулированием.

Этическое регулирование формирует концептуальную основу и ключевые подходы к ИИ и нейротехнологиям, которые в дальнейшем реализуются в правовом регулировании; поэтому ранее предлагалось на законодательном уровне разработать и утвердить систему этических принципов, которые должны соблюдаться при разработке и использовании систем ИИ[60]. Техническое же регулирование, обязательное для безопасности и эффективности любой связанной с технологиями деятельности, учитывает реальные возможности ИИ и нейротехнологий и является более гибким, нежели правовое (характеризующееся определенной степенью консерватизма и в то же время жесткостью формулировок). Существует дилемма: если ввести жесткое регулирование (пусть и призванное минимизировать высокие риски злоупотреблений в данных областях), то такое решение приведет к снижению инвестиций и торможению развития технологий, дав серьезнейшие конкурентные преимущества тем, кто не стал ограничивать эту сферу. В данном контексте понятны опасения лидеров области, связанные с принятием регулирующих ИИ и нейротехнологии нормативных актов. С другой стороны, отсутствие четких дозволений, ограничений и запретов создает правовую лакуну, не позволяющую адекватно и полноценно реагировать на общественно опасные деяния, связанные с разработкой и использованием указанных технологий.

В зависимости от предпочитаемой разновидности регулирования выделяют юридический и технологический подходы к регулированию ИИ и нейротехнологий[61]. Первый сложнее адаптируется к технологическим новациям и может им препятствовать, однако является антропоцентричным, следовательно – в большей степени отвечающим интересам социума; второй – наоборот. Оптимальным видится баланс правового и технического регулирования, основанного на сформированных ранее подходах к регулированию этическому. Путь развития первого – введение экспериментальных правовых режимов (разработанных по результатам аналитической работы и научных исследований); второго – разработка стандартов, учитывающих особенности и возможности упомянутых технологий; третьего – создание этических кодексов, содержащих взвешенную консолидированную позицию общества.

Прежде обратим внимание на формирующееся этическое регулирование как на имеющее основополагающее, принципиальное значение. Как отмечает Н. Бостром, потенциально возможный сверхразумный ИИ содержит в себе экзистенциальный риск для будущего всего человечества, а методы, помогающие людям его контролировать (включая сдерживание развития, замедление возможностей или сужение рабочего контекста и т. д.), не могут гарантировать того, что этот контроль сохранится и что ИИ не преодолеет их в будущем; поэтому для того, чтобы являться безопасным для человечества, сверхразумный ИИ должен изначально занимать его сторону, т. е. быть согласован с гуманистическими ценностями и моралью[62]. Потенциальные рамки нормативности дружественного ИИ включают в себя последовательное экстраполированное волеизъявление Юдковски (систему человеческих ценностей, улучшенных посредством экстраполяции), моральную правильность (требование делать то, что морально правильно) и моральную допустимость (требование следовать последовательному экстраполированному волеизъявлению человечества, за исключением случаев, когда это морально недопустимо)[63].

Таким образом, равно как и в случае с Интернетом, глобальный и всеобъемлющий характер функционирующих на его основе технологий ИИ подразумевает потребность в решении связанных с ними вопросов как на международном (в том числе – региональном) уровне, так и на уровне отдельных стран; это в равной степени применимо как для этики, так и для права.

На международном уровне в ходе 41-й сессии Организации Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО), проходившей в Париже с 9 по 24 ноября 2021 г., было утверждено первое в мире рамочное соглашение об этике ИИ – Рекомендация об этических аспектах искусственного интеллекта[64]. Работа над проектом аналогичного документа, но касающегося уже этики нейротехнологий, ведется Специальной экспертной группой – AHEG ЮНЕСКО с 22 апреля 2024 г.; планируется, что к сентябрю 2024 г. государствам-членам будет представлен первый проект нормативного акта, а в ноябре 2025 г. на 43-й сессии Генеральной конференции на рассмотрение будет вынесен окончательный текст Рекомендации[65]. При их создании учитываются положения доклада Международного комитета ЮНЕСКО по биоэтике 2021 г. «Этические проблемы нейротехнологий»[66]; в нем в числе прочего сообщается об угрозах, которые нейротехнологии представляют для прав и основных свобод, таких как целостность церебральной системы и личная идентичность.

Рекомендация об этических аспектах ИИ включает положения о том, что изложенные в ней этические принципы выступают в качестве гибкой основы для нормативной оценки, а также методического руководства в вопросах применения технологий на основе ИИ, рассматривая человеческое достоинство, благополучие человека и недопущение нанесения вреда как целевой ориентир. Указано, что развитие систем на основе ИИ поднимает этические вопросы нового типа, касающиеся, в частности, их влияния на процессы принятия решений, проблему занятости и рынок труда, взаимодействие между людьми в обществе, медицину, образование, средства информации, доступ к информации, цифровое неравенство, защиту персональных данных и потребителей, окружающую среду, демократию, верховенство закона, обеспечение безопасности и правопорядка, двойное использование, а также права человека и основные свободы, включая свободу выражения мнений, неприкосновенность частной жизни и отсутствие дискриминации.

При этом подчеркнуто, что некоторые из этих проблем обусловлены способностью ИИ-систем выполнять задачи, которые раньше были под силу только живым существам, а в ряде случаев – только человеку. В долгосрочной перспективе ИИ-системы смогут соперничать с человеком в его уникальной способности оценивать свой опыт и самостоятельно действовать, что поднимает новые вопросы, касающиеся среди прочего самосознания и самопознания человека, его взаимодействия с социумом, культурным окружением и природой, а также вопросы автономии, свободы действий, ценности и достоинства человека.

Также перечислены масштабные этические последствия применения систем на основе ИИ в основных областях деятельности ЮНЕСКО:

• в сфере образования – жизнь обществ в цифровую эпоху требует внедрения новых методов обучения, этического подхода, критического мышления, ответственных методов реализации и новых практических навыков с учетом влияния на рынок труда, возможности трудоустройства и участия граждан;

• в сфере науки (в ее самом широком смысле) – в связи с тем, что технологии на основе ИИ открывают новые исследовательские возможности и подходы, влияют на наши концепции научного понимания и объяснения окружающего мира и создают новую основу для принятия решений;

• в сфере культуры – поскольку ИИ-технологии способны как обогатить индустрию культуры и творчества, так и стать фактором концентрации предложения культурного контента, данных, рынков и доходов в руках весьма ограниченного круга хозяйствующих субъектов, что потенциально негативно отразится на разнообразии и плюрализме языков, средств информации, форм культурного самовыражения, на возможностях участия и обеспечении принципа равенства;

Конец ознакомительного фрагмента.

Текст предоставлен ООО «Литрес».

Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.

Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.

Примечания

1

Колин К. К. Информатизация общества и социальная информатика // Вестник Челябинской государственной академии культуры и искусств. 2009. № 3 (19). С. 6.

2

См.: Указ Президента Российской Федерации от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» // СЗ РФ. 2019. № 41. Ст. 5700; Федеральный закон от 24 апреля 2020 г. № 123–ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона „О персональных данных“» // СЗ РФ. 2020. № 17. Ст. 2701.

3

См.: Китай запатентовал в 6 раз больше изобретений с ИИ, чем США // Хайтек+. URL: https://hightech.plus/2024/07/04/kitai-zapatentoval-v-6-raz-bolshe-izobretenii-s-ii-chem-ssha (дата обращения: 04.07.2024).

4

См.: Разработчики нейросетей об отрасли // PRO Hi-Tech. YouTube. URL: https://www.youtube.com/watch?v=XYbqey-bdlI (дата обращения: 14.06.2024).

5

См.: «Все умрут, включая детей». Как искусственный интеллект изменит интернет и почему этого боится даже Илон Маск // Lenta.ru. URL: https://lenta.ru/articles/2023/04/06/evilgpt/ (дата обращения: 14.06.2024); Бывшие сотрудники OpenAI считают, что ее деятельность угрожает человечеству // Хайтек+. URL: https://hightech.plus/2024/06/05/bivshie-sotrudniki-openai-schitayut-chto-ee-deyatelnost-ugrozhaet-chelovechestvu (дата обращения: 02.07.2024).

6

См.: ChatGPT превзошел на экзаменах студентов-психологов, обманув защиту экзаменов от ИИ // Хайтек+. URL: https://hightech.plus/2024/07/01/chatgpt-prevzoshel-na-ekzamenah-studentov-psihologov-obmanuv-zashitu-ekzamenov-ot-ii (дата обращения: 02.07.2024).

7

См.: Автономные боты GPT–4 научились взламывать сайты через неизвестные уязвимости // Хайтек+. URL: https://hightech.plus/2024/06/10/avtonomnie-boti-gpt-4-nauchilis-vzlamivat-saiti-cherez-neizvestnie-uyazvimosti (дата обращения: 12.06.2024).

8

См.: OpenAI отключила ИИ, который боролся за пост мэра одного из городов Вайоминга // Хайтек+. URL: https://hightech.plus/2024/06/28/openai-otklyuchila-ii-kotorii-borolsya-za-post-mera-odnogo-iz-gorodov-vaiominga (дата обращения: 02.07.2024).

9

См.: Мира Мурати из OpenAI: «ИИ уничтожит творческие специальности, которых не должно быть» // Хайтек+. URL: https://hightech.plus/2024/06/27/mira-murati-iz-openai-ii-unichtozhit-te-tvorcheskie-specialnosti-kotorih-ne-dolzhno-bit (дата обращения: 02.07.2024).

10

См.: Фейковизация как средство информационной войны в интернет-медиа: научно-практическое пособие / Е. И. Галяшина, В. Д. Никишин, К. М. Богатырев, Е. Г. Пфейфер. М.: Блок-Принт, 2024. 144 с.

11

См.: На наших глазах ИИ убивает старый интернет. Но новый обещает быть хуже // Хабр. URL: https://habr.com/ru/companies/itglobalcom/articles/747488/ (дата обращения: 02.07.2024).

12

См.: Гоббс Т. Левиафан / пер. с англ. А. Гутермана. М.: АСТ, 2021. 800 с.

13

Summary of NATO's Revised Artificial Intelligence (AI) Strategy // North Atlantic Treaty Organization. URL: https://www.nato.int/cps/en/natohq/official_texts_227237.htm (дата обращения: 10.07.2024).

На страницу:
3 из 4