
Полная версия
Проактивное управление рисками искусственного интеллекта. AI proactive risk management
Алгоритм COMPAS, один из наиболее широко используемых алгоритмов в системе уголовного правосудия США, который применяется для оценки вероятности повторного совершения преступления подсудимым, подвергся критике за предвзятое отношение к чернокожим подсудимым. Проведенный ProPublica анализ расследования COMPAS (2016) выявил расовые различия в инструменте оценки рисков COMPAS: вероятность того, что чернокожие обвиняемые будут ошибочно отнесены к категории более высокого риска, была почти в два раза выше по сравнению с белыми обвиняемыми (45% по сравнению с 23%).
Модели ИИ, используемые для прогнозирования результатов лечения пациентов, могут демонстрировать предвзятость, если обучающие данные преимущественно представляют определённые группы населения. Например, система ИИ может недооценивать заболевания, распространённые в недостаточно представленных сообществах. В нескольких отчётах и исследованиях была проведена количественная оценка степени и влияния предвзятости в системах ИИ. В отчёте McKinsey & Company об ИИ и предвзятости (2020) было освещено несколько выводов, в том числе о том, что предвзятые данные могут снизить эффективность моделей ИИ на 30%. Разнообразные команды, работающие с ИИ, на 21% чаще разрабатывают непредвзятые системы ИИ по сравнению с однородными командами.
Опрос исследовательского центра Pew о восприятии ИИ (2021) показал, что 68% респондентов считают, что системы ИИ с большей вероятностью отражают предубеждения своих создателей-людей, а 56% респондентов считают, что правительство должно делать больше для регулирования ИИ и устранения предвзятости.
Когда речь заходит об искусственном интеллекте в сфере киберзащиты, он может включать в себя социальные предубеждения, в том числе по признаку пола, возраста, этнической принадлежности и инвалидности, и часто возникает из-за данных, используемых в этих системах, или алгоритмической обработки этих данных. Непреднамеренные предубеждения могут иметь неблагоприятные последствия, такие как ошибочное определение военных целей и непредсказуемость в работе системы.
Проблемы конфиденциальности искусственного интеллекта в киберзащите
Проблемы конфиденциальности при использовании ИИ для киберзащиты часто связаны с массовым сбором и анализом данных, что вызывает серьёзные опасения по поводу конфиденциальности. Например, для быстрого обнаружения угроз приложениям ИИ может потребоваться доступ к личным данным, но это также может привести к злоупотреблению ими или несанкционированному доступу к конфиденциальной информации. Чтобы найти баланс между защитой конфиденциальности отдельных лиц и использованием ИИ в сфере кибербезопасности, необходимо применять строгие меры контроля в сочетании с механизмами доступа для этичного использования и соблюдения необходимых правил. Организации, применяющие ИИ для защиты от киберугроз, сталкиваются с запутанной системой стандартов и нормативных требований. В зависимости от юрисдикции могут существовать правовые нормы, регулирующие использование ИИ, сбор персональных данных, а также обеспечение их безопасности от взлома.
Правовые последствия использования искусственного интеллекта в киберзащите
Использование ИИ для киберзащиты – это палка о двух концах: он предоставляет мощное оружие для повышения уровня кибербезопасности, но в то же время вызывает сложные юридические вопросы. С юридической точки зрения, применение ИИ в киберзащите всё ещё находится на стадии разработки, и появляются сертификаты и другие механизмы, предназначенные специально для этой технологии. К ним относятся соблюдение нормативных требований, нарушение прав интеллектуальной собственности и ответственность, а также возмещение ущерба в рамках международного права или кибервойн с использованием ИИ. Неудивительно, что соблюдение нормативных требований является одной из основных проблем, которые необходимо решить при внедрении ИИ для киберзащиты. Вот в чём настоящая сложность: каждая организация работает в рамках сложной системы нормативных требований, которые различаются в зависимости от региона.
Например, Общий регламент по защите данных в Европейском союзе по своей сути накладывает очень строгие обязательства в отношении сбора, обработки и хранения персональных данных. Аналогичные правила существуют в разных регионах, и они предъявляют требования к организациям, которые необходимо соблюдать, чтобы не нарушать закон и не быть привлечёнными к ответственности. Законопроект о защите персональных данных в Индии обеспечивает основу для защиты персональных данных при их обработке. В нём закреплены обязанности обработчиков данных, права субъектов данных и наказания за несоблюдение требований, как это предусмотрено в международных стандартах, таких как Общий регламент по защите данных (GDPR). Соблюдение этих требований необходимо для любой организации, использующей ИИ в киберзащите; в противном случае это может привести к крупным штрафам и репутационному ущербу.
Создание и внедрение систем искусственного интеллекта сопряжено с серьёзными проблемами, связанными с интеллектуальной собственностью. Однако в интересах организации защищать свои запатентованные технологии и алгоритмы искусственного интеллекта с помощью патентов, авторских прав и коммерческой тайны, чтобы сохранить конкурентное преимущество. В то же время этот процесс должен в равной степени защищать права других лиц на их интеллектуальную собственность, чтобы не было нарушений существующих патентов или авторских прав. Патентный закон Индии от 1970 года устанавливает правовую основу для защиты изобретений, в том числе технологий искусственного интеллекта.
Международное право и кибервойны
Взаимосвязь искусственного интеллекта в сфере киберзащиты с международным правом и правилами ведения кибервойн представляется туманной. Разрабатываемые возможности использования искусственного интеллекта в наступательных целях поднимают вопросы о соблюдении существующих международных законов, таких как Закон о вооружённых конфликтах, и принципов, связанных с пропорциональностью и различием. В целом такие работы, как «Таллиннское руководство 2.0 по международному праву, применимому к кибервойнам», представляют собой академическое, необязательное к исполнению исследование о том, как международное право, особенно jus ad bellum (право на войну) и международное гуманитарное право, применяется к киберконфликтам и кибервойнам. В них изложены руководящие принципы применения международного права к кибероперациям. В этих руководящих принципах подчёркивается, что даже в контексте киберопераций, основанных на искусственном интеллекте, государства соблюдают существующие принципы международного права. Во-первых, использование искусственного интеллекта в кибервойнах должно соответствовать принципам необходимости, соразмерности и избирательности, чтобы не наносить неизбирательный ущерб гражданскому населению и гражданской инфраструктуре.
В индийском контексте, если международное право противоречит Индийскому законодательству, то такой закон не может быть истолкован или рассмотрен в Индии. Индия должна следовать всем предписаниям международных договоров и конвенций, но при этом заключать двусторонние и многосторонние соглашения о сотрудничестве и недопущении эскалации конфликтов. С юридической точки зрения, существуют также проблемы, связанные с атрибуцией, так что может быть сложнее отследить атаки, управляемые искусственным интеллектом, вплоть до их инициаторов.
Для снижения этих рисков, важно разработать международные нормы или соглашения, регулирующие использование искусственного интеллекта в кибероперациях. Совет Европы создал Рамочную конвенцию об искусственном интеллекте, которая стала первой в истории конвенцией об искусственном интеллекте и в которой говорится о том, как ограничить контроль над ИИ и другими оптимизированными и регулируемыми способами его использования. Однако проблема заключается в том, что нет чёткой концепции того, как это можно реализовать, а охват и влияние конвенции были очень низкими. Необходимо срочно создать конвенции, в которых можно было бы говорить об искусственном интеллекте и его ответственности. Конвенции Международной модели Организации Объединённых Наций (IMUN) также могут быть инициированы среди студентов, чтобы повысить осведомлённость о необходимости законов и правовых основ в этой сфере.
Чтобы завоевать доверие и управлять этическими и юридическими рисками, системы ИИ должны быть прозрачными и подотчётными. Это подразумевает создание моделей ИИ, которые могут объяснить принцип работы механизма принятия решений, чтобы заинтересованные стороны могли определить, можно ли им доверять. Это также означает установление ответственности за действия или решения системы ИИ таким образом, чтобы вина за негативные последствия возлагалась на соответствующую сторону. Если мы учитываем глобальный характер киберугроз и широкое использование ИИ, то международное сотрудничество становится первостепенным для решения этических и юридических проблем, связанных с ИИ в сфере киберзащиты. Таким образом, сюда входят международные нормы/соглашения о том, как можно использовать ИИ во время киберопераций, а также обмен информацией между различными странами, что способствует усилению мер по обеспечению кибербезопасности. Инициативы по сотрудничеству, такие как конвенции, могут помочь обеспечить согласованные действия против новых угроз и способствовать ответственному использованию технологий искусственного интеллекта. Чтобы лучше понять моральные дилеммы, связанные с использованием искусственного интеллекта в сфере кибербезопасности, необходимо инвестировать в исследования и преподавание. Это включает в себя поддержку междисциплинарных исследований, изучающих взаимосвязь искусственного интеллекта, кибербезопасности, этики и права, а также разработку образовательных программ для подготовки следующего поколения специалистов по кибербезопасности и политиков. Развивая глубокое понимание этих вопросов, мы сможем лучше подготовиться к вызовам и возможностям, которые предоставляет ИИ в сфере киберзащиты.
Решения ключевых юридических проблем
Что касается общих юридических проблем, связанных с ИИ в сфере киберзащиты, то некоторые из предлагаемых решений включают в себя создание подробной правовой базы для решения специфических проблем, связанных с ИИ. Это будет включать в себя существующие законы, регулирующие положения, касающиеся ИИ, а также создание новых нормативных актов, определяющих стандарты прозрачности, подотчётности и справедливости. Кроме того, ожидается, что международное сотрудничество поможет в разработке правовых стандартов и гармонизации законодательства в разных юрисдикциях для решения трансграничных киберугроз. Сотрудничество может заключаться в обмене информацией, совместных исследовательских программах или разработке международных норм и соглашений, но, что более важно, в конвенциях, которые будут в целом регулировать использование ИИ. Инвестиции в образование и подготовку специалистов в области политики, юриспруденции и кибербезопасности в целом будут способствовать полному пониманию правовых и этических последствий использования ИИ. В связи с этим крайне важно внедрить надёжные механизмы подотчётности за действия и решения, принимаемые системами ИИ, с чёткими линиями ответственности. Это предполагает создание механизмов надзора, аудита и возмещения ущерба, с помощью которых ответственные стороны могут быть привлечены к ответственности за неблагоприятные последствия, а пострадавшим лицам могут быть предоставлены средства правовой защиты.
Обнаружение вторжений и аномалий с помощью ИИ – значительный шаг вперёд в области кибербезопасности. Используя возможности искусственного интеллекта, организации могут усилить свою защиту от широкого спектра киберугроз. От обнаружения известных вторжений до выявления новых аномалий – инструменты на основе ИИ обеспечивают комплексную защиту в условиях постоянно меняющегося ландшафта угроз. По мере развития технологий обнаружение вторжений и аномалий с помощью ИИ будет играть ключевую роль в защите цифрового мира.
Этические вопросы, связанные с автоматизацией и принятием решений
Необходимость и сложность применения ИИ в сфере кибербезопасности вызывает моральные опасения. Многие эксперты по кибербезопасности, возможно, сталкивались с существенным влиянием ИИ при защите от кибератак. Однако, остаётся множество спорных аспектов у тех, кто сталкивался со сложными этическими и моральными проблемами, возникающими при применении технологий ИИ в этой сфере. Специалисты по кибербезопасности регулярно сталкиваются с этическими вопросами, связанными с ИИ. Ниже приведены некоторые проблемы, с которыми часто сталкиваются при использовании ИИ в сфере кибербезопасности.
Принятие решений с помощью ИИ предполагает, что системы искусственного интеллекта анализируют большие массивы данных для получения информации и принятия автономных решений без непосредственного участия человека. Эти системы используют различные технологии, в том числе машинное обучение, нейронные сети и экспертные системы. Машинное обучение, например, использует алгоритмы для выявления закономерностей и прогнозирования на основе исторических данных. Нейронные сети, напротив, имитируют структуру человеческого мозга для послойной обработки информации, что позволяет принимать более сложные решения. Экспертные системы полагаются на заранее заданные правила и базы знаний для принятия решений в конкретных областях.
Конец ознакомительного фрагмента.
Текст предоставлен ООО «Литрес».
Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.


