Всего за десять лет технология искусственного интеллекта (ИИ) кардинально изменила нашу жизнь. Благодаря рекомендациям, генерируемым искусственным интеллектом в онлайн-кинотеатрах, выбрать интересный фильм стало проще. Потоки в социальных сетях кажутся еще более интересными, потому что они персонализированы. Банки также используют оценочное механическое обучение для принятия более 95 % решений о выдаче кредитов.
Существует множество областей, в которых можно использовать искусственный интеллект, и их число постоянно растет. Однако у всех новых технологий есть свои недостатки. В этой статье приводятся основные риски, связанные с разработкой и применением технологий TN
Ущерб из-за неверных прогнозов.
Рассмотрим типичный сценарий для системы искусственного интеллекта. Например, на этапе принятия решения о выдаче кредита вы хотите сделать прогноз о том, будет ли клиент возвращать деньги банку. Какие возможны варианты?
True Positive (TP) — модель TN одобряет расходы, и клиент погашает кредит в соответствии с условиями договора. FALSE Positive (FP) — модель одобряет платеж, но указывает на задержку (и, возможно, недоплату). TRUE Negative (TN) — система отклонит кредит, и клиент фактически проигнорирует свои обязательства. FALSE Negative (FN) — система отказывает в кредите, но клиент платежеспособен и может его погасить.
Во втором и четвертом случаях банк страдает от неверных прогнозов. Во втором варианте — прямые потери кредитной организации, в четвертом — косвенные потери из-за отклоненных кредитов.
Чтобы минимизировать количество неверных результатов, разработчики искусственного интеллекта постоянно повышают точность и функциональность своих систем. Кроме того, они часто реализуют работу своих сервисов таким образом, чтобы человек мог вмешаться и принять самостоятельное решение при «подозрении» на ТН.
Изменения в сфере занятости/безработицы
Внедрение искусственного интеллекта, как и любой другой новой технологии, влечет за собой изменения в индустрии его внедрения. В частности, профессия работников автомобильного производства претерпела значительные изменения после перехода от ручного труда к кинематографическому. Некоторые профессии, такие как автоответчик, поезд и проповедник, исчезли вовсе.
Однако важно помнить, что в истории было много технологических изменений, и не так много профессий исчезло полностью. Практически во всех профессиях, затронутых технологическим прогрессом, произошли функциональные изменения.
Развитие технологий искусственного интеллекта также открывает новые роли в профессиях. Например, благодаря применению компьютерных систем технического зрения в медицине, в медицинской профессии появились три подразделения Врачи — суираты (участвуют в подготовке медицинских данных для обучения ТН), медицинские консультанты (предоставляют специалистов в процессе разработки), менеджеры (поддерживают специалистов в процессе разработки) выполняют представительские функции разработчиков в медицинском сообществе). Программисты искусственного интеллекта в радиологии рассказали подробнее.
По мере проникновения искусственного интеллекта в нашу жизнь растут и риски, связанные с защитой конфиденциальности и безопасности информации. Хакеры уже давно используют технологии искусственного интеллекта для повышения эффективности своих вредоносных и шиффовых кампаний.
Например, хакеры начали использовать чат Openai для создания вредоносных программ и кражи данных. Эта же разработка преуспела в создании ошибочных научных исследований, успешно обманывая исследователей, которые должны были определить, кем был написан текст — человеком или машиной. В 32 % случаев исследователи понимали, что тексты написаны живыми людьми, но на самом деле их создал бот ChatGpt.
Создание поддельного фото- и видеоконтента не так широко распространено. Часто такие креативы используются для удаления дезинформации и рассылки страшилок. Искусственный интеллект используется для того, чтобы заменить одного человека на другого на одной фотографии или видео, изменив его голос, выражение лица и т. д. Наиболее правдоподобным образом.
Следующий, менее важный риск — это излишняя самоуверенность систем искусственного интеллекта. Это означает, что некоторые пользователи таких систем чрезмерно полагаются на «особый» кризис TN, а не на свой собственный. Наиболее чувствительно это может проявиться в медицинской сфере. Там врач, изучающий рентгеновские снимки пациента, теряет злокачественную опухоль.
Частная жизнь» больше не существует в том смысле, что ее признают. Концепция «умного города» включает в себя оптимизацию транспортных потоков, борьбу с правонарушениями на дорогах и обозначение зон. Все это предполагает использование фото- и видеоматериалов, которые работают в автоматическом или полуавтоматическом режиме, сводя к минимуму риск дорожно-транспортных происшествий, а также поиск разыскиваемых лиц и другие очень важные задачи.
У каждого человека есть цифровой след. Камеры в «Безопасных городах» следят не только за каждым из нас. Гимнастические браслеты, банковские операции, данные смартфонов, покупки приложений — все эти данные мы собираем и храним. Мы также делимся этими данными в наших социальных сетях и хотим сделать их общедоступными. Куда вы ездили в отпуск, что вы бегали сегодня утром, что вы купили, а что, наоборот, продаете Abit. Рано или поздно мы все это забудем, но наш цифровой след никуда не денется.
Одной из ключевых особенностей искусственного интеллекта является его способность находить сложные закономерности, невидимые для человека. Вскоре такие системы смогут знать и помнить о нас больше, чем мы сами. Поэтому растущая глобальная озабоченность информационной безопасностью более чем оправдана.
Искусственный интеллект обучается на большом количестве данных. И не всегда понятно, какие именно закономерности из них выявляются. Проще объяснить природу этого явления на примере.
Предположим, что разработчики обучают систему TN находить рак кожи по фотографиям, и для этого показывают огромное количество снимков с подтвержденными случаями заболевания и их отсутствием. Во время экспертизы вдруг обнаруживается, что искусственный интеллект чаще выявляет «признаки» болезни на фотографиях, сделанных в кабинете врача.
Это можно объяснить данными, обученными TN. На снимках кабинета врача чаще обнаруживается рак, так как это заболевание обычно диагностируется, когда пациент обращается к врачу. Однако искусственный интеллект не может достичь этого, и для него контекст, в котором была сделана фотография, также может выступать в качестве триггера (не всегда правильного). В широком смысле он может рассматривать кабинет врача как признак рака кожи.
На этот раз приведен другой пример из реальной жизни. Программа COMPAS, используемая американскими судами для оценки риска рецидива, ошибочно считает, что риск нового лишения свободы для чернокожих в два раза выше, чем для светлокожих.
Искусственный интеллект делает нашу жизнь комфортнее, интереснее и даже безопаснее. Однако, внедряя новые технологии в нашу жизнь, не стоит забывать о «безопасности».
В этой статье мы не хотели подчеркивать недостаток технологии TN, но и не хотели привлекать внимание к опасностям, связанным с приложениями — как для пользователей, так и для самих разработчиков. Учет этих факторов уже является важным шагом на пути к безопасности и управлению рисками.
Проблемы защиты персональных данных в мире искусственного интеллекта
Искусственный интеллект распространен и вездесущ. Считается, что все отрасли используют нейронные сети, машинное обучение и другие направления искусственного интеллекта. Системы, связанные с обработкой персональных данных пользователей, не являются исключением. В этой статье мы расскажем о том, как связаны искусственный интеллект и защита персональных данных.
Риски при обработке данных ИИ
Работа алгоритмов искусственного интеллекта состоит из двух основных фаз: обучение и использование. На этапе обучения алгоритм искусственного интеллекта тренируется на специальном наборе данных, чтобы он мог выявлять закономерности и взаимосвязи между различными точками данных. По сути, на этом этапе нейронная сеть обучается распознавать нужный объект, будь то фотографическое изображение или изображение для анализа текста. На этапе использования модель уже обучена и должна уметь различать соответствующие изображения или анализировать текст правильным образом. Очевидно, что ключом к успеху на обоих этапах являются данные. В качестве исходных данных выступают миллионы изображений, на которых обучалась нейронная сеть, или тысячи текстовых страниц. Важно понимать, что сильная нейронная сеть не может работать без «сборщиков данных». И здесь в игру вступают вопросы из области персональных данных.
Ограничения при обработке ПДн
Нормативные акты в области защиты персональных данных предъявляют особые требования к обработке персональных данных. Мы должны иметь согласие субъекта на обработку его персональных данных. Также должны быть четко определены составление и график выполнения задач. Все это хорошо работает, если есть приложение или база данных клиентов, партнеры и сотрудники, обеспечивающие обработку данных в этой системе. Но что делать, если по какой-то причине персональные данные оказываются в системе, использующей TN? В заявлении о целях говорится, что субъекты данных должны быть проинформированы о целях, для которых их данные будут собираться и обрабатываться. Это позволяет субъекту выбрать, давать или не давать согласие. Однако системы машинного обучения могут использовать информацию, являющуюся продуктом исходных данных (например, использовать данные социальных сетей для расчета метрики пользователей). В результате персональные данные могут быть скрыты или косвенно обработаны, например, путем получения информации о пользователях самой социальной сети, метрику которых анализировала нейронная сеть. Особая история — анализ изображений. В идеале изображения, а точнее фотографии, изображающие людей, не должны позволять идентифицировать субъектов без их согласия. Однако на практике искусственный интеллект можно обучить делать довольно точные предположения о людях, изображенных на снимках, что позволяет идентифицировать персональные данные субъектов.
Как можно защититься
Во-первых, необходимо минимизировать объем обрабатываемых данных. При разработке алгоритма обучения TN инженеры должны определить, какие данные и в каком объеме необходимы для выполнения поставленной задачи. Важно обрабатывать только минимально необходимый объем персональных данных, но в то же время обрабатывать их анонимно, как информацию, которая может не нуждаться в обработке в качестве персональных данных. Субъект персональных данных имеет право самостоятельно решать, какие данные будет использовать оператор. Это означает, что оператор должен открыто и прозрачно объяснить, зачем он собирает эти данные и что он намерен с ними делать. Как уже говорилось, искусственный интеллект — это «черный ящик», и не всегда понятно, как модели принимают решения, особенно в сложных приложениях.
Порождающие состязательные сети
Создание противоречивой сети (GAN) может быть использовано в качестве одного из алгоритмов при обработке персональных данных в ML. Современная тенденция в ML — максимально эффективное использование меньшего количества данных. GAN используют выходные данные, чтобы уменьшить необходимость обучения данных для создания входных данных. Другими словами, входные данные используются для определения того, как будут выглядеть выходные данные. В этом методе используются две нейронные сети — «генератор» и «рефрен». Генератор учится комбинировать данные для создания выходного изображения, а Рефрен учится определять разницу между реальными данными и сгенерированными искусственными данными. Недостатком, однако, является то, что GAN не устраняют необходимость в обучении, поскольку для правильного обучения требуется большое количество данных. Однако такой подход позволяет сократить количество персональных данных, необходимых для манипулирования алгоритмом.