Опубликован: 30.05.2023 | Доступ: свободный | Студентов: 688 / 180 | Длительность: 16:08:00
Лекция 5:

Вопросы безопасности и этики применения ИИ

Современные системы ИИ, которые в значительной степени полагаются на обработку данных для определения необходимых правил, принимаемых на основе входных данных, уязвимы для манипуляций с данными. Эти манипуляции и вредоносные действия могут обмануть ИИ-системы.

Выше мы упомянули пример с классификаторами изображений, которые анализируют комбинации пикселей, чтобы определить, какая метка относится к изображению. Манипуляции хакера с пикселами, результат которых будет незаметен для человеческого глаза, могут ввести алгоритм в заблуждение и привести к неправильной маркировке изображения. Учитывая уязвимый характер ИИ-систем, возникает необходимость проверки выводов ИИ-алгоритма, прежде чем принимать на основе рекомендаций машины ответственные действия.

Нижний вариант (рис. 4.5), предполагающий диалог, позволяет человеку контролировать результат, выявляя определенные признаки изображения, например мы приняли вывод о том, что это кошка, потому что на фото помимо неинтерпретируемых признаков, которые учитывала машина, есть также интерпретируемые (наличие в кадре элементов, распознанных как шерсть, уши, усы).

Объяснимый ИИ позволяет пользователю понять, почему именно модель пришла к тому или иному выводу.

Одно из решений, в котором был реализован интерпретируемый ИИ, разработано компанией Fujitsu. Оно состоит из двух систем и носит название "Deep Tensor & Knowledge Graph". Deep Tensor (см. рис. 4.3) - это оригинальная технология машинного обучения от компании Fujitsu, которая расширяет возможности глубокого обучения, позволяя обучаться на данных с графовой структурой, а Knowledge Graph - это графовая база знаний, созданная путем добавления семантики к информации, собранной из научных публикаций. По данным компании, это решение позволяет обеспечить работу модели с высокой точностью и интерпретируемостью выводов (рис. 4.3).

Объединение результатов Deep Tensor со знаниями Knowledge Graph дает основания для интерпретации выводов и позволяет экспертам-людям подтвердить истинность результатов, полученных ИИ, и в этом случае можно сказать, что это решение, принятое вместе с ИИ, а не решение, принятое ИИ вместо человека. Та же идея интеграции методов глубокого обучения (сверточной сети) и графовой базы знаний иллюстрируется на рис. 4.6.

 Использование глубокого обучения и графа знаний для построения, интерпретируемого ИИ. Источник: [241]

Рис. 4.6. Использование глубокого обучения и графа знаний для построения, интерпретируемого ИИ. Источник: [241]

Риски, связанные с нарушением этических норм

ИИ - это основа для создания многочисленных удобных сервисов, направленных на благополучие человека и одновременно источник рисков, связанных с появлением решений, которые могут нанести человеку вред, нарушить его права, проявить неэтичное поведение.

В этой связи появилась новая область исследования - этика ИИ - совокупность принципов и методов их реализации для создания и ответственного использования технологии искусственного интеллекта для предотвращения рисков, связанных с нарушениями в области морали и нравственности.

Одним из первых, кто предвидел потенциальные проблемы, в том числе риски этического плана, при разработке автономных интеллектуальных агентов, был писатель-фантаст Айзек Азимов, который сформулировал "Три закона робототехники" как средство ограничения этих рисков. Первый закон запрещает роботам вредить людям или допускать причинение вреда людям, отказываясь действовать. Второй закон предписывает роботам подчиняться людям, если только эти приказы не противоречат первому закону. Третий закон предписывает роботам защищать себя в той мере, в какой это не противоречит первым двум законам. Позже к первым трем был добавлен четвертый: робот не может принести вред человечеству.

Приведем некоторые примеры появления этических проблем в области разработки и применения ИИ, которые возникают уже сегодня. В первую очередь это проблемы, связанные с вторжением в частную жизнь, с непрозрачностью принятия решений, с ошибочностью принятия решений.

Например, доступный нам сегодня Интернет, дополненный технологиями ИИ, становится сложно контролируемым пространством, средством культивации и тиражирования фейков, благодатной средой для преступных действий, рассадником вредоносного ПО, средством проведения кибератак, полем осуществления информационных войн.

Рассмотрим лишь один аспект проблемы - проанализируем, как использование алгоритмов искусственного интеллекта, направленных на оптимизацию прибыли, может приводить к нарушению этических норм.

На рис. 4.7 условно показано интернет-пространство, в рамках которого функционируют различные платформы, которые взаимодействуют с пользователями и рекомендуют им, какие товары и услуги следует приобретать, с кем встречаться и дружить, как относиться к тем или иным новостям и т. п.

 Задачи интернет-платформ, построенных на базе ИИ-алгоритмов, обычно направлены на максимизацию интересов владельцев и спонсоров этих платформ. Источник: [242]

Рис. 4.7. Задачи интернет-платформ, построенных на базе ИИ-алгоритмов, обычно направлены на максимизацию интересов владельцев и спонсоров этих платформ. Источник: [242]

Многие из этих систем работают на основе алгоритмов, использующих ИИ, и могут манипулировать пользователями в угоду интересам владельцев платформ. Данные интересы явно и неявно заложены в оптимизационных механизмах ИИ-систем, обучающихся на поведении пользователей. Например, умная система, направленная на оптимизацию времени проводимого пользователем в интернете (с целью оптимизации прибыли от рекламы), может отбирать и показывать ему тот новостной контент, который вместо освещения объективной картины заставляет клиента максимально вовлекаться в процесс потребления контента и проводить больше времени в Сети.

Многие лидеры индустрии верили в рациональность человеческой природы или считали, что конкурентный рынок идей защитит истину. Подобное наивное полагание открыло Интернет для людей с более реалистичным пониманием силы группового мышления и обмана. Современные бизнесмены с помощью рекламы и пропаганды могут умело подстраивать свои аргументы и образы под вкусы, доходы и политические взгляды каждого пользователя, используя ИИ как средство оптимизации прибыли на основе изучения привычек потребления контента товаров и услуг целевых групп.