Опубликован: 30.05.2023 | Доступ: свободный | Студентов: 688 / 180 | Длительность: 16:08:00
Лекция 5:

Вопросы безопасности и этики применения ИИ

Негативные последствия могут быть разного рода. Например, благородные цели, связанные с созданием беспилотного транспорта, могут обернуться массовой потерей работы для водителей такси. Система видеонаблюдения решает проблему снижения правонарушений, но непреднамеренно приводит к ущемлению прав и свобод граждан. Разработчиками могут быть допущены недочеты без злого умысла (возможно, по халатности или недобросовестности) - например, сделаны ошибки в модели или собраны недостоверные данные, и это может привести к предвзятости алгоритма или другим негативным последствиям. Наконец, разработчики могут использовать ИИ, зная, что это использование неэтично или даже нарушает закон.

Само общество пока не пришло к консенсусу по поводу этичности использования той или иной формы ИИ-систем. Этично ли использовать ИИ для целей информационной войны, промышленного шпионажа? Этично ли использовать автономные боевые БПЛА, и можно ли оправдывать такие действия рассуждением о том, что в противном случае на передовую пришлось бы посылать живых солдат?

Все более актуальной становится проблема потери приватности нашей личной жизни, которая контролируется как в физической реальности с помощью видеонаблюдения (где мы находимся, что делаем, куда направляемся, с кем встречаемся, какой у нас распорядок дня), так и в цифровой реальности (какую информацию, какие услуги мы предпочитаем, что и кто нам интересен, наши планы, контакты, коммуникации).

Умные гаджеты предоставляют информацию армии алгоритмов, следящих за жизнью своих пользователей как в цифровой, так и в физической реальности.

Если областью приватности частично оставалась область наших мыслей и чувств, то, согласно публикации [243], этих остатков приватности люди скоро лишатся в мирах Метавселенной, присутствие в которой будет обеспечиваться новыми видами гарнитур. Так, в 2022 г. появилась гарнитура смешанной реальности для присутствия в мирах Метаверс (metaverse), разработанная Reality Labs (подразделением Meta Platforms) под названием Meta Quest Pro.

Meta Quest Pro имеет 10 камер слежения, половина из которых следят за внутренним миром агента, анализируя его мысли и чувства с помощью мониторинга движения глаз, мимики и языка тела. Отслеживая направление взгляда пользователя, можно улучшать качество изображения смешанной реальности лишь в тех местах пространства, куда смотрит человек. При этом данные, полученные о состоянии внутреннего мира пользователя на происходящее, по сути, позволяют "снимать персональные данные с лица пользователя" и, вероятно, коммерциализировать их. Новый пул больших данных слишком полезен как для обычных граждан, так и для компаний и правительств - чтобы его игнорировать [244].

Доступ к персональной информации, анализируемой с помощью ИИ при обязательном сотрудничестве частных компаний с властью, приводит к ситуации, когда последние получают возможности отслеживать и все больше ограничивать передвижения, общение и покупки огромного количества людей, которые были идентифицированы как действительные или возможные диссиденты.

Появление крупномасштабных языковых моделей типа GPT-3 позволяет создавать алгоритмические копии любой социальной группы, что дает новые возможности для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества, поскольку теперь эти методы можно отрабатывать на алгоритмических копиях интересующих исследователей социальных групп [245].

Наличие этических проблем в области применения ИИ отражается в новых терминах. Так, например, термин "data colonialism", который можно перевести как "колонизация присвоением данных", используется для выражения эксплуатации людей с помощью технологий ИИ. Здесь присвоение данных рассматривается по аналогии с колониализмом, связанным с присвоением территорий и ресурсов для получения прибыли.

Еще один новый термин Nudging (подталкивание) определяется как тонкий способ манипуляции (усиливаемый возможностями ИИ), который позволяет обходить человеческую способность к автономному принятию решений и суждений и используется для эксплуатации человека и получения прибыли [246].

Появился еще один новый термин - "AI Awakening" (пробуждение ИИ), который обозначает момент преодоления машиной на базе ИИ порога человеческих способностей в выполнении определенных задач4Есть также другой термин с указанным смыслом - super human performance. - Примечание научного редактора . Речь не идет о создании сильного интеллекта, а только о появлении способностей ИИ, позволяющих обойти человека в решении конкретной интеллектуальной задачи [247].

Например, играть в шахматы или Го лучше человека или идентиицировать изображения и выполнять другие задачи, связанные со зрением, и заменить человека. Например, заменить радиологов при интерпретация медицинских изображений.

Речь идет не столько об увольнении сотрудников, обладающих определенными навыками, сколько о коррекции занятости человека за счет передачи некоторых функций этих сотрудников машине. Например, автоматизированный магазин больше не требует продавцов, но требует специалистов по снабжению, управлению и оформлению витрин. Люди должны подстраиваться под те ниши, которые оставляет им ИИ.

Этическая сторона вопроса может быть определена фразой "Обесценивает ли машина навыки человека и лишает ли она его работы?". Оптимисты прогнозируют ситуацию, при которой машины будут дополнять навыки человека, высвобождая ему пространство для его творческой реализации в вопросах управления, обучения, создания новых интеллектуальных решений, и полагают, что решение проблемы состоит в дополнительном образовании и постоянном обучении.

Пессимисты выражают сомнения по поводу того, что перейти на эту функцию более творческой реализации и постоянного обучения смогут далеко не все сотрудники, у которых сегодняшний основной навык станет невостребованным.

ИИ внедряется во все большее количество сервисов. Показателен анализ этических вопросов, решение которых ответственно за ускорение/торможение процесса внедрения ИИ в медицине. Существуют примеры недоверия живому врачу, в силу того что он (как любой человек) может обладать разными качествами, и в том числе такими как зависть, злорадство, сарказм, нечестность, жажда наживы и т. п. Все эти качества пока не присущи машине. В этом смысле переход на общение с машиной может иметь свои плюсы.

И есть совокупность качеств, присущих человеку, которые пока недоступны машине 5Тут следует разделять две вещи. 1. Способность распознавать указанные свойства и генерировать их проявления в диалоге с человеком (это есть и развивается). 2. Наличие указанных свойств непосредственно у машины как инструмента управления поведением и принятием решений (этого нет и не нужно). - Примечание научного редактора (эмоциональность, сострадание, любовь, эмпатия и т. п.), что затрудняет общение с машиной. Мы находимся на той стадии развития техники, когда нас раздражает не общение с машиной, а общение с глупой машиной, и на вопрос машины "Чем я могу вам помочь?" мы отвечаем: "Соедините с человеком-специалистом".

Но техника становится все более умной, и отторжение в отношении ИИ-консультанта ослабевает, если он становится действительно полезен.

Отношение пациентов к медицинским услугам на базе ИИ уже сегодня неоднозначно (рис. 4.10). Уже сегодня есть некоторые вопросы, например обсуждение сексуального здоровья/поведения человека, которые вызывают у пациента дискомфорт, в силу опасения осуждения со стороны врача-человека, и подчас пациенту проще обсуждать подобные темы с "бездушной ИИ-машиной". При этом одновременно пациенты отмечают и другую сторону - что врач обладает сочувствием, участием (неотъемлемое качество врача), без которого немыслимо само лечение 6Спорный тезис. Хирургам, например, сочувствие только мешает, поэтому они не оперируют своих родственников сами. - Примечание научного редактора .

 Отношение пациентов к медицинским услугам на базе ИИ

Рис. 4.10. Отношение пациентов к медицинским услугам на базе ИИ

Многие технологии имеют две стороны (плюсы и минусы), они обещают привнести еще больше пользы в будущем при развитии технологии и одновременно могут усугублять некоторые свои негативные стороны.

Если посмотреть на вектор, направленный на переход от состояния 4 в состояние 3, то это вектор, связанный с ожиданиями преодоления минусов дня сегодняшнего за счет новых возможностей в технологии дня завтрашнего. Если смотреть на вектор 1-3, то можно видеть, как доверие к технологии дня сегодняшнего может смениться на недоверие по мере ее развития.

Опасения связаны в основном с нарушением приватности, возможности использования технологических достижений во вред пользователям со стороны тех, кто станет владельцем этих технологий.

Конечно, разные приложения в разной степени вызывают моральноэтические вопросы в силу этичности самого сервиса, основанного на новых, ранее недоступных возможностях за счет применения ИИ (рис. 4.11).