Опубликован: 30.05.2023 | Доступ: свободный | Студентов: 688 / 180 | Длительность: 16:08:00
Лекция 5:

Вопросы безопасности и этики применения ИИ

 Ответы респондентов на вопрос о желании использовать данный тип ИИ. n - количество респондентов. Источник: [248]

Рис. 4.11. Ответы респондентов на вопрос о желании использовать данный тип ИИ. n - количество респондентов. Источник: [248]

Если почти 90% респондентов готовы доверить ИИ советы по эвакуации на случай аварии, зная, что ИИ-системы слежения и оповещения превосходят человека по своим возможностям, то в вопросах взаимоотношений в паре более трети не готовы прибегать к советам ИИ, а, например, такая идея как цифровое клонирование умерших более чем у половины респондентов вызывают отторжение (рис. 4.11). Вероятно, люди сознательно или подсознательно обозначают для себя допустимые пределы подмены реального мира на цифровой, после которого психика человека находится в зоне риска, поскольку граница между реальностью и "имитируемой действительностью" становится все более размытой. Той же природы является и проблема фейковых новостей, когда смоделировать "правду" на любую аудиторию становится делом техники.

Сегодня ИИ весьма убедительно может имитировать голос, принадлежащий человеку, паттерны речевых оборотов и создавать липсинг (движение губ во времени) под любую речь, которую виртуально изображаемый человек никогда не произносил.

Активное развитие ИИ за последние 10 лет подтолкнуло экспертов к разработке мер защиты от рисков, которые представляет ИИ для человека. Одним из первых шагов на этом пути стало принятие так называемых Азиломарских принципов ИИ в январе 2017 г. В числе ключевых позиций данного документа следует выделить принцип "полезного" финансирования (инвестиции следует направлять на обеспечение полезного использования ИИ); принцип "связи науки и политики" (конструктивное взаимодействие между исследователями ИИ и теми, кто регулирует ИИ); принцип "безопасности" и "прозрачности неудач" (предписывает создание ИИ на основе общечеловеческих принципов морали). В документе также фиксируется, что разработчики систем ИИ играют ключевую роль в формировании нравственных последствий использования ИИ и обязаны влиять на такие последствия.

Искусственный интеллект позволяет решать новые задачи, однако результаты применения ИИ далеко не однозначно воспринимаются как фактор снижения уровня угроз. С одной стороны технологии искусственного интеллекта позволяют создавать все более сложные и многокомпонентные решения, безопасность которых в том числе обеспечивается средствами ИИ, с другой стороны, в эти более сложные решения вносятся риски, заключенные внутри самой технологии ИИ.

ИИ - это "палка о двух концах". С одной стороны, мы получаем автономное решение, которое должно предупредить человека об опасностях и снизить риски от мошенничества, невозврата долгов, выявить нетипичное поведение в использовании сервисов компании, выявить наличие зловредного ПО. С другой стороны, ИИ внутри себя содержит определенные опасности в виде обучения на неполных и недостоверных данных, возможных предвзятостей, потенциально возможной дискриминации в отношении разных групп пользователей и т. п. Поэтому исследование того, как профессиональная аудитория оценивает риски при внедрении ИИ (увеличение или уменьшение рисков), представляет особый интерес.

Попытка ответить на этот вопрос путем опроса специалистов представлена на рис. 4.12.

 Влияние внедрения ИИ на общерыночные риски. Источник: CCAF World Economic Forum. Источник: [249]

Рис. 4.12. Влияние внедрения ИИ на общерыночные риски. Источник: CCAF World Economic Forum. Источник: [249]

Как следует из рисунка - количество респондентов, которые полагают что риски растут, больше, чем число специалистов, которые рассчитывают, что ИИ приведет к снижению рисков. Заметим, что наименее радужные прогнозы касаются риска увеличения нарушений конфиденциальности.

Мы говорили о морально-этических проблемах, которые очевидны уже сейчас. Большее число проблем, вероятно, ожидает нас в будущем при сосуществовании интеллекта живого и превосходящего его возможности искусственного.

Можем ли мы сказать, что высокий интеллектуальный уровень человека подразумевает соблюдение им высоких морально этическихнорм, и можно ли ожидать, что эти нормы будут соблюдены ИИ в будущем?

Например, человек допускает использование животных в своих целях, в первую очередь оправдывая свои действия тем, что Homo sapiens обладает более развитым интеллектом. Однако остается вопросом, как будет относиться человек к изобретенному им сильному интеллекту (если такой действительно появится). И если человек работает над созданием сильного искусственного интеллекта, готов ли он признать за последним право на то, что этот ИИ будет наделен определенными правами в соответствии с уровнем его интеллекта. Как метко заметили авторы публикации [250], "Мысль о том, что экскаватор лучше копает ямы, не так горька, как мысль о том, что какая-то коробка умнее".

В процессе создания сложных систем, когда мы перестанем понимать, где разница между биологическим мозгом и небиологическим, возникнет вопрос, почему мы одного рассматриваем как члена общества, а другого нет.

Множество этических вопросов вызывают технологии развития интерфейса "мозг - компьютер", который позволяет на основе регистрации биопотенциалов мозга считывать простейшие команды человека, преобразуя их в сигналы для механизмов протеза так, что человек может мысленными командами регулировать работу протеза. Двунаправленные нейроинтерфейсы обеспечивают замкнутый цикл. Компьютерная система получает сигналы от мозга и отправляет в него информацию, что позволяет человеку ощущать устройства, которыми он управляет, как часть собственного тела. Установив в мозг специальный чип, можно устранить слепоту, глухоту или восстановить функции парализованного тела. По данным Neuralink (на основе успешных опытов, проведенных на обезьянах) [251], уже в 2023 г. с помощью решений компании люди с тяжелыми травмами спинного мозга смогут восстановить функциональность своего тела.

В перспективе возможна реализация множества приложений, с помощью которых различные инструменты в буквальном смысле слова становятся продолжением тела человека. Причем, не только будучи физически связанными с человеком, но и будучи инструментами удаленными.

В последнее время мозговые чипы разрабатывались в основном для терапевтических целей, и это скорее относится к медицине, но по мере развития технологии нейропротезирования, вероятно, такие технологии будут использоваться и для совершенствования человека в плане развития и дополнения его возможностей сверх того, что изначально было предусмотрено природой. Для этого явления уже появился термин - "биоусовершенствование".