Опубликован: 30.05.2023 | Доступ: свободный | Студентов: 975 / 372 | Длительность: 16:08:00
Лекция 6:

Будущее ИИ, прогнозы и перспективы

ModelOps

ModelOps, или Model Operations (операционализация модели), - это методология управления жизненным циклом моделей машинного обучения и аналитики, предлагающая средства оптимизации эффективности внедрения ИИ-моделей в производство, это набор возможностей, которые в первую очередь направлены на управление полным жизненным циклом всех моделей ИИ и принятия решений.

Согласно Gartner, основные возможности ModelOps включают непрерывную интеграцию/непрерывную доставку ( CI/CD6Непрерывная интеграция (Continuous Integration, CI) и непрерывная доставка (Continuous Delivery, CD), набор принципов и практик, позволяющие разработчикам надежнее и быстрее развертывать изменения программного обеспечения), среду разработки моделей, версионирование моделей, хранение и откат моделей.

ModelOps - это расширение технологии MLOps (machine learning operations). Если MLOps фокусируется на построении моделей, их оценке и развертывании, то ModelOps - на управлении полным жизненным циклом ИИ. То есть ModelOps имеет более широкие задачи. Если назначение MLOps-инструментов - это создание приложений с поддержкой ИИ путем обеспечения совместной работы ML-команд, то задача ModelOps - обеспечить прозрачность использования ИИ и предоставлять отчеты на уровень руководителей бизнеса. Если пользователи MLOps - это в основном специалисты по исследованию данных, ML-инженеры, то пользователи ModelOps - это специалисты, оценивающие бизнесоперации и риски уровня предприятия.

Как концепция ModelOps утверждает, что важно не только строить точные модели машинного обучения, но и организовать эффективное управление их жизненным циклом так, чтобы обеспечить коммерческую отдачу от модели на протяжении ее использования. То есть модель должна поддерживаться в оптимальном состоянии, чтобы обеспечивать такое состояние, необходим мониторинг качества работы модели.

Малые и широкие данные

Под термином "малые и широкие данные" (Small and Wide Data) Gartner подразумевает технологии, которые позволяют получить решение задачи на ограниченном наборе данных при возможности объединить и проанализировать несколько разных структурированных и неструктурированных источников данных.

Технология может применяться в организации средних размеров, когда большие данные недоступны, но есть возможность объединения данных из широкого спектра разрозненных источников. Как правило, речь идет о наборах данных, изолированных в разных хранилищах. Ранее подобная разрозненность осложняла совместное использование данных, поэтому одна из задач новой технологии состоит в возможности показать корреляции в областях, которые ранее не рассматривались как связанные.

Причинно-следственный ИИ

Причинно-следственный ИИ (Causal AI) представляет собой ряд методов, включая причинно-следственные графы и моделирование, для выявления причинно-следственных связей, что в конечном итоге позволяет улучшить процесс принятия решений.

Технология позволяет добиться более высокой эффективности за счет добавления знаний о предметной области и позволяет запустить ИИ-модели на базе меньших наборов данных.

За счет использования причинно-следственных связей реализуется повышение эффективности и автономности принятия решений, лучшая объяснимость, наблюдается повышение устойчивости, адаптивности и снижение предвзятости в системах ИИ. Согласно кривой Gartner за 2022 г., данная технология была на этапе запуска, и аналитики прогнозировали, что для того, чтобы причинноследственный ИИ вышел на плато продуктивности, потребуется от 5 до 10 лет.

Графы знаний

Графы знаний (Knowledge graphs) отражают информацию о мире наглядным способом, который зачастую проще для понимания и использования, чем другие типы моделей данных. На основе анализа структуры графа могут быть получены дополнительные знания об исследуемых сущностях.

Объединение сведений из графов знаний с обучающими выборками позволяет повысить точность работы алгоритмов машинного обучения и обеспечить объяснимость получаемых результатов. Понятие "графы знаний" мы обсуждали в первой лекции, поэтому в данном разделе отметим только, что в 2021 г. Gartner поместила эту технологию как находящуюся на вершине цикла ажиотажа с перспективой выхода на плато продуктивности через 5-10 лет.

ИИ, основанный на физике

ИИ, основанный на физике (Physics Informed Artificial Intelligence, PIAI), - это процесс интеграции фундаментальных физических законов и знаний о предметной области в процесс обучения ML-моделей. Данная технология является фундаментальной, и о ней следует сказать чуть подробнее.

Несмотря на успехи в области машинного обучения, следует отметить, что возможности сбора и хранения данных на основе наблюдений существенно опережают возможности их анализа, интерпретации и извлечения знаний из этих данных.

Кроме того, модели, основанные исключительно на данных, как правило, хорошо описывают наблюдения, но предсказания на основе таких моделей могут быть физически противоречивыми. Поэтому и появляется необходимость в интеграции фундаментальных физических законов в процесс обучения ML-моделей, используя физические законы как теоретические ограничения в дополнение к закономерностям, полученным из наблюдений (из данных).

При моделировании поведения сложных объектов используют два подхода. Первый - это мультифизическое моделирование на базе решения дифференциальных уравнений, когда физический процесс описывается уравнениями в частных производных и задача решается тем или иным численным методом. Задаются краевые условия в виде начальных и граничных условий, а исторические данные позволяют определить параметры модели. Модель может прогнозировать поведение в широких пределах исходных данных и, например, моделировать запредельные режимы (недостижимые объектом в реальной эксплуатации).

Второй подход - это построение цифровой модели поведения объекта на основе данных, накопленных в процессе различных фактических режимов его эксплуатации. В этом случае модель обучается на данных и воспроизводит закономерности, извлекаемые из этих данных. Подобная модель отрабатывает поведение объекта только в тех режимах эксплуатации, которые фактически наблюдались в работе оборудования и накоплены в регистрируемых данных.

Можно сказать, что в первом случае мы исходим из того, что наука позволила выявить классы физических процессов, описываемых одной и той же системой дифференциальных уравнений. Во втором случае мы подбираем модель, максимально точно описывающую совокупность имеющихся данных, не вдаваясь в физику процесса.

Каждый из подходов имеет свои сильные и слабые стороны. Несмотря на прогресс в постановке и решении мультифизических задач, описываемых уравнениями в частных производных с помощью численной дискретизации расчетной области, в целом ряде случаев невозможно получить решения при моделировании поведения материалов, имеющих сложную неоднородную структуру, подчас у расчетчиков нет данных о поведении материалов (например, в нужном интервале температур, необходимых для проведения численного эксперимента), генерация сеток в ряде случаев остается сложной, и многие практические задачи требуют слишком высоких вычислительных ресурсов. Поэтому машинное обучение все чаще выступает перспективной альтернативой для решения подобных задач.

С другой стороны, обучение глубоких нейронных сетей требует больших данных, которые не всегда доступны. В условиях отсутствия больших данных нейронные сети могут быть обучены на основе дополнительной информации, полученной в результате применения физических законов в определенных точках пространственно-временного континуума.

Посути,ИИ,основанныйнафизике,позволяетинтегрироватьмодели, основанные на данных, и модели, основанные на решении дифференциальных уравнений даже в частично определенных и высокоразмерных задачах. Иными словами, упомянутая технология позволяет включать в ИИ-модели физические знания о предметной области непосредственно на уровне нейросетевых архитектур. Это становится возможным, поскольку нейросетевые фреймворки обладают всеми необходимыми механизмами, чтобы выразить в рамках моделей зависимости, описываемые уравнениями в частных производных.

За счет интеграции в модель дополнительных ограничений на основе физических законов такие модели могут делать прогнозы на основе значительно меньшего количества данных.

Если цифровые модели, основанные исключительно на ИИ, не обязательно подчиняются фундаментальным законам физики и, как правило, не могут хорошо обобщать сценарии, на которых они не были обучены (что ограничивает их адаптивность), то PIAI лишено указанных недостатков и, как правило, обеспечивает сокращение времени обучения модели. PIAI позволяет обучать модели на меньшем объеме данных создавать более научно обоснованные модели и, соответственно, делать более надежные прогнозы для новых сценариев.