Опубликован: 09.07.2007 | Уровень: специалист | Доступ: платный | ВУЗ: Донецкий национальный технический университет

Лекция 6: Двойственный симплекс – метод. Исследование моделей задач линейного программирования на чувствительность

< Лекция 5 || Лекция 6: 123 || Лекция 7 >
Аннотация: В данной лекции широко рассматривается такой метод решения двойственной задачи линейного программирования, как двойственный симплекс – метод. Также рассматриваются его основные свойства и характеристики, проводится сравнительный анализ с обычным симплекс – методом. Кроме того, проводится исследование моделей задач на чувствительность с использованием экономической интерпретации обычной задачи линейного программирования.

1. Двойственный симплекс – метод

Использование идей двойственности в сочетании с общей идеей симплекс-метода позволило разработать еще один метод решения задач ЛП - двойственный симплекс-метод. Впервые этот метод был предложен Лемке в 1954г. Решение задачи ЛП двойственным симплекс-методом сводится к отысканию оптимального плана прямой задачи последовательным переходом от одного базиса к другому.

Задача ЛП в канонической форме имеет вид:

\text{максимизировать} \; L(x) = \sum_{j=1}^n c_j x_j ( 1.1)
при условиях
\sum_{j=1}^n a_{ij} x_j = b_{\mu}, \; (\mu = 1,2,\ldots,m) ( 1.2)
или \sum_{j=1}^n A_j x_j = b , \; x_j \geq 0, \; j = 1,2,\ldots,n.

Предположим, что n \geq m и ранг матрицы А равен m.

Двойственная задача к задаче (1.1), (1.2) записывается так:

\text{максимизировать} \; \widetilde{L}_{\delta e} (y) = \sum_{\mu=1}^m b_{\mu} y_{\mu} ( 1.3)
при условиях
A_j^T y \geq c_j, \; \sum_{\mu=1}^m a_{ij} y_{\mu} \geq c_j , j=1,2,.,n. ( 1.4)

Назовем сопряженным базисом, или базисом двойственной задачи такую систему из m линейно-независимых векторов матрицы ограничений прямой задачи \{ A_i \}_{i \in I_\delta}, для которой базисное решение y соответствующей системы линейных уравнений вида

A_i^T y = c_i, \; i \; \textit{есть} \; I_{\delta} ( 1.5)
удовлетворяет всем ограничением (1.4).

Разложим вектор b по сопряженному базису

\sum_{i \in I_{\delta}} A_i x_i = b = A_0 ( 1.6)

Решив систему (1.6), получим некоторое ее базисное решение \{ x_{i0} \}_{i \in I_{\delta}}, которое называется псевдопланом прямой задачи, так как для него может выполняться условие неотрицательности переменных xi0.

Таким образом, псевдоплан прямой задачи есть базисное решение относительно сопряженного базиса.

Как известно, оценки для небазисных векторов \Delta_j определяется в соответствии с

\Delta_j = \sum_{i \in I_{\delta}} c_i x_{ij} - c_j , \; j=1,2,\ldots,n . ( 1.7)

Псевдоплан можно найти и независимо от двойственной задачи. Пусть \{ A_i \}_{i \in I_{\delta}} - произвольная система линейно-независимых векторов прямой задачи.

Выразим все небазисные векторы {Aj} через базисные:

A_j = \sum_{i \in I_{\delta}} A_i x_{ij} , ( 1.8)
A_0 = b = \sum_{i \in I_{\delta}} A_i x_i . ( 1.9)

Обозначим решение (1.9) через х0. Тогда можно дать дополнительное определение псевдоплана: n - мерный вектор X, для которого xi = xi0 при i \in I_{\delta}, и xj=0 при j \notin I_{\delta}, является псевдопланом тогда и только тогда, когда все \Delta_j \geq 0, \; j=1,\ldots,n.

Доказательство. Векторы \{ A_i \}_{i \in I_{\delta}}, линейно независимы.

Поэтому можно вычислить такой y={y1,y2,...,ym}, для которого

A_j^T y = \sum_{\mu =1}^m a_{\mu} y_{\mu} = c_i, \; i \in I_{\delta} ( 1.10)
Тогда
\begin{align*}
& \Delta_j = \sum_{i \in I_{\delta}} c_i x_{ij} - c_j = \sum_{i \in I_{\delta}}
      (\sum_{\mu=1}^m a_{\mu i} y_{\mu}) x_{ij} - c_j = \\
& \sum_{\mu=1}^m (\sum_{i \in I_{\delta}} a_{\mu i} x_{ij}) y_{\mu} - c_j =
      \sum_{\mu=1}^m a_{\mu i} y_{\mu} - c_j .
\end{align*}

С учетом (1.4) получим

\Delta_j = \sum_{\mu = 1}^m a_{\mu i} y_{\mu} - c_j \geq 0, \; \forall = 1,n , ( 1.11)
что и требовалось доказать.

Рассмотрим некоторый сопряженный базис и соответствующий ему псевдоплан.

Справедлив следующий признак оптимальности: если среди базисных компонентов псевдоплана Х нет отрицательных, то псевдоплан Х={xi0} оказывается оптимальным решением прямой задачи.

Доказательство. Имеет место такая цепочка равенств:

\overline{L}_{\delta e} (y) =
\sum_{\mu=1}^m b_{\mu} y_{\mu} \stackrel{(1)}{=}
\sum_{\mu=1}^m (\sum_{i \in I_{\delta}} a_{\mu i} x_i) y_{\mu} \stackrel{(2)}{=}
\sum_{i \in I_{\delta}} x_i (\sum_{\mu=1}^m a_{\mu i} y_{\mu}) \stackrel{(3)}{=}
\sum_{i \in I_{\delta}} c_i x_i .

Равенство (1) следует из (1.2), равенство (2) получено переменой порядка суммирования, равенство (3) следует из (1.10).

Так как

x_j = 0 \; \text{при} \; j \neq I_{delta} ( 1.12)
то
\sum_{i \in I_{\delta}} c_i x_i =
\sum_{j=1}^n c_j x_j = L(x) ( 1.13)

Таким образом, \overline{L}_{\delta e} (y) = L(y), что и является признаком оптимальности планов х и у, если x \ge 0.

Этот признак является необходимым и достаточным условием оптимальности в случае невыродженности базисного решения y двойственной задачи .

Пусть известен некоторый сопряженный базис \{ A_i \}, i \in I_{\delta}, которому соответствует псевдоплан х. Очевидно, А_j = \sum_{i \in I_{\delta}} A_i x_{ij}, А_0 = \sum_{i \in I_{\delta}} A_i x_i. При этом в зависимости от знаков {xi} и {xij} может иметь место один из трех случаев:

  1. базисные компоненты х_i = х_{i0} \ge 0 для всех i \in I_{\delta} ;
  2. среди хi имеются отрицательные, причем для некоторого i: хi0<0, а все х_{ij} \ge 0, \; j=1,.,n ;
  3. псевдоплан содержит отрицательные компоненты хi0<0, но для каждой из них среди элементов ij}, j=1,...,n, имеются отрицательные. В первом случае, как следует из достаточного признака оптимальности, псевдоплан х - оптимальное решение. Во втором случае задача не разрешима. В третьем случае можно перейти к некоторому новому сопряженному базису и, следовательно, к новому псевдоплану с меньшим значением L.
< Лекция 5 || Лекция 6: 123 || Лекция 7 >
Дмитрий Сушанский
Дмитрий Сушанский
Россия
Евгения Емельянова
Евгения Емельянова
Россия