Опубликован: 20.04.2011 | Уровень: для всех | Доступ: платный
Лекция 4:

Теория вероятностей и статистика

< Лекция 3 || Лекция 4: 12 || Лекция 5 >

Прямое время возвращения

Остаток времени "жизни", отсчитываемый от случайной точки времени, называется прямым временем возвращения. В этой секции мы получим некоторую важную формулу. Чтобы сформулировать проблему, рассмотрим пример. Мы желаем исследовать распределение времени "жизни" различных марок автомобилей, и опросить выбранных наугад автомобильных владельцев о возрасте их автомобиля. Так как точка времени опроса выбрана наугад, вероятность выбора автомобиля пропорциональна полному времени "жизни" автомобиля. Распределение будущего времени остатка "жизни" тогда будет идентично с уже достигнутым временем "жизни".

Составляя выборку таким способом, мы увидим, что вероятность выбора автомобиля определенной марки пропорциональна времени "жизни" автомобиля, то есть мы предпочтительно выберем автомобили с более длинными сроками службы (выбор, базирующийся на длине срока службы). Вероятность выбора автомобиля, имеющего полное время "жизни" х, дается с помощью приведенной ниже формулы (момент распределение в статистике) (дифференцирование (3.22):

\frac{xf(x)dx}{m}.

Так как мы рассматриваем случайную точку времени, распределение остающегося времени "жизни" будет однородно распределено в промежутке (0, х) :

f(t|x)=\frac1x, 0 < t \le x.

Тогда функция плотности остающегося времени "жизни" в случайной точке времени следующая:

v(t)=\int_t^{\infty}\frac1x*\frac{xf(x)dx}{m},\\
v(t)=\frac{1-F(t)}{m}. ( 3.23)

где F(t) - функция распределения полного времени "жизни" и m - средняя величина.

Применяя равенство (3.3), мы обращаем внимание, что i -тый момент v(f) определяется с помощью (i+1) -того момента f(f):

m_{i,v}=\int_0^{\infty}t^iv(t)dt\\
=\int_0^{\infty}t^i\frac{1-F(t)}{m}dt\\
=\frac{1}{i+1}*\frac1m*\int_0^{\infty}(i+1)*t^i*\{1-F(t)\}dt,\\
m_{i,v}=\frac{1}{i+1}*\frac 1m*m_{i+1,f}. ( 3.24)

Мы получаем среднее значение

m_{1,v}=\frac m2*\varepsilon, ( 3.25)

где является коэффициентом формы распределения "время жизни". Эта формула также действительна для дискретных распределений времени.

Распределение j'тых наибольших из к случайных переменных

Предположим, что к случайных переменных \{Т_1 ,Т_2 ,\dots , Т_к\} независимы и идентично распределены с функцией распределения F(t). Распределение j -той наибольшей переменной выглядит следующим образом:

p\{j'th \mbox{ largest} \le t \}=\sum_{i=0}^{j-1} \begin{pmatrix}k\\i \end{pmatrix} \{1-F(t)\}^i F(t)^{k-i}. ( 3.26)

j-1 переменных могут быть большими, чем t. Меньшие переменные (или j=k ) имеют функцию распределения:

F_{min}(t)=1-\{1-F(t)\}^k, ( 3.27)

и наибольшая переменная (j=1) имеет функцию распределения

F_{max}(t)=F(t)^k. ( 3.28)

Если случайные переменные имеют индивидуальные распределения функции F_i (t), мы получаем выражение, более сложное, чем (3.26). Для наименьшей и наибольшей переменной мы добираемся так:

F_{min}(t)=1-\Pi_{i=1}^k\{1-F_i(t)\}, ( 3.29)
F_{max}(t)=\Pi_{i=1}^k F_i(t). ( 3.30)

Комбинация случайных переменных

Мы можем комбинировать времена "жизни" случайных процессов, сочетая их последовательно или параллельно, либо применяя оба варианта.

Последовательные случайные переменные

Соединение последовательно k независимых временных интервалов соответствует сложению k независимых случайных переменных, то есть свертыванию случайных переменных.

Если мы обозначаем среднюю величину и дисперсию i -того временного интервала соответственно m_{1,i}, \sigma_i^2, тогда сумма случайных переменных имеет следующую среднюю величину и дисперсию:

m=m_1=\sum_{i=1}^k m_{1,i}, ( 3.31)
\sigma^2=\sum_{i=1}^k \sigma_i^2. ( 3.32)

Вообще, мы должны сложить так называемые кумулянты, или полуварианты ( cumulant ), и первые три кумулянта совпадают с первыми тремя центральными моментами.

Функция распределения суммы получена свертыванием:

F(t)=F_1(t) \otimes F_2(t) \otimes \dots \otimes F_k(t), ( 3.33)

где \otimes - оператор свертывания (Секция. 6.2.2).

Пример 3.2.1: Биноминальное распределение и испытания Бернулли

Пусть вероятность успеха в испытании (например, бросание кубика при игре в кости) равна р, а вероятность отказа равняется 1 - р. Число успехов в единственном испытании тогда получается с помощью распределения Бернулли:

p_1(i)=\begin{cases}
1-p, & i=0,\\
p, & i=0
\end{cases} ( 3.34)

Если мы проведем S испытаний, то биноминальное распределение числа успехов

p_S(i)=\begin{pmatrix}S\\i \end{pmatrix} p^i(1-p)^{S-i}, ( 3.35)

получается сборкой S распределений Бернулли. Если мы делаем одно дополнительное испытание, то распределение общего количества успехов получается сверткой Биноминального распределения (3.35) и Распределения Бернулли (3.34):

p_{S+1}(i)=p_S(i)*p_1(0)+p_S(i-1)*p_1(1)=\\
=\begin{pmatrix}S\\i \end{pmatrix} p^i(1-p)^{S-i}*(1-p)+\begin{pmatrix} S\\ i-p \end{pmatrix}p^{i-1}(1-p)^{S-i+1}*p\\
=\{\begin{pmatrix}S\\i \end{pmatrix} +\begin{pmatrix}S\\ i-1 \end{pmatrix}\}p^i(1-p)^{S-i+1}\\
=\begin{pmatrix}S+1\\ i \end{pmatrix} p^i(1-p)^{S-i+1},

что и требовалось доказать.

Параллельные случайные переменные

Взвешивание l независимых случайных переменных, где i -тая переменная появляется с весовым коэффициентом р_i, дает

\sum_{i=1}^l p_i=1,

а средняя величина m_{1,i}, и дисперсия \sigma_i^2 сумма случайных переменных имеет следующую среднюю величину и дисперсию:

m=\sum_{i=1}^{l}p_i*m_{1,i}, ( 3.36)
\sigma^2=\sum_{i=1}^{l}p_i*(\sigma_i^2+m_{1,i}^2)-m^2. ( 3.37)

В этом случае мы должны взвесить нецентральные моменты. Для j -того момента мы имеем:

m_j=\sum_{i=1}^l p_i*m_{j,i}, ( 3.38)

где m_{j,i}-j -тый нецентральный момент распределения i -того интервала.

F(t)=\sum_{i=1}^l p_i*F_i(t). ( 3.39)

Подобная формула справедлива для функции плотности:

f(t)=\sum_{i=1}^l p_i*f_i(t).

Взвешенная сумма распределений называется составным распределением.

Стохастическая сумма

Под стохастической суммой мы понимаем сумму стохастических случайных переменных (Feller, 1950 [27]). Рассмотрим группу направлений без перегрузки, где процесс поступления вызовов и времена пребывания в системе стохастически независимы. Если мы рассматриваем фиксированный временной интервал Т, то число поступления заявок - случайная переменная N. Ниже переведены свойства числа N

N: \mbox{ плотность } p(i),\\
\mbox{ средняя величина } m_{1,n} ,\\
\mbox{ дисперсия } \sigma_m^2. ( 3.40)

Число поступлений вызовов i имеет время пребывания в системе Ti Все Ti имеют одно и то же самое распределение, и каждое поступление (запрос) прибавляет некоторое число единиц времени (времени пребывания в системе), которые являются случайными переменными со следующими характеристиками.

N: \mbox{ функция плотности } f(t),\\
\mbox{ средняя величина } m_{1,t},\\
\mbox{ дисперсия } \sigma_t^2. ( 3.41)

Весь объем нагрузки, который получен из-за поступления заявок (запросов), пребывающих в пределах рассматриваемого временного интервала Т, - случайная переменная:

S_T=T_1+T_2+\dots+T_N. ( 3.42)
 Стохастическая сумма может интерпретироваться как комбинация последовательно/параллельных случайных переменных.

Рис. 3.3. Стохастическая сумма может интерпретироваться как комбинация последовательно/параллельных случайных переменных.

Далее мы принимаем, что Т_i, и N стохастически независимы. Это условие выполняется при условии нулевой перегрузки.

Следующие выводы правильны и для дискретных, и для непрерывных случайных переменных (суммирование можно заменить интеграцией или наоборот). Стохастическая сумма становится последовательной и параллельной комбинацией случайных переменных, как показано на рис.3.3. Для данной ветви i мы находим (рис.3.3):

m_{1,i}=i*m_{1,t}, ( 3.43)
\sigma_i^2=i* \sigma_t^2, ( 3.44)
m_{2,i}=i*\sigma_t^2+(i*m_{1,t})^2. ( 3.45)

Суммируя по всем возможным значениям (ветвям) i, мы получаем:

m_{1,s}=\sum_{i=1}^{\infty}p(i)*m_{1,i}\\

\quad=\sum_{i=1}^{\infty}p(i)*i*m_{1,t},\\
m_{1,s}=m_{1,t}*m_{1,n}, ( 3.46)
m_{2,s}=\sum_{i=1}^{\infty}p(i)*m_{2,i}\\

\quad=\sum_{i=1}^{\infty}p(i)*\{i*\sigma_t^2+(i*m_{1,t}^2\},\\
m_{2,s}=m_{1,n}*\sigma_t^2+m_{1,t}^2*m_{2,n}, ( 3.47)
\sigma_s^2=m_{1,n}*\sigma_t^2+m_{1,t}^2*(m_{2,n}-m_{1,n}^2),\\
\sigma_s^2=m_{1,n}*\sigma_t^2+m_{1,t}^2*\sigma_n^2 ( 3.48)

Можно отметить, что есть два элемента, составляющие полную дисперсию: один элемент отображает, что число вызовов - случайная переменная ( \sigma_n^2 ), и второй - что продолжительность вызовов - случайная переменная ( \sigma_t^2 ).

Пример 3.3.1: Специальный случай 1: N = n = constant (m = п)

m_{1,s}=n*m_{1,t},\\
\sigma_s^2=\sigma_t^2*n ( 3.49)

Это соответствует числу вызовов поступющих в одно и то же время, при измерении объема трафика мы можем оценить среднее время удержания.

Пример 3.3.2: Специальный случай 1:T=t = constant (m = t)

m_{1,s}=m_{1,n}*t,\\
\sigma_s^2=t^2*\sigma_n^2. ( 3.50)

Если мы изменяем масштаб от 1 до m_{1,t}, то среднее значение есть произведение m_{1,t} на дисперсию m_{1,t}^2 При среднем числе вызовов m_{1,t}=1 расчет числа вызовов является проблемой.

Пример 3.3.3: Стохастические суммы

Возьмем пример, не относящийся к телетрафику. N будет обозначить число ливневых дождей в течение одного месяца, а Т_i - обозначить количество осадков одного i -того ливня. S_T тогда - случайная переменная, описывающая полное количество осадков в течение месяца.

N может также означать для данного временного интервала число несчастных случаев, зарегистрированных страховой компанией, а T_i -компенсацию за i -ый несчастный случай. S_T тогда - общая сумма, заплаченная компанией в течение рассмотренного периода.

Краткие итоги

  • Все временные интервалы, поступления и обслуживания вызовов (времена блокировки, времена занятости, время занятия Центрального процессора ( CPU )) могут быть выражены неотрицательными случайными переменными.
  • Временной интервал может быть описан случайной переменной Т, которая может быть охарактеризована функцией распределения F(t) .
  • Обычно мы принимаем, что время обслуживания является независимым от времени момента поступления вызова, и что время обслуживания не зависит от времен обслуживания других вызовов.
  • Распределение обычно однозначно определяется всеми его моментами. Средняя величина (математическое ожидание) - это первый момент. Дисперсия - 2-ой центральный момент
  • Мера нерегулярности функции распределения определяется также отклонением распределения от средней величины - коэффициентом вариации, коэффициентом формы Пальма.
  • Фундаментальная характеристика показательного (экспоненциального) распределения называется Марковским или свойством без последействия (при отсутствии памяти (возраста)) - время жизни не зависит от момента поступления заявки.
  • Если мы распределяем коэффициент веса времени "жизни" пропорционально его продолжительности, то средний вес всех временных интервалов становится равным средней величине.
  • Времена обслуживания большого числа вызовов составляют малую долю полной нагрузки (правило Вильфредо Парето). Этот факт можно использовать и предоставлять приоритет коротким задачам без большой задержки более длинных задач.
  • Остаток времени "жизни", отсчитываемый от случайной точки времени, называется прямым временем возвращения.
  • Если вероятность успеха в испытании (например, бросание кубика при игре в кости) равна р, вероятность отказа равняется 1 - р. Число успехов в единственном испытании тогда получается с помощью распределения Бернулли.
  • Средняя величина т_{1,i}. и дисперсия \sigma_t^2 суммы параллельных случайных величин определяется взвешиванием l независимых случайных переменных, где i -тая переменная используется с весовым коэффициентом p_i.
  • Есть два элемента стохастическая суммы, составляющие полную дисперсию: один элемент отображает, что число вызовов - случайная переменная ( \sigma_n^2 ), и второй элемент - что продолжительность вызовов - случайная переменная ( \sigma_t^2 ).
< Лекция 3 || Лекция 4: 12 || Лекция 5 >
Нияз Сабиров
Нияз Сабиров

Здравствуйте. А уточните, пожалуйста, по какой причине стоимость изменилась? Была стоимость в 1 рубль, стала в 9900 рублей.

Елена Сапегова
Елена Сапегова

для получения диплома нужно ли кроме теоретической части еще и практическую делать? написание самого диплома требуется?

Авхьад Нагаев
Авхьад Нагаев
Казахстан
Covalenco Igor
Covalenco Igor
Россия, Киев