Кабардино-Балкарский государственный университет
Опубликован: 20.04.2009 | Доступ: свободный | Студентов: 7784 / 3805 | Оценка: 4.42 / 4.26 | Длительность: 09:40:00
Специальности: Юрист
Лекция 2:

Теоретические основы правовой информатики

< Лекция 1 || Лекция 2: 12 || Лекция 3 >
Аннотация: В лекции рассматриваются основы теоретической правовой информатики, в частности, базовые понятия "код", "шифр", "количество информации", меры информации, логические высказывания и инфологические задачи, понятия алгоритма и данных для алгоритмов.

Рассмотрим основные теоретические понятия и факты информатики, на которых базируется и правовая информатика.

Сообщения измеряются в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах, петабайтах и эксабайтах, реализуются в ЭВМ в битах.

Основные соотношения между единицами измерения сообщений: 1 бит (binary digit – двоичная единица) = 0 или 1; 1 байт = 8 битов; 1 килобайт (1К) = 213 бит; 1 мегабайт (1М) = 223 бит; 1 гигабайт (1Г) = 233 бит; 1 терабайт (1Т) = 243 бит; 1 петабайт (1П) = 253 бит; 1 эксабайт (1Э) = 263 бит.

Код – правило соответствия набора знаков одного множества Х знакам другого множества Y. Если каждому символу Х при кодировании соответствует отдельный знак Y, то это кодирование. Если для каждого символа из Y найдется по некоторому правилу однозначно его прообраз в X, то это правило называется декодированием.

Кодирование – процесс преобразования букв (слов) алфавита X в буквы (слова) алфавита Y.

При представлении сообщений в ЭВМ все символы кодируются байтами (например, стандарт кодирования ASCII) или двумя байтами (стандарт UNICOD).

Сообщение, которое мы хотим передать адресату, назовем открытым сообщением. Зашифрованное сообщение – закрытое сообщение.

Процесс преобразования открытого сообщения в закрытое сообщение и есть шифрование. Если Аоткрытое сообщение, Взакрытое сообщение (шифр), f – правило шифрования, то имеется зависимость вида: f(A)=B.

Правила шифрования должны быть выбраны так, чтобы зашифрованное сообщение можно было бы расшифровать. Однотипные правила объединяются в классы правил и внутри класса определяется некоторый параметр, позволяющий перебирать все такие правила.

Этот параметр называется шифровальным ключом. Ключ, как правило, секретный и сообщается лишь тому, кто должен прочесть зашифрованное сообщение (обладателю ключа).

При кодировании нет такого секретного ключа, так как кодирование ставит целью лишь более сжатое, компактное представление сообщения.

Если kключ, то можно записать f(k(A))=B. Для каждого ключа k, преобразование f(k) должно быть обратимым, то есть f(k(B))=A. Совокупность преобразования f(k) и соответствия множества k называется шифром.

Принцип Кирхгоффа: секретность зашифрованных сообщений определяется секретностью ключа.

Это означает, что если даже алгоритм шифрования будет известен криптоаналитику, тот, тем не менее, не в состоянии будет расшифровать закрытое сообщение, если не располагает соответствующим ключом.

В российских и американских шифрах часто используется 256 -битовый ключ, а число различных ключей (пространство ключей) составляет при этом 2^{256} .

Для измерения количества информации используются различные подходы и методы.

Количество информации – число, адекватно характеризующее структурированность, определенность в оцениваемой системе.

Количество информации часто оценивается в битах.

Рассмотрим меру информации по Р. Хартли.

Пусть известны N состояний системы S ( N опытов с различными, равновозможными, последовательными состояниями системы). Мера разнообразия множества состояний системы задается формулой Р. Хартли:

H=log_2 N\  (бит).

Если во множестве X=$ \left\{x_1,x_2,&\ldots,x_n \right\} $ искать произвольный элемент, то для его нахождения (по Хартли) необходимо иметь не менее log_2n (бит) информации.

Уменьшение Н говорит об уменьшении разнообразия состояний N системы. Увеличение Н говорит об увеличении разнообразия состояний N системы.

Мера Хартли подходит лишь для идеальных систем, так как в реальных системах состояния системы обычно не одинаково осуществимы (не равновероятны).

Для реальных систем используют более подходящую меру К. Шеннона. Мера Шеннона оценивает информацию отвлеченно от ее смысла:

I=-\sum_{i=1}^np_ilog_2p_i,

где n – число состояний системы; р_iвероятность (относительная частота) перехода системы в i -ое состояние, а сумма всех р_i должна равняться 1.

Если все состояния рассматриваемой системы равновозможны, равновероятны, то есть р_i=1/n, то из формулы Шеннона можно получить (как частный случай) формулу Хартли:

I=log_2n
.

В термодинамике известен так называемый коэффициент Больцмана k=1.38X10^{–16} (эрг/град) и формула Больцмана для энтропии или меры хаоса в термодинамической системе:

S=-k\sum_{i=1}^np_iln{p_i}.

Сравнивая выражения для I и S можно заключить, что величину I можно понимать как энтропию из-за нехватки информации в системе (о системе).

< Лекция 1 || Лекция 2: 12 || Лекция 3 >
Владислав Нагорный
Владислав Нагорный

Подскажите, пожалуйста, планируете ли вы возобновление программ высшего образования? Если да, есть ли какие-то примерные сроки?

Спасибо!

Лариса Парфенова
Лариса Парфенова

1) Можно ли экстерном получить второе высшее образование "Программная инженерия" ?

2) Трудоустраиваете ли Вы выпускников?

3) Можно ли с Вашим дипломом поступить в аспирантуру?