Вам бонус- начислено 1 монета за дневную активность. Сейчас у вас 1 монета

18.5. Энтропия и количество информации.

Лекция



Сразу хочу сказать, что здесь никакой воды про энтропия, и только нужная информация. Для того чтобы лучше понимать что такое энтропия, количество информации , настоятельно рекомендую прочитать все из категории Теория информации и кодирования.

В предыдущих 18.5. Энтропия и количество информации. была определена энтропия как мера неопределенности состояния некоторой физической системы. Очевидно, что в результате получения сведений неопределенность системы может быть уменьшена. Чем больше объем полученных сведений, чем они более содержательны, тем больше будет информация о системе, тем менее неопределенным будет ее состояние. Естественно поэтому количество информации измерять уменьшением энтропии той системы, для уточнения состояния которой предназначены сведения.

 

Рассмотрим некоторую систему 18.5. Энтропия и количество информации., над которой производится наблюдение, и оценим информацию, получаемую в результате того, что состояние системы 18.5. Энтропия и количество информации. становится полностью известным. До получения сведений (априори) энтропия системы была 18.5. Энтропия и количество информации.; после получения сведений состояние системы полностью определилось, т. е. энтропия стала равной нулю. Обозначим 18.5. Энтропия и количество информации. информацию, получаемую в результате выяснения состояния системы 18.5. Энтропия и количество информации.. Она равна уменьшению энтропии:

18.5. Энтропия и количество информации.

или

18.5. Энтропия и количество информации.,              (18.5.1)

т. е. количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы.

Представим формулу (18.5.1) в виде:

18.5. Энтропия и количество информации.,               (13.5.2)

где 18.5. Энтропия и количество информации..

Формула (18.5.2) означает, что информация 18.5. Энтропия и количество информации. есть осредненное по всем состояниям системы значение логарифма вероятности состояния с обратным знаком.

Действительно, для получения 18.5. Энтропия и количество информации. каждое значение 18.5. Энтропия и количество информации. (логарифм вероятности 18.5. Энтропия и количество информации.-го состояния) со знаком минус множится на вероятность этого состояния и все такие произведения складываются. Естественно каждое отдельное слагаемое - 18.5. Энтропия и количество информации. рассматривать как частную информацию, получаемую от отдельного сообщения, состоящего в том, что система 18.5. Энтропия и количество информации. находится в состоянии 18.5. Энтропия и количество информации.. Обозначим эту информацию 18.5. Энтропия и количество информации.:

18.5. Энтропия и количество информации..                        (18.5.3)

Тогда информация 18.5. Энтропия и количество информации. представится как средняя (или полная) информация, получаемая от всех возможных отдельных сообщений с учетом их вероятностей. Формула (18.5.2) может быть переписана в форме математического ожидания:

18.5. Энтропия и количество информации.,            (18.5.4)

где буквой 18.5. Энтропия и количество информации. обозначено любое (случайное) состояние системы 18.5. Энтропия и количество информации..

Так как все числа 18.5. Энтропия и количество информации., не больше единицы, то как частная информация так и полная 18.5. Энтропия и количество информации. не могут быть отрицательными.

Если все возможные состояния системы априори одинаково вероятны 18.5. Энтропия и количество информации., то, естественно, частная информация 18.5. Энтропия и количество информации., от каждого отдельного сообщения

18.5. Энтропия и количество информации.

равна средней (полной) информации

18.5. Энтропия и количество информации..

В случае, когда состояния системы обладают различными вероятностями, информации от разных сообщений неодинаковы: наибольшую информацию несут сообщения о тех событиях, которые априори были наименее вероятны. Например, сообщение о том, что 31 декабря в г. Москве выпал снег, несет гораздо меньше информации, чем аналогичное по содержанию сообщение, что 31 июля в г. Москве выпал снег.

Пример 1. На шахматной доске в одной из клеток произвольным образом поставлена фигура. Априори все положения фигуры на доске одинаково вероятны. Определить информацию, получаемую от сообщения, в какой именно клетке находится фигура.

Решение. Энтропия системы 18.5. Энтропия и количество информации. с 18.5. Энтропия и количество информации. равновероятными состояниями равна 18.5. Энтропия и количество информации.; в данном случае

18.5. Энтропия и количество информации. (дв. ед.),

т. е. сообщение содержит 6 двоичных единиц информации. Так как все состояния системы равновероятны, то ту же информацию несет и любое конкретное сообщение типа: фигура находится в квадрате е2.

Пример 2. В условиях примера 1 определить частную информацию от сообщения, что фигура находится в одной из угловых клеток доски.

Решение. Априорная вероятность состояния, о котором сообщается, равна

18.5. Энтропия и количество информации..

Частная информация равна

18.5. Энтропия и количество информации. (дв. ед.).

Пример 3. Определить частную информацию, содержащуюся в сообщении впервые встреченного лица 18.5. Энтропия и количество информации.: «сегодня мой день рождения».

Решение. Априори все дни в году с одинаковой вероятностью могут быть днями рождения лица 18.5. Энтропия и количество информации.. Вероятность полученного сообщения 18.5. Энтропия и количество информации.. Частная информация от данного сообщения

18.5. Энтропия и количество информации. (дв. ед.).

Пример 4. В условиях примера 3 определить полную информацию от сообщения, выясняющего, является ли сегодняшний день днем рождения впервые встреченного лица 18.5. Энтропия и количество информации..

Решение. Система, состояние которой выясняется, имеет два возможных состояния: 18.5. Энтропия и количество информации. - день рождения и 18.5. Энтропия и количество информации. - не день рождения. Вероятности этих состояний 18.5. Энтропия и количество информации.18.5. Энтропия и количество информации..

Полная информация равна:

18.5. Энтропия и количество информации. (дв. ед.).

Пример 5. По цели может быть произведено 18.5. Энтропия и количество информации. независимых выстрелов; вероятность поражения цели при каждом выстреле равна 18.5. Энтропия и количество информации.. После 18.5. Энтропия и количество информации.-го выстрела 18.5. Энтропия и количество информации. производится разведка, сообщающая, поражена или не поражена цель; если она поражена, стрельба по ней прекращается. Определить 18.5. Энтропия и количество информации. из того условия, чтобы количество информации, доставляемое разведкой, было максимально.

Решение. Рассмотрим физическую систему 18.5. Энтропия и количество информации. - цель после 18.5. Энтропия и количество информации.-го выстрела. Возможные состояния системы 18.5. Энтропия и количество информации. будут

18.5. Энтропия и количество информации. - цель поражена;

18.5. Энтропия и количество информации. - цель не поражена.

Вероятности состояний даны в таблице:

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

Очевидно, информация, доставляемая выяснением состояния системы 18.5. Энтропия и количество информации., будет максимальна, когда оба состояния 18.5. Энтропия и количество информации. и 18.5. Энтропия и количество информации. равновероятны:

18.5. Энтропия и количество информации.,

откуда

18.5. Энтропия и количество информации.,

где 18.5. Энтропия и количество информации. - знак двоичного логарифма.

Например, при 18.5. Энтропия и количество информации. получаем (округляя до ближайшего целого числа)

18.5. Энтропия и количество информации..

Если информация выражена в двоичных единицах, то ей можно дать довольно наглядное истолкование, а именно: измеряя информацию в двоичных единицах, мы условно характеризуем ее числом ответов «да» или «нет», с помощью которых можно приобрести ту же информацию. Об этом говорит сайт https://intellect.icu . Действительно, рассмотрим систему с двумя состояниями:

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

Чтобы выяснить состояние этой системы, достаточно задать один вопрос, например: находится ли система в состоянии 18.5. Энтропия и количество информации.? Ответ «да» или «нет» на этот вопрос доставляет некоторую информацию, которая достигает своего максимального значения 1, когда оба состояния априори равновероятны: 18.5. Энтропия и количество информации.. Таким образом, максимальная информация, даваемая ответом «да» или «нет», равна одной двоичной единице.

Если информация от какого-то сообщения равна 18.5. Энтропия и количество информации. двоичным единицам, то она равносильна информации, даваемой 18.5. Энтропия и количество информации. ответами «да» или «нет» на вопросы, поставленные так, что «да» и «нет» одинаково вероятны.

В некоторых простейших случаях для выяснения содержания сообщения действительно удается поставить несколько вопросов так, чтобы ответы «да» и «нет» на эти вопросы были равновероятны. В таких случаях полученная информация фактически измеряется числом таких вопросов.

Если же поставить вопросы точно таким образом не удается, можно утверждать только, что минимальное число вопросов, необходимое для выяснения содержания данного сообщения, не меньше, чем информация, заключенная в сообщении. Чтобы число вопросов было минимальным, нужно формулировать их так, чтобы вероятности ответов «да» и «нет» были как можно ближе к 18.5. Энтропия и количество информации..

Пример 6. Некто задумал любое целое число 18.5. Энтропия и количество информации. от единицы до восьми

18.5. Энтропия и количество информации.,

а нам предлагается угадать его, поставив минимальное число вопросов, на каждый из которых дается ответ «да» или «нет».

Решение. Определяем информацию, заключенную в сообщении, какое число задумано. Априори все значения 18.5. Энтропия и количество информации. от 1 до 8 одинаково вероятны: 18.5. Энтропия и количество информации., и формула (18.5.2) дает

18.5. Энтропия и количество информации..

Минимальное число вопросов, которые нужно поставить для выяснения задуманного числа, не меньше трех.

В данном случае можно, действительно, обойтись тремя вопросами, если сформулировать их так, чтобы вероятности ответов «да» и «нет» были равны.

Пусть, например, задумано число «пять», мы этого не знаем и задаем вопросы:

Вопрос 1. Число 18.5. Энтропия и количество информации. меньше пяти?

Ответ. Нет. (Вывод: 18.5. Энтропия и количество информации. - одно из чисел 5, 6, 7, 8.)

Вопрос 2. Число 18.5. Энтропия и количество информации. меньше семи?

Ответ. Да. (Вывод: 18.5. Энтропия и количество информации. - одно из чисел 5, 6.)

Вопрос 3. Число 18.5. Энтропия и количество информации. меньше шести?

Ответ. Да. (Вывод: число 18.5. Энтропия и количество информации. равно пяти.)

Легко убедиться, что тремя такими (или аналогичными) вопросами можно установить любое задуманное число от 1 до 8.

Таким образом, мы научились измерять информацию о системе 18.5. Энтропия и количество информации., содержащуюся как в отдельных сообщениях о ее состоянии, так и в самом факте выяснения состояния. При этом предполагалось, что наблюдение ведется непосредственно за самой системой 18.5. Энтропия и количество информации.. На практике это часто бывает не так: может оказаться, что система 18.5. Энтропия и количество информации. непосредственно недоступна для наблюдения, и выясняется состояние не самой системы 18.5. Энтропия и количество информации., а некоторой другой системы 18.5. Энтропия и количество информации., связанной с нею. Например, вместо непосредственного наблюдения за воздушными целями на посту управления средствами противовоздушной обороны ведется наблюдение за планшетом или экраном отображения воздушной обстановки, на котором цели изображены условными значками. Вместо непосредственного наблюдения за космическим кораблем ведется наблюдение за системой сигналов, передаваемых его аппаратурой. Вместо текста 18.5. Энтропия и количество информации. отправленной телеграммы получатель наблюдает текст 18.5. Энтропия и количество информации. принятой, который не всегда совпадает с 18.5. Энтропия и количество информации..

Различия между непосредственно интересующей нас системой 18.5. Энтропия и количество информации. и поддающейся непосредственному наблюдению 18.5. Энтропия и количество информации. вообще могут быть двух типов:

1) Различия за счет того, что некоторые состояния системы 18.5. Энтропия и количество информации. не находят отражения в системе 18.5. Энтропия и количество информации., которая «беднее подробностями», чем система 18.5. Энтропия и количество информации..

2) Различия за счет ошибок: неточностей измерения параметров системы 18.5. Энтропия и количество информации. и ошибок при передаче сообщений.

Примером различий первого типа могут служить различия, возникающие при округлении численных данных и вообще при грубом описании свойств системы 18.5. Энтропия и количество информации. отображающей ее системой 18.5. Энтропия и количество информации.. Примерами различий второго типа могут быть искажения сигналов, возникающие за счет помех (шумов) в каналах связи, за счет неисправностей передающей аппаратуры, за счет рассеянности людей, участвующих в передаче информации, и т. д.

В случае, когда интересующая нас система 18.5. Энтропия и количество информации. и наблюдаемая 18.5. Энтропия и количество информации. различны, возникает вопрос: какое количество информации о системе 18.5. Энтропия и количество информации. дает наблюдение системы 18.5. Энтропия и количество информации.?

Естественно определить эту информацию как уменьшение энтропии системы 18.5. Энтропия и количество информации. в результате получения сведений о состоянии системы 18.5. Энтропия и количество информации.:

18.5. Энтропия и количество информации..               (18.5.5)

Действительно, до получения сведений о системе 18.5. Энтропия и количество информации. энтропия системы 18.5. Энтропия и количество информации. была 18.5. Энтропия и количество информации.; после получения сведений «остаточная» энтропия стала 18.5. Энтропия и количество информации., уничтоженная сведениями энтропия и есть информация 18.5. Энтропия и количество информации..

Величину (18.5.5) мы будем называть полной (или средней) информацией о системе 18.5. Энтропия и количество информации., содержащейся в системе 18.5. Энтропия и количество информации..

Докажем, что

18.5. Энтропия и количество информации.,

т. е. из двух систем каждая содержит относительно другой одну и ту же полную информацию.

Для доказательства запишем энтропию системы 18.5. Энтропия и количество информации. согласно теореме на стр. 479, двумя равносильными формулами:

18.5. Энтропия и количество информации.,

18.5. Энтропия и количество информации.,

откуда

18.5. Энтропия и количество информации.,

18.5. Энтропия и количество информации.,

или

18.5. Энтропия и количество информации.,                   (18.5.6)

что и требовалось доказать.

Введем обозначение:

18.5. Энтропия и количество информации.                    (18.5.7)

и будем называть информацию 18.5. Энтропия и количество информации. полной взаимной информацией, содержащейся в системах 18.5. Энтропия и количество информации. и 18.5. Энтропия и количество информации..

Посмотрим, во что обращается полная взаимная информация в крайних случаях полной независимости и полной зависимости систем. Если 18.5. Энтропия и количество информации. и 18.5. Энтропия и количество информации. независимы, то 18.5. Энтропия и количество информации., и

18.5. Энтропия и количество информации.,                            (18.5.8)

т. е. полная взаимная информация, содержащаяся в независимых системах, равна нулю. Это вполне естественно, так как нельзя получить сведений о системе, наблюдая вместо нее другую, никак с нею не связанную.

Рассмотрим другой крайний случай, когда состояние системы 18.5. Энтропия и количество информации. полностью определяет состояние системы 18.5. Энтропия и количество информации. и наоборот (системы эквивалентны). Тогда 18.5. Энтропия и количество информации.:

18.5. Энтропия и количество информации.

и

18.5. Энтропия и количество информации.,               (18.5.9)

т. е. получается случай, уже рассмотренный нами выше (формула (18.5.2)), когда наблюдается непосредственно интересующая нас система 18.5. Энтропия и количество информации. (или, что то же, эквивалентная ей 18.5. Энтропия и количество информации.).

Рассмотрим случай, когда между системами 18.5. Энтропия и количество информации. и 18.5. Энтропия и количество информации. имеется жесткая зависимость, но односторонняя: состояние одной из систем полностью определяет состояние другой, но не наоборот. Условимся называть ту систему, состояние которой полностью определяется состоянием другой, «подчиненной системой». По состоянию подчиненной системы вообще нельзя однозначно определить состояние другой. Например, если система 18.5. Энтропия и количество информации. представляет собой полный текст сообщения, составленного из ряда букв, a 18.5. Энтропия и количество информации. - его сокращенный текст, в котором для сокращения пропущены все гласные буквы, то, читая в сообщении 18.5. Энтропия и количество информации. слово «стл», нельзя в точности быть уверенным, означает оно «стол», «стул», «стал» или «устал».

Очевидно, энтропия подчиненной системы меньше, чем энтропия той системы, которой она подчинена.

Определим полную взаимную информацию, содержащуюся в системах, из которых одна является подчиненной.

Пусть из двух систем 18.5. Энтропия и количество информации. и 18.5. Энтропия и количество информации. подчиненной является 18.5. Энтропия и количество информации.. Тогда 18.5. Энтропия и количество информации., и

18.5. Энтропия и количество информации.,                     (18.5.10)

т. е. полная взаимная информация, содержащаяся в системах, из которых одна является подчиненной, равна энтропии подчиненной системы.

Выведем выражение для информации 18.5. Энтропия и количество информации. не через условную энтропию, а непосредственно через энтропию объединенной системы 18.5. Энтропия и количество информации. и энтропии ее составных частей 18.5. Энтропия и количество информации. и 18.5. Энтропия и количество информации..

Пользуясь теоремой об энтропии объединенной системы (стр. 479), получим:

18.5. Энтропия и количество информации..                                   (18.5.11)

Подставляя это выражение в формулу (18.5.5), получим:

18.5. Энтропия и количество информации.,               (18.5.12)

т. е. полная взаимная информация, содержащаяся в двух системах, равна сумме энтропий составляющих систем минус энтропия объединенной системы.

На основе полученных зависимостей легко вывести общее выражение для полной взаимной информации в виде математического ожидания. Подставляя в (18.5.12) выражения для энтропий:

18.5. Энтропия и количество информации.,       18.5. Энтропия и количество информации.,

18.5. Энтропия и количество информации.,

получим

18.5. Энтропия и количество информации.

или

18.5. Энтропия и количество информации..                       (18.5.13)

Для непосредственного вычисления полной взаимной информации формулу (18.5.13) удобно записать в виде

18.5. Энтропия и количество информации.,               (18.5.14)

где

18.5. Энтропия и количество информации.,

18.5. Энтропия и количество информации.;         18.5. Энтропия и количество информации..

Пример 1. Найти полную взаимную информацию, содержащуюся в системах 18.5. Энтропия и количество информации. и 18.5. Энтропия и количество информации. в условиях примера 1 18.5. Энтропия и количество информации. 18.4.

Решение. Из примера 1 18.5. Энтропия и количество информации. 18.4 с помощью таблицы 7 приложения получим:

18.5. Энтропия и количество информации.;  18.5. Энтропия и количество информации.;  18.5. Энтропия и количество информации.;

18.5. Энтропия и количество информации. (дв. ед.).

Пример 2. Физическая система 18.5. Энтропия и количество информации. может находиться в одном из четырех состояний 18.5. Энтропия и количество информации.; соответствующие вероятности даны в таблице

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

18.5. Энтропия и количество информации.

0,1

0,2

0,4

0,3

При наблюдении за системой 18.5. Энтропия и количество информации. состояния 18.5. Энтропия и количество информации. и 18.5. Энтропия и количество информации. неразличимы; состояния 18.5. Энтропия и количество информации. и 18.5. Энтропия и количество информации. также неразличимы. Сообщение о системе 18.5. Энтропия и количество информации. указывает, находится ли она в одном из состояний 18.5. Энтропия и количество информации. или же в одном из состояний 18.5. Энтропия и количество информации.. Получено сообщение, указывающее, в каком из состояний: 18.5. Энтропия и количество информации. или 18.5. Энтропия и количество информации. - находится система 18.5. Энтропия и количество информации.. Определить информацию, заключенную в этом сообщении.

Решение. В данном примере мы наблюдаем не саму систему 18.5. Энтропия и количество информации., а подчиненную ей систему 18.5. Энтропия и количество информации., которая принимает состояние 18.5. Энтропия и количество информации., когда система 18.5. Энтропия и количество информации. оказывается в одном из состояний 18.5. Энтропия и количество информации. и состояние 18.5. Энтропия и количество информации., когда 18.5. Энтропия и количество информации. оказывается в одном из состояний 18.5. Энтропия и количество информации.. Имеем:

18.5. Энтропия и количество информации.;

18.5. Энтропия и количество информации..

Находим взаимную информацию, т. е. энтропию подчиненной системы:

18.5. Энтропия и количество информации. (дв. ед.).

Энтропия и количество информации.

Главным свойством случайных событий является отсутствие полной уверенности в исходе события, что создает неопределенность опытов, реализующих эти события. Степень неопределенности случайных событий различна. Например, опыт с подбрасыванием монеты. Поскольку степень неопределенности исхода того или иного опыта определяется количеством исходов (восход Солнца, игра в шахматы), то очевидно, что функция, измеряющая эту неопределенность, должна зависеть от числа исходов. Сконструируем функцию, для этого сформулируем требования:

1)    если количество исходов опыта k=1, то степень неопределенности f(1)=0.

2)    чем больше возможных исходов, тем больше степень неопределенности.

Для построения функции рассмотрим сложный опыт:

α — подбрасывание монеты

β — подбрасывание игральной кости.

Благоприятным исходом будем считать одновременное выпадение “герба” и “3”. Потребуем, чтобы к неопределенности первого опыта прибавлялась неопределенность второго опыта. f(αβ)=f(α)+f(β) — этому условно удовлетворяет функция логарифма. Тогда, если опыт имеет k равноверных исходов, то степень неопределенности logak, a=2, f(k)=log2k. f(2)=log22=1 бит — степень неопределенности опыта, имеющих 2 равновесных исхода.

lg10=1 дит; 1 дит=3⅓ бит.

Вероятность: герб — ½, цифра — ½. Рассмотрим какую долю неопределенность вносит в каждый из исходов.

½ log2 2= -½ log2½= - pilog2pi , когда log2 1=1. Если исходы не равновероятные, то H[α]= -∑ki=1 pilog2pi (*). Степень неопределенности опыта α, имеющего k исходов определяется по формуле (*). H — называется энтропией опыта α.

Свойства энтропии:

1) энтропия всегда положительна, H[α]>0

2) при pi à0 или pi à1энтропия стремится к 0, H[α] à0.

3) энтропия достигает максимума, если pi=pj, для любых i,j все исходы равновероятны.

Примеры: 1) имеется 2 урны, в каждой по 20 шаров. В первой урне 10 белых, 5 черных, 5 красных. Во второй урне: 8 белых, 8 черных, 4 красных. Из каждой урны выбирают по шару. Исход каждого из этих опытов следует считать более неопределенно.

1) вероятность: белых - ½, черных — 1/4, красных — 1/4.

2) вероятность: белых — 2/5, черных — 2/5, красных — 1/5.

H[α1]= -½ log2½ - 1/4log21/4 - 1/4log21/4 =½­­­­­­­­+½­­­­­­­­+½­­­­­­­­=1,5 бит.

H[α2]= -2/5 log22/5 — 2/5log22/5 - 1/5log21/5 =1,52 бит.

Ответ: исход второго опыта следует считать более неопределенным на 0,02 бит.

Энтропия определена как мера неопределенности состояния некоторых систем. Очевидно, что в результате получения сообщения знание о состоянии системы увеличивается, при этом степень неопределенности системы уменьшается. Если сообщение несет полную информацию о состоянии системы, то неопределенность становится равной 0. Таким образом величину получаемой информации можно оценить изменением энтропии. Отсюда количество информации об опыте α можно оценить как J[α]=H[α]-Hε[α] (1).

H[α] — начальная энтропия, Hε[α] — остаточная энтропия.

Если получена полная информация об объекте, то J[α]=H[α] (2).

В частном случае, когда pi=pj, для любых i,j, то J[α]= -∑ki=1pilogpi= -k*1/k*log21/k=log2k, т.е. при равновесном исходе J[α]=log2k.

Пожалуйста, пиши комментарии, если ты обнаружил что-то неправильное или если ты желаешь поделиться дополнительной информацией про энтропия Надеюсь, что теперь ты понял что такое энтропия, количество информации и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Теория информации и кодирования

Ответы на вопросы для самопроверки пишите в комментариях, мы проверим, или же задавайте свой вопрос по данной теме.

создано: 2014-09-15
обновлено: 2024-11-13
256



Рейтиг 9 of 10. count vote: 2
Вы довольны ?:


Поделиться:

Найди готовое или заработай

С нашими удобными сервисами без комиссии*

Как это работает? | Узнать цену?

Найти исполнителя
$0 / весь год.
  • У вас есть задание, но нет времени его делать
  • Вы хотите найти профессионала для выплнения задания
  • Возможно примерение функции гаранта на сделку
  • Приорететная поддержка
  • идеально подходит для студентов, у которых нет времени для решения заданий
Готовое решение
$0 / весь год.
  • Вы можите продать(исполнителем) или купить(заказчиком) готовое решение
  • Вам предоставят готовое решение
  • Будет предоставлено в минимальные сроки т.к. задание уже готовое
  • Вы получите базовую гарантию 8 дней
  • Вы можете заработать на материалах
  • подходит как для студентов так и для преподавателей
Я исполнитель
$0 / весь год.
  • Вы профессионал своего дела
  • У вас есть опыт и желание зарабатывать
  • Вы хотите помочь в решении задач или написании работ
  • Возможно примерение функции гаранта на сделку
  • подходит для опытных студентов так и для преподавателей

Комментарии


Оставить комментарий
Если у вас есть какое-либо предложение, идея, благодарность или комментарий, не стесняйтесь писать. Мы очень ценим отзывы и рады услышать ваше мнение.
To reply

Теория информации и кодирования

Термины: Теория информации и кодирования