Site icon Евразийский Союз Ученых — публикация научных статей в ежемесячном научном журнале

МЕТОДОЛОГИЧЕСКИЕ АСПЕКТЫ ОРГАНИЗАЦИИ САМОСТОЯТЕЛЬНОЙ РАБОТЫ СТУДЕНТОВ ПО ДИСЦИПЛИНЕ «ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ И КОДИРОВАНИЯ»

В настоящее время необходимо уделять особое внимание решению таких задач, как обеспечение непрерывности образования, его интенсивности, которые могут быть обеспечены только при условии использования новейшей технически обеспеченной и доступной технологии обучения, а также освоения студентами методики организации самостоятельной работы.

В данной статье обобщен опыт организации самостоятельной работы студентов по теме «Вычисление информационных характеристик дискретных систем связи», которая включает в себя четыре раздела:

В настоящее время по-прежнему актуальными остаются проблемы проектирования и анализа систем связи. Студенты направления подготовки 09.03.01 «Информатика и вычислительная техника» (очная форма обучения) изучают дисциплину «Основы теории информации и кодирования» в шестом семестре. Определенные трудности преподавания данной дисциплины вызывает неравномерная недельная учебная нагрузка, а именно, ¾ два часа лекционных занятий и всего один час практических занятий. В этой связи приходится особое внимание уделять эффективной организации самостоятельной работы студентов.

В каждой из академических групп на первом практическом занятии студентам выдается общее задание (коллективный вариант), которое в течение восьми недель (одно практическое занятие в две недели) группа выполняет под руководством преподавателя сообща. На каждом практическом занятии (например, условно, ¾ в нечетную неделю) рассматривается тема одного из очередных разделов (1)…(4).

Аналогичное задание (индивидуальный вариант) выдается каждому студенту для самостоятельных расчетов. Индивидуальное задание по каждому из четырех разделов студент выполняет в течение очередной (условно) нечетной учебной недели после того, как данная тема окажется рассмотренной для коллективного варианта на практическом занятии, а перед очередной лекцией (в четную неделю) сдает его на проверку ведущему преподавателю. Через неделю, на очередном практическом занятии (в следующую нечетную неделю), студент получает проверенное (с оценкой и замечаниями), выполненное самостоятельно индивидуальное задание. При необходимости, во время практического занятия преподавателем проводится анализ типичных ошибок, и группа приступает к выполнению очередного раздела коллективного варианта задания. Далее представленный процесс повторяется по теме каждого из последующих разделов. Параллельно, в четную неделю, студент выполняет домашнее задание по теме очередного раздела, решая задачи из задачника [1].

Выданные на первом практическом занятии коллективный и индивидуальный варианты заданий фактически предполагают поэтапный расчет информационных характеристик дискретной системы связи. Рассмотрим реализацию каждого раздела задания на конкретном учебном примере. Ниже жирным курсивом в тексте выделены замечания, отражающие те моменты, на которые необходимо обратить особое внимание.

  1. Исследование модели канала связи с помощью канальных матриц
    • Постановка задачи к разделу 1

Сообщения передаются от источника сообщений А к приемнику B по каналу связи с помехами. Передаются сообщения из первичного алфавита, состоящего из n букв (пусть n=3) с распределением вероятностей (таблица 1).

Таблица 1. Распределение вероятностей появления букв

                   на выходе источника

Буква ai a1 a2 a3
Вероятность p(ai) 0,215 0,295 0,490

Влияние помех в канале связи полностью описывается канальной матрицей условных вероятностей (1) появления на входе приемника сигнала bk при передаче сигнала ai.

                                  (1)

Это известная задача исследования канала связи со стороны источника сообщений [2, с. 36].

В данном варианте требуется:

Замечание 1. Чтобы обеспечить в академической группе порядка 25 различных вариантов заданий, также ставится задача исследования канала связи со стороны приемника сообщений [2. с. 37] (в этом случае задаются распределение вероятностей p(bk) и матрица условных вероятностей  p(ai/bk)), либо задается матрица p(ai,bk) совместного появления двух событий ai и bk,  i,k=,  с различными значениями вероятностей.

Замечание 2. Следует отметить, что в последнее время уровень математической подготовки абитуриентов и, соответственно, студентов младших курсов, заметно снизился, многие либо не имеют опыта решения задач, либо этот опыт недостаточен. В этой связи студентам предъявляется требование все расчеты выполнять вручную, пользуясь лишь калькулятором (микрокалькулятором).

При выполнении задания первого раздела студенты пользуются следующими известными формулами:

Замечание 3. При вычислении значений элементов этой и других матриц студенты должны вспомнить и реализовать правила округления вещественных чисел. Например, в соответствии с (7) значение вероятности p(a1,b3) вычисляется следующим образом:

p(a1,b3)=p(a1)p(a1/b3)=0,215 0,021=0,0045@0,005.

В таблице 2 представлены результаты вычислений вероятностей появления сигналов bk на входе приемника, вычисленные согласно (8).

Таблица 2. Распределение вероятностей появления

                   букв на входе приемника

Буква bk b1 b2 b3
Вероятность p(bk) 0,231 0,373 0,396

Результаты вычислений значений элементов матрицы условных вероятностей появления на входе приемника сигнала bk при условии, что был передан сигнал ai, согласно  (9):

Замечание 4. При вычислении значений элементов матриц в соответствии с формулами (7) и (9) студенты часто путают номера строк с номерами столбцов.

Значения исходных данных и вычисленные в соответствии с формулами (7)…(9) результаты необходимо проверить с помощью формул (2)…(6). Нетрудно убедиться, что в приведенных расчетах как абсолютная, так и относительная погрешности вычислений равны нулю. Однако, если в формулах (7)…(9) результаты отличны от единицы, необходимо определить значение относительной погрешности, например, для формулы (3) произвести вычисления согласно (10).

                           (10)

Замечание 5. Типичная ошибка: при получении значения погрешности, превышающего предельно допустимое значение, студенты не ищут ошибки вычислений, а лишь регистрируют полученное значение и продолжают процесс вычислений вместо того, чтобы искать ошибки.


  1. Вычисление энтропии систем с конечным множеством состояний
    • Постановка задачи к разделу 2

Используя результаты вычислений первого раздела, вычислить с точностью до четвертого знака следующие значения:

Размерность энтропии ¾ бит/состояние (либо бит/символ, бит/букву и так далее).

При выполнении задания второго раздела студенты пользуются следующими формулами:

Замечание 6. К сожалению, довольно большая часть студентов на первых порах не в состоянии по известному десятичному (или натуральному) логарифму числа N найти его двоичный логарифм.

Замечание 7. При вычислении значений энтропии, а также прочих характеристик студенты должны обязательно представить промежуточные результаты, например, представим процесс вычисления энтропии источника сообщений согласно (11):

H(A)=-[0,215log20,215+0,295log20,295+0,490log20,490]=

=-[0,215(-2,21759)+0,295(-1,76121)+0,490(-1,02914)]=

=-[0,215(-2,2176)+0,295(-1,7612)+0,490 (-1,0291)]=

=0,47678+0,51955+0,50425=0,4768+0,5196+0,5043=1,5007(бит/состояние).

В этом случае облегчается поиск возможных ошибок, внимание студента акцентируется на реализации процесса вычислений.

Приведем итоговые результаты вычислений по формулам (11)…(17).

H(B)=1,5482 бит/состояние;

H1(A,B)=2,3135 бит/2 состояния;

H(A/b1)=0,9617 бит/состояние;

H(A/b2)=1,1054 бит/состояние;

H(A/b3)=0,3324 бит/состояние;

H(B/a1)=0,7830 бит/состояние;

H(B/a2)=0,5022 бит/состояние;

H(B/a3)=1,0069 бит/состояние;

H(A/B)=0,7661 бит/состояние;

H(B/A)=0,8098 бит/состояние.

Ошибки вычислений энтропии можно обнаружить, вычислив значения известных контрольных соотношений

H2(A,B)=H(A)+H(B/A),                                       (18)

H3(A,B)=H(B)+H(A/B)                                        (19)

и относительную погрешность вычислений

     (20)

Если погрешность  превышает предельно допустимое значение, следует искать ошибки вычислений.

  Для рассматриваемого примера значение энтропии сложной системы согласно (18)

H2(A,B)=2,3105 бит/2 состояния,

согласно (19) ¾      H3(A,B)=2,3143 бит/2 состояния,

при этом относительная погрешность вычислений согласно (20) составляет  =0,16%.

Замечание 8. На этом этапе проводится следующий анализ результатов: сравниваются значения энтропии в индивидуальном Hинд(A) и коллективном Hкол(A) вариантах. Известно свойство энтропии принимать максимальное значение, если все состояния ai, , системы A имеют одинаковую вероятность. Следовательно, необходимо вычислить среднеквадратическое отклонение вероятностей p(ai) состояний систем источников от равновероятного значения и, сравнив полученные результаты, объяснить, почему в одном из вариантов энтропия источника имеет большее значение.

Замечание 9. Необходимо обратить внимание, что в процессе вычислений значений энтропии подтвердились некоторые ее свойства:

  1. Вычисление количества информации в сложной системе
    • Постановка задачи к разделу 3

Используя результаты вычислений первого и второго разделов, вычислить с точностью до четвертого знака следующие значения:

Размерность количества информации ¾ бит.

При выполнении задания третьего раздела студенты пользуются следующими формулами:

Приведем итоговые результаты вычислений по формулам (21)…(23).

С целью сокращения объема данной статьи представим значения частной информации I(ai,bk), вычисленных согласно (21), в виде матрицы (24).

        бит.               (24)

Представим результаты вычисления частной информации I(A,bk) согласно (22):

I(A, b1)=0,9998 бит;

I(A, b2)=0,5650 бит;

I(A, b3)=0,7401 бит

и полной информации I1(A, B), вычисленной согласно (23):

I1(A,B)=0,7348 бит.

Ошибки вычислений полной информации I1(A,B) можно обнаружить, вычислив значения известных контрольных соотношений (25)-(27).

I2(A,B)=H(A)-H(A/B);                                         (25)

I3(A,B)=H(B)-H(B/A);                                          (26)

I4(A,B)=H(A)+H(B)-H(A,B)                                (27)

и относительную погрешность вычислений

    (28)

Если погрешность  превышает предельно допустимое значение, следует искать ошибки вычислений.

Для рассматриваемого примера значение полной информации в сложной системе согласно (25)

I2(A,B)=0,7346 бит,

согласно (26) ¾                           I3(A,B)=0,7344 бит,

согласно (27) ¾                           I4(A,B)=0,7354 бит,

при этом относительная погрешность вычислений согласно (28) составляет 

=0,14%.

Замечание 10. При вычислении частной информации I(ai,bk), , по формуле (21) необходимо обратить внимание, что, согласно постановке задачи, точность представления вероятностей задана до третьего знака, поэтому и отношение вероятностей  надо вычислять с точностью до третьего знака, а количество информации ¾ с точностью до четвертого знака.

Замечание 11. Необходимо обратить внимание, что в процессе вычислений количества информации подтвердились некоторые ее свойства:

  1. Вычисление информационных характеристик источника сообщений и канала связи
    • Постановка задачи к разделу 4

Используя результаты предыдущих разделов, вычислить с точностью до четвертого знака значения следующих характеристик:

Принять значение среднего времени t передачи одного символа ai, , равным 0,02мкс.

Сравнить значения вычисленных характеристик со значениями аналогичных характеристик известной системы связи.

При выполнении задания к четвертому разделу студенты пользуются следующими формулами:

Приведем итоговые результаты вычислений по формулам (29)…(35):

D=0,0532;

Hmax=1,5850бит/состояние;

R=36,7300Мбит/с;

C=40,9450Мбит/с;

h=89,70%;

V=50106символ/с;

pош. ср.=0,179;

Hост.=0,6781 бит/состояние.

На этом этапе проводится итоговый анализ результатов.

Замечание 12. Отметим, что анализ выражения (28) приводит к выводу о том, что значение избыточности источника сообщений стремится к нулю, если энтропия источника сообщений стремится к своему максимальному значению. Таким образом, при сравнении значений избыточности источника сообщений в индивидуальном Dинд и коллективном Dкол вариантах можно воспользоваться замечанием 8 и вычислить среднеквадратическое отклонение вероятностей p(ai) состояний систем источников от равновероятного значения и, сравнив полученные результаты, объяснить, почему в одном из вариантов избыточность источника сообщений имеет большее значение.

Замечание 14. Значение средней вероятности ошибочного приема        pош. ср.=0,179 можно интерпретировать следующим образом: из каждых 1000 символов ai,  источника сообщений A, переданных по каналу связи, искажениям подвергаются 179 символов.

Замечание 15. Значение остаточной энтропии Hост.=0,6781 бит/состояние можно оценить, вычислив

                                (36)

где  ¾ доля неснятой в процессе передачи сообщений меры неопределенности H(A) системы источника A. Это большое значение  объясняется, в частности, тем, что при передаче букв a1 и  a2 вероятности верной передачи (p(b1/a1)=0,816 и p(b2/a2)=0,915) ближе к единице, чем вероятность p(b3/a3)=0,766 верной передачи буквы a3, при этом вероятности появления букв a1 и a2 (p(a1)=0,215 и p(a2)=0,295) существенно меньше вероятности появления буквы a3 (p(a3)=0,490)), то есть, буква с большей вероятностью появления на входе канала связи передается с меньшей достоверностью.

На основании полученных значений характеристик исследуемой системы связи можно сделать следующие выводы:

Заключение

Реализация представленного подхода требует от преподавателя больших временных затрат на фронтальную проверку каждого задания каждого студента, однако, учитывая низкий уровень подготовки студентов, эти затраты себя вполне оправдывают. Кроме того, это вполне согласуется с современными требованиями: в процессе организации самостоятельной работы студентов возрастает потребность в тьютерской роли педагогов (тьютер ¾ это педагог, всегда готовый помочь каждому студенту его группы преодолеть индивидуальные затруднения при изучении учебных дисциплин).

У внимательного читателя может возникнуть естественное замечание по поводу того, что при выполнении задания практически не используется компьютер (считается, что компьютерная поддержка организации самостоятельной работы студентов становится абсолютно необходимой). По этому поводу можно высказать следующие возражения:

Список литературы

  1. Цымбал В.П. Задачник по теории информации и кодированию. Москва: изд-во Ленанд, 2014. 280с.
  2. Цымбал В.П. Теория информации и кодирование. Киев: изд-во Вища школа, 1973. 288 с.[schema type=»book» name=»МЕТОДОЛОГИЧЕСКИЕ АСПЕКТЫ ОРГАНИЗАЦИИ САМОСТОЯТЕЛЬНОЙ РАБОТЫ СТУДЕНТОВ ПО ДИСЦИПЛИНЕ «ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ И КОДИРОВАНИЯ»» description=»На примере организации выполнения самостоятельной работы по одной из дисциплин подготовки бакалавров направления 09.03.01 «Информатика и вычислительная техника» иллюстрируются приемы, формирующие у студентов системный подход к решению задач проектирования и исследования систем связи.» author=»Щепин Юрий Николаевич, Козлова Елена Вадимовна» publisher=»БАСАРАНОВИЧ ЕКАТЕРИНА» pubdate=»2017-01-31″ edition=»ЕВРАЗИЙСКИЙ СОЮЗ УЧЕНЫХ_31.10.15_10(19)» ebook=»yes» ]

404: Not Found404: Not Found