5.Реакция элемента системы передачи на δ-импульс. Прохождение детерминированного сигнала через линейный элемент системы передачи. Реакция 4-хполюсника Реакция любого элемента системы передачи (4х-полюсника) на дельта-импульс называется его импульсной характеристикой: Импульсная характеристика полностью характеризует элемент во временной функции:
Если удалось подобрать такой импульс, который в диапазоне частот имеет неизменную форму, то это δ-импульс.
Прохождение сигнала 1 путь: 1)Uвых(jω)=Uвх(jω)*H(jω) 2)Uвых(t)=1/2π 2 путь: -интеграл свертки Сигнал на выходе равен сигналу свертки между u(t) и h(t-τ) cдвинутым на время τ |
6.Дискретизация непрерывных сигналов.Теорема Котельникова.Виды погрешностей.Практическое значение теоремы. Сущность дискретизации заключается в том, что непрерывность во времени функции s(t) заменяется последовательностью коротких импульсов, Шаг дискретизации должен быть таким, чтобы было возможно восстановление непрерывной функции по ее отсчетам с допустимой точностью Теорема: если любой непрерывный сигнал u(t)не содержит частотных составляющих выше частоты F, то он полностью определяется своими отсчетами взятыми через интервалы времени дискретизации Т=1/2F; любой непрерывный сигнал с ограниченным спектром может быть восстановлен по своим отсчетам с помощью ряда Котельникова. –ряд Котельникова является дискретным аналогом интеграла свертки. Погрешности при восстановлении ряда К.: 1)восстановление ведется по конечному числу отсчетов
2)Восстановление не по точным, а по приближенным отсчетам 3)tnTд ,необходимо обеспечить равенство. 4)восстановление ведется по приближенной ф-ии вида sinx/x можно справится со всеми погр., кроме 1) значение: временное разделение каналов(временное уплотнение), можно обеспечить по одной цепи несколько каналов. |
7.Геометрическое представление сигналов: пространство Евклида и пр-во Гильберта, понятие расстояния, нормы. Энергия и норма прямоугольного импульса. Для описания дискретных сигналов - пр-во Евклида(R2);для непрерывных – Гильберта(L2) В математике длину вектора называют его нормой.Пространство называется нормированным если любому вектору однозначно соответствует норма. Во всех функциональных пр-вах определяющим является понятие расстояния. Метрика-правило, по которому задается расстояние. в пр-вах Е и Г метрику определяют через скалярное произведение векторов. норма-длина вектора от начала координат, до заданной точки
–энергия сигнала x(t)-напряжение или ток, измеряемые на сопротивлении в 1 Ом мощность сигнала:
расстояние ;
|
8.Непрерывные сигналы как случайные стационарные процессы. Вероятностные, частотные и временные характеристики случайных сигналов. Теорема Хинчина-Винера Случайный процесс (стохастический) – это случайная функция времени, которая в любой момент принимает различные значения, подчиняющиеся определенному закону распределения. Бывают: Стационарные – процесс, вероятностные характеристики которого не меняются во времени. ->Эргодические – стационарный случайный процесс, вероятностные характеристики которого не зависят от того как они получены. Не стационарные – меняются. Гауссовские – нормальное распределение, не гауссовские. Если наблюдается зависимость от нескольких переменных, (частота, фаза и тд) – это случайное поле. Вероятностные характеристики (моментные функции): 1) - среднее значение сигнала (пост. сост.) 2) - характеризует разброс значений (или ср. мощность случ. процесса) 3) - действительное знач. напр. случайного процесса. 4) - ф-ция автокорреляции, при =0 это дисперсия. Временные и частотные характеристики сл. процессов У сл. процесса мы не можем задать аналитически U(t). U(t)->U(jw) – спектральная плотность; U(w,t) Текущий спектр – ограничивает интервал, получая решение в данный момент. Теорема Хинчина-Винера. Для стационарных случайных процессов можно определить усреднённую за некоторое время t спектральную плотность мощности: Таким образом:Теорема Х.-В.: (спектр мощности) (функция автокорреляции – можем предсказать сл. Процесс) |
||||||||||||||||||||||||
9.Определение вероятности превышения амплитудой нормально распределенной помехи заданного порога. |
10.Определение вероятности ошибки при передаче импульсов постоянного тока в смеси с аддитивной нормально распределенной помехой. |
11.Типы дискретных источников информации, их характеристики. Количество информации в букве сообщения при равновероятности и взаимной независимости букв.Единицы количества информации Сущ. 3 типа дискретных источников информации: 1)с равной вероятностью и взаимной независимостью появления букв 2)с неравной вероятностью и взаимной независимостью 3)с неравной вероятностью и взаимозависимостью(марковские) Характеристики: алфавит {a1, a2, …aN};вероятность появления буквы р(аi); скорость передачи буквы(буква /ед.времени);энтропия(кол-во информации) Н(А)=[бит/букву];производительность-суммарная энтропия сообщений, переданных за единицу времени (бит/е.в.) Кол-во информации: p(ai)=1/N Hmax=log2N=-log2p(ai) бит/букву Единицы кол-ва информации: бит/букву Бит — это двоичный логарифм вероятности равновероятных событий;базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода |
12. Количество информации в букве сообщения при неравной вероятности и взаимной независимости букв. Мера кол-ва информации. Кол-во инф.: - неравновероятность – взаимонезависимость появления букв n - p(ai)=ni/n -кол-во информ. в n-букв.сообщении –среднее кол-во информации Мера кол-ва информации- энтропия |
||||||||||||||||||||||||
17.N-уровневый симметричный канал и его пропускная способность. Каналы с независимыми ошибками и пакетами ошибок. Распределение вероятности ошибки в канале с независимыми ошибками. N-уровневый симметричный канал -два двоичных импульса кодируются одним 2B → 1Q 10 → +1B 01 → -3B 00 → -1B 11 → +3B p(ai) = 1/N; C=max; Hmax = H(A/B) = - C= Каналы с независимыми ошибками Если ошибки распределены равномерно и каждая последующая не зависит от предыдущей-то канал с незав. ошибками. Кош=nош/NΣ=4/4*106=10-6 пример(задача) n=7 pe=Kош=10-6 p1= pe*n(1- pe)n-1=7pe(1- pe)≈7*10-6 p2=C72 pe2(1- pe)7-2 pk= Cnk pek(1- pe)n-k подчиняется биномиальному распределению(закон Бернулли) cпакетами ошибок для описания используются цепи маркова метод перемежения данных-позволяет избавится от действия пакета ошибок(передают по столбцам).чем больше коэффициент перемежения тем лучше
|
|||||||||||||||||||||||||||
13.Количество информации в букве сообщения при неравной вероятности и взаимозависимости букв. энтропия марковского источника. характеризуется алфавитом А-{а1, а2,…, aN} p(ai)≠ p(aj) источник задается:1)матрицей условных вероятностей;
2)графом состояний Выражение для энтропии марковского источника: Среднее кол-во информации кот. будет нести буква, если известно, что предыдущей буквой была а1 –условная энтропия –энтропия марковского источника Hmax >H(A)>HM (A) |
14.Избыточность. Коэффициент сжатия(информативность). Причины избыточности, исключение избыточности статистическим кодированием. Неравенство Крафта. Алгоритм Хаффмана, пример применения. Избыточность-наличие в сообщениибольшего числа букв, чем это необходимо для передачи. D-коэффициент сжатия, показывает на сколько можно сжать сообщ. источника. D=1-E (Сжатие информации в файлах производится за счет устранения избыточности различными способами) Причины избыточности: 1)неравная вероятность появления букв 2)взаимозависимость Для устранения избыточности исп-ся статистическое кодирование(обратимые алгоритмы без потери качества).Принцип: буквы, кот.передаются чаще-короткие комбинации, редко-более длинные. Неравенство Крафта: для сущ. двоичного кода содержащего к по два комбинаций с длинами к{n1, n2 …nk} достаточно, чтобы выполнялось условие Алгоритм Хаффмана: 1.буквы алфавита источника располагаются в порядке убывания вероятности 2.суммируют две наименьшие вероятности 3.от каждой точки откладывают 1 вверх, 0 вниз 4.записать комбинацию справа налево Алгоритм является префиксным(любая комбинация не должна явл. началом любой другой) пример N=5,n=100,nкк≥log2N=3, nрк=300,nст.к=40*1+30*2+15*3+10*4+5*4=205 |
15.дискретный канал передачи информации и его характеристики. Количество информации, передаваемое через канал одной буквой. Пропускная способность канала. Дискретный канал образует совокупность устройств включенных между кодером и декодером(включая их) Любой дискретный канал хар-ся: 1)Алфавит на входе канала: А-{a1,a2,…,an}; Алфавит на выходе канала: А-{b1,b2,…,bk}. За счёт действия помех на вых. и вх. отличаются алфавиты. 2)Способность канала правильно или с ошибкой передавть буквы. для идеального, матрица условной вероятности единичная 3)Среднее кол-во информации передаваемое через канал: R – [бит/букву] 4)Максимальное кол-во информации переносимое буквой через канал- пропускная способность: С=maxR [бит/букву] 5)Вероятности появления букв на вх.канала:P(ai). Кол-во информации, передаваемое через канал связи
ДКПИ-дискретный канал передачи информации P(ai/bj)=-какова вероятность того, что на вх. была буква аi, если на вых. получена bj.(обратно-условная вер-ть) Обратная условная энтропия: Н(А/bj)=-хар-т кол-во информации которое мы можем недополучить из канала. Н(А/В)= [бит/букву]-сред.кол-во инф.,которое теряется из канала из-за помех(ненадежность канала) R=H(A)-H(A/B)-среднее кол-во инф.передаваемое буквой через канал. Пропускная способность. С=maxR=max[H(A)-H(A/B)]=max[H(B)-H(B/A)] |
16.двоичный симметричный канал и его пропускная способность. Характер ошибок в дискретных каналах передачи информации. Способ преобразования пакетов ошибок. ДСК явл-ся наиболее распространенной, самой простой моделью дискретного канала передачи информации. Это канал с двоичным алфавитом на входе и выходе и вероятность перехода 1→0 и от 0→1 – одинакова и равна вероятности ошибки. Дискретный двоично-симметричный канал:
C=maxR=max[H(A)-H(A/B)] бит/букву Пропускная способность : коэффициент ошибки за время измерения. Ошибки: 1) Независимые ошибки – равномерное распределение во времени, независимость их друг от друга. 2) Пакетные ошибки – зависимы друг от друга, неравномерное распределение во времени. Пакет – ошибки, вызванные одним первоначальным источником. метод перемежения данных-позволяет избавится от действия пакета ошибок(передают по столбцам).чем больше коэффициент перемежения тем лучше |
||||||||||||||||||||||||
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.