Notice: Undefined variable: title in /home/area7ru/area7.ru/docs/referat.php on line 164
Реферат: Анализ процесса передачи информации - Рефераты по коммуникациям и связи - скачать рефераты, доклады, курсовые, дипломные работы, бесплатные электронные книги, энциклопедии

Notice: Undefined variable: reklama2 in /home/area7ru/area7.ru/docs/referat.php on line 312

Главная / Рефераты / Рефераты по коммуникациям и связи

Реферат: Анализ процесса передачи информации



Notice: Undefined variable: ref_img in /home/area7ru/area7.ru/docs/referat.php on line 323
I. ИНФОРМАЦИОННЫЕ СИСТЕМЫ СВЯЗИ
Для передачи сигналов электросвязи еще в шестидесятые годы начаты организация и строительство Единой Автоматизированной Сети Связи (ЕАСС).
Она предназначена для удовлетворения потребностей передачи любой информации, преобразованной в сигналы электросвязи.
Термином “информация” с древнейших времен обозначали процесс разъяснения, изложения, истолкования. Позднее так называли и сами сведения и их передачу в любом виде. Еще Ожегов в “Словаре русского языка” термин
“информация” объяснил, как сообщение, осведомляющее о положении дел, состоянии чего-нибудь.
Информация – не только сведения о свойствах объектов и процессов, но и обмен этими сведениями между людьми, человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире, передача признаков от клетки к клетке, от организма к организму. Под информацией нужно понимать не сами объекты и процессы, или их свойства, а представляющие характеристики предметов и процессов, их отражение или отображение в виде чисел, формул, описаний, чертежей, символов, образов и других абстрактных характеристик.
Информационная наука находит применение в самых разнообразных областях. В связи с этим нет всеобщего для всех наук классического определения понятия “информация”. В каждом направлении используют определение ее отдельных составляющих, наиболее важных для данной науки.
Для теории систем информация выступает как мера организации системы. Для теории познания важно, что информация изменяет наши знания. Под информацией понимают не все получаемые сведения, а только те, которые еще не известны и являются новыми для получателя, В этом случае информация является мерой устранения неопределенности. Для машинной обработки информация должна быть представлена в виде сообщений на определенном языке. Специалистам связи важно, что информация-это сведения, являющиеся объектом передачи и обработки.
Структурная схема информационной системы связи представлена на рис.1.
Из рис.1 видно, что информационная система связи состоит из двух подсистем: передачи и обработки информации.
Когда говорят о передаче информации, то имеют в виду только форму сообщения, в которую облечена информация, способ преобразования его сигнал и передачу.
Развитие техники передачи информации связано с развитием теории передачи сигналов (ТПС), поскольку информация непосредственно не передается, а для целей передачи преобразуется в сигналы.
Введение способа измерения количества информации К. Шенноном в конце
40-х годов привело к формированию самостоятельного научного направления под названием “Теория информации”. Параллельно на основе работ В.А.
Котельникова развивалось другое научное направление - теория помехоустойчивости.
Теория информации решала задачу максимизации средней скорости передачи. Главной задачей теории помехоустойчивости является отыскание таких способов передачи и приема, при которых обеспечивалась бы наивысшая достоверность принятого сообщения. Обе задачи являются, по сути различными сторонами одного и того же процесса обработки информации при ее передаче и приеме.
В 1946 и 1956 гг. В.А. Котельниковым были опубликованы работы по оптимальным методам приема и потенциальной помехоустойчивости.
Использование результатов этих работ дало возможность судить о том, насколько данная конкретная аппаратура близка к идеальной по своей способности выделять сигнал из смеси его с помехами.
Первой серьезной работой по теории передачи информации следует считать труд Р.Хартли “Передача информации”, изданный в 1928г. Немало важное значение для теории передачи дискретных сигналов имела работа
Найквиста “Некоторые факторы, воздействующие на скорость телеграфирования”
(1924г.).
Существенным шагом в становлении новой теории передачи информации явилась “Математическая теория связи” К.Шеннона. В этой работе доказана теорема о пропускной способности канала связи. Оказалось, что при скоростях передачи, меньших пропускной способности канала, существуют методы передачи
(кодирования) и приема (декодирования), позволяющие восстановить передаваемый сигнал со сколь угодно малой вероятностью ошибки, несмотря на наличие помех.
Работы В.А. Котельникова и К. Шеннона создали фундамент теории передачи сигналов, которая получила дальнейшее развитие благодаря работам многих ученых по отдельным ее разделам.
II. СИСТЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ
1. Система передачи информации.
Для систем передачи информации важна физическая природа ее восприятия. По этому признаку информация может быть разделена на слуховую, зрительную и “машинную”. Первые два вида соответствуют наиболее емким каналам восприятия информации человеком. Пропускная способность слухового канала составляет тысячи десятичных единиц информации, а зрительного - миллионы. “Машинная” информация предназначена для обработки ЭВМ. Здесь пропускная способность каналов должна согласовываться со скоростью обработки ее машиной – до нескольких десятков миллионов двоичных единиц информации в секунду. С помощью ЭВМ в настоящее время стала возможна обработка слуховой и зрительной информации.
Для передачи информации на расстояние необходимо передать содержащее эту информацию сообщение. Структурная схема систему передачи информации приведена на рис.2.
система передачи информации канал
И К М ДМ ДК П
сигнал информация
Рис.2
Буквами на схеме обозначены следующие устройства:
И – источник;
К – кодер;
М – модулятор;
ДМ – демодулятор;
ДК – декодер;
П – приемник.
Кодер осуществляет отображение генерируемого сообщения в дискретную последовательность.
Модулятор и демодулятор в совокупности реализуют операции по преобразованию кодированного сообщения в сигнал и обратные преобразования.
Декодер отображает дискретную последовательность в копию исходного сообщения.
2. Кодирование и модуляция.
2.1. Кодирование
Идея кодирования возникла давно и преследовала в основном быстроту и секретность передачи информации. В современных условиях кодирование используется и для создания условий, обеспечивающих надежную и экономичную передачу сообщений по каналам связи.
Под кодированием понимают процедуру сопоставления дискретному сообщению вида: ai (i=1, 2, 3, …,к) определенной последовательности кодовых символов, выбираемых из конечного множества различных элементарных кодовых символов: bi (i=1, 2, 3, …,m).
В кодировании используются различные системы счисления.
Из всех систем счисления практическое назначение имеют: двоичная
(R=2), троичная (R=3), четверичная (R=4), восьмеричная (R=8) и десятичная
(R=10). Кроме этих систем, человек издавна пользуется двенадцатиричной системой, отсчитывая время, и шестидесятиричной для отсчета углов. Во всех системах используется различное количество цифр. Например: в двоичной используется две цифры: 0 и 1 (011001). Представление машинных кодов производится в шестнадцатеричной системе счисления, где для кодирования информации используется сочетание цифр (0, 1, 2, …9) и букв (A, B, C, D, E,
F).
В кодировании используются различные типы кодов: равномерный, неравномерный, избыточный, безизбыточный, помехоустойчивый, оптимальный.
Повышение коэффициента использования канала достигается за счет создания оптимального кода, т.е. вероятность встречаемости элементов одинакова.
Базовыми являются коды Морзе и Шеннона - Фанно.
Код Морзе: наиболее часто встречающимся знакам присваиваются наименее короткие и наоборот.
Код Шеннона – Фанно: принцип кодирования состоит в следующем: множество кодируемых знаков разбиваются на две группы, так, чтобы вероятности их встречаемости были одинаковыми (рис.3).
0. 1
0 00 01 1 0 1
0 1 0 110
1
111
Рис.3 0 1 0 1
1000 1001 1010 1011
2.2. Модуляция
Модуляцией называется процесс управления одним или несколькими параметрами несущей (переносчика информации) в соответствии с изменением параметров первичного сигнала. Модулируемый параметр носителя называется информационным. Различают три вида модуляции: амплитудную (АМ), частотную
(ЧМ) и фазовую (ФМ).
В качестве несущей используется не только гармонические, но и импульсные колебания. При этом выбор способов модуляции расширяется до семи видов:
АИМ – амплитудно – импульсная модуляция заключается в том, что амплитуда импульсной несущей изменяется по закону изменения мгновенных значений первичного сигнала.
ЧИМ – частотно – импульсная модуляция. По закону изменения мгновенных значений первичного сигнала изменяется частота следования импульсов несущей.
ВИМ – время – импульсная модуляция, при которой информационным параметром является временной интервал между синхронизирующим импульсом и информационным.
ШИМ – широтно – импульсная модуляция. Заключается в том, что по закону изменения мгновенных значений модулирующего сигнала меняется длительность импульсов несущей.
ФИМ – фазо – импульсная модуляция, отличается от ВИМ методом синхронизации. Сдвиг фазы импульса несущей изменяется не относительно синхронизирующего импульса, а относительно некоторой условной фазы.
ИКМ – импульсно – кодовая модуляция. Ее нельзя рассматривать как отдельный вид модуляции, так как значение модулирующего напряжения представляется в виде кодовых слов.
СИМ – счетно – импульсная модуляция. Является частным случаем ИКМ, при котором информационным параметром является число импульсов в кодовой группе.
3. Параметры системы передачи информации
Как видно из рис.2 система передачи информации состоит из 6 блоков.
Рассмотрим подробнее параметры трех составляющих системы передачи информации: источник информации, сигнал и канал.
Форма представления информации для ее передачи, хранения, обработки или непосредственного использования называется сообщением.
Для передачи информации на расстояние необходимо передать содержащие эту информацию сообщения. Такая передача возможна только с помощью какого
-–либо –материального носителя – источника информации.
Основными параметрами источника информации являются: множество сообщений (, количество информации I(и избыточность (.
3.1. Источник информации
Из одного источника можно передать множество сообщений:
(= (1, (2, (3,... (n, где:
(1 - первый источник
(n - n-ный источник.
Для сравнения между собой различных источников сообщений, а также различных линий и каналов связи нужно ввести количественную меру, которая дала бы возможность объективно оценить информацию, содержащуюся в сообщении и переносимую сигналом. Такая мера впервые была введена американским ученым
К.Шенноном в 1946г.
Информация рассматривается как сообщение об исходе случайных событий, о реализации случайных сигналов. Поэтому количество информации ставится в зависимость от вероятности этих событий.
Если сообщение несет сведения о часто встречающихся событиях, вероятность появления которых стремится к единице, то такое сообщение мало информативно.
Количество информации в сообщении с таких позиций определяется уменьшением неопределенности состояния некоторого процесса. В отношении сигнала, несущего информацию, неопределенность выражается неизвестностью его информационных параметров. Пока сигнал не принят и не определены его информационные параметры, о содержании сообщения можно только догадываться с некоторой вероятностью правдоподобия. После приема сигнала неопределенность в содержании сообщения значительно уменьшается. Если есть гарантия, что при передаче сообщения не возникло искажений сигнала, то неопределенность вообще исчезает. Однако имеется всегда, хотя и малая, вероятность ошибки, так - как без искажений вообще сигнал не может быть передан. Поэтому некоторая неопределенность все – таки остается.
Неопределенность ситуации принято характеризовать величиной, которая называется энтропия. В информатике она характеризует способность источника отдавать информацию. В статической теории информации, учитывающей вероятность появления тех или иных сообщений, энтропия количественно выражается как средняя функция множества вероятностей каждой из возможных реализаций сообщения или несущего сигнала. Исходя из этого, энтропия определяется суммой произведений вероятностей различных реализаций сигнала
Х на логарифм этих вероятностей, взятых с обратным знаком: i=n
H(X)= - S P1 log Pi ,где: i=1
H(X) – энтропия сигнала Х,
Pi – вероятность i – ой реализации случайного сигнала, n - общее возможное количество реализаций.
Использование энтропии в теории информации оказалось очень удобным в силу ее следующих важных свойств: энтропия равна нулю, когда одно из событий достоверно, а другие невозможны; энтропия максимальна, когда все возможные события равновероятны, и растет с увеличением числа равновероятных состояний; энтропия обладает свойством аддитивности, т.е. энтропию независимых систем можно складывать.
Поясним каждое из перечисленных свойств.
Если ситуация полностью ясна, то никакой неопределенности нет, и энтропия в этом случае равна нулю. Например: если ток в цепи равен 10А, то он не может быть одновременно равным 5А.
На этом примере можно пояснить и второе свойство. Если одно из событий ожидается с очень малой вероятностью, например, Р1 = 0,01, а другое с высокой, например, Р2 = 0,99, то неопределенность невелика, т.к. почти наверняка получим второе сообщение.
Если же оба события равновероятны и Р1 = Р2 = 0,5, то уже нет уверенности, что будет получено какое - то из сообщений, т.е. неопределенность возрастает. Очевидно, что неопределенность возрастает, если вместо одного из двух сообщений может прийти одно из трех, четырех и более.
Сообщения источника обладают избыточностью. Дело в том, что отдельные знаки сообщения находятся в определенной статической связи. Так, в словарях русского языка после двух подряд стоящих согласных букв более вероятна гласная, а после трех подряд согласных наверняка будет гласная.
Избыточность позволяет представлять сообщения в более экономной, сжатой форме. Мера возможного сокращения сообщения без потери информации за счет статистических взаимосвязей между его элементами определяется избыточностью. Понятие избыточность применимо не только к сообщениям или сигналам, но и к языку в целом, коду (алфавит любого языка и слова, составленные из его букв, можно рассматривать как код). Например, избыточность европейских языков достигает 60 – 80%.
Наличие избыточности в сообщении часто оказывается полезным и даже необходимым, т.к. позволяет обнаруживать и исправлять ошибки, т.е. повысить достоверность воспроизведения его. Если избыточность в сообщении не используется для повышения достоверности, то она должна быть исключена. Это достигается использованием специального статистического кодирования. При этом избыточность сигнала уменьшается по отношению к избыточности сообщения.
Избыточное кодирование уменьшает неопределенность воспроизведения передаваемого сообщения, т.е. уменьшает ошибки при его приеме.
Избыточностью кода называют разность между средней длинной слова и энтропией.
Избыточность находят следующим образом:
(((((((((, где:
(( - фактическая энтропия,
(( - максимальная энтропия.
3.2. Сигнал
Возможность способа передачи учитывается способом преобразования сообщения в сигнал. В случае электросвязи все виды информации с помощью соответствующих электронных приборов преобразуются в электрические сигналы, отображающие сообщение.
Сигнал – это материально – энергетическая форма представления информации. Другими словами, сигнал – это переносчик информации, один или несколько параметров которого, изменяясь, отображают сообщение.
Цепь “информация – сообщение – сигнал” – это пример процесса обработки, необходимой там, где находится источник информации. На стороне потребителя информации осуществляется обработка в обратном порядке: “сигнал
– сообщение – информация”.
Сигналы в системах электросвязи разделяются на телефонные, телеграфные и телевизионные. Сигналы могут быть: непрерывными (телефонные, телевизионные) или дискретными (телеграфные).
Непрерывным (аналоговым) сигналом называют такой сигнал, у которого в заданном интервале времени можно отсчитать бесконечно большое число значений.
Дискретный сигнал в том же интервале времени имеет конечное число значений. Примером дискретного сигнала является импульсный, т.е. такой, длительность которого соизмерима с длительностью установления переходного процесса в системе, на вход которой он действует.
Существует несколько физических характеристик, общих для любого сигнала.
Физическая характеристика сигнала – это описание любым способом его свойств.
Сигнал может быть характеризован различными параметрами. Для систем передачи имеют важное значение лишь три основных параметра: время передачи
Тс, динамический диапазон изменения мощности сигнала от максимального Рс макс. до минимального Рс мин. значения и ширина полосы частот спектра ?Fс.
Время передачи сигнала Тс характеризуется тем, что для передачи сигнала, несущего большую информацию, при прочих равных условиях, требуется и большее время.
Динамическим диапазоном характеризуют пределы изменения мощности сигнала. Оценивают динамический диапазон логарифмом отношения крайних значений мощности сигнала Рс макс./Рс мин., т.е.
Dc = 10lg(Рс макс./Рс мин.).
Полученное при этом значение динамического диапазона выражается в децибелах (дБ).
Третий параметр – ширина полосы спектра частот сигнала ?Fc также связана с объемом информации, которую несет...

ВНИМАНИЕ!
Текст просматриваемого вами реферата (доклада, курсовой) урезан на треть (33%)!

Чтобы просматривать этот и другие рефераты полностью, авторизуйтесь  на сайте:

Ваш id: Пароль:

РЕГИСТРАЦИЯ НА САЙТЕ
Простая ссылка на эту работу:
Ссылка для размещения на форуме:
HTML-гиперссылка:



Добавлено: 2011.07.08
Просмотров: 1854

Notice: Undefined offset: 1 in /home/area7ru/area7.ru/docs/linkmanager/links.php on line 21

При использовании материалов сайта, активная ссылка на AREA7.RU обязательная!

Notice: Undefined variable: r_script in /home/area7ru/area7.ru/docs/referat.php on line 434