UkrReferat.com
найбільша колекція україномовних рефератів

Всього в базі: 75838
останнє поновлення: 2016-12-03
за 7 днів додано 10

Реферати на українській
Реферати на російській
Українські підручники

$ Робота на замовлення
Реклама на сайті
Зворотній зв'язок

 

ПОШУК:   

реферати, курсові, дипломні:

Українські рефератиРусские рефератыКниги
НазваПрограми-архіватори WinARJ (реферат)
Авторdimich
РозділІнформатика, компютерні науки
ФорматWord Doc
Тип документуРеферат
Продивилось927
Скачало151
Опис
ЗАКАЧКА
Замовити оригінальну роботу

РЕФЕРАТ

 

на тему:

 

“Програми-архіватори WinARJ”

 

1. Коротка історія розвитку теорії стиснення інформації

 

У сорокових роках учені, що працюють в області інформаційних технологій,

ясно зрозуміли, що можна розробити такий спосіб збереження даних, при

якому простір буде витрачатися більш ощадливо. Клод Шеннон, вивчаючи

нюанси розходжень між семантикою (semantics) (що деяка сутність значить)

і синтаксисом (syntax) (як деяка сутність виражається), розробив

більшість базових понять цієї теорії. Розуміння того, що те саме

значення (семантика) може бути реалізовано різними способами

(синтаксис), приводить до закономірного питання: "Який спосіб вираження

чого-небудь є найбільш економічним?" Пошук відповіді на це питання

привів Шеннона до думки про ентропію, що, простіше говорячи,

співвідноситься з кількістю, що міститься у файлі корисної інформації.

Методи стиску намагаються збільшувати ентропію файлу, тобто зменшувати

довжину файлу, зберігаючи при цьому всю інформацію.

 

Однак, Шеннон не був першим, хто задумувався про сутність інформації і

визначенні її кількості. Перший крок на цьому шляху зробив у 1928 р.

Хартлі. Основний отриманий їм результат можна сформулювати приблизно

так: якщо в заданій безлічі, що містить N елементів, виділений деякий

елемент x, про яке відомо лише, що він належить цій безлічі, то, щоб

знайти x, необхідно одержати кількість інформації, рівне log2 N. Цю

формулу звичайно називають формулою Хартлі.

 

Формула Хартлі є часткою случаємо більш загальної формули Шенона, що

дозволяє знайти кількість інформації у випадковому повідомленні

фіксованого алфавіту. Нехай X1, ..., Xn - символи цього алфавіту, P1,

..., Pn - імовірності їхньої появи в тексті повідомлення, тоді формула

Шеннона приймає вид:

 

H = P1*log2(1/ P1) + ... + Pn*log2(1/ Pn),

 

де H - кількість біт інформації в одному символі повідомлення, чи

ентропія символу повідомлення. Це число показує мінімальне середнє число

біт, необхідних для представлення одного символу алфавіту даного

повідомлення.

 

У деяких випадках алфавіт повідомлення може бути невідомий, тоді

висуваються гіпотези про алфавіт повідомлення. Маючи різні алфавіти,

можна досягти різних коефіцієнтів стиску. Наприклад, текстовий файл,

якщо його розглядати як послідовність бітів, має ентропію порядку 0.7 -

0.9, якщо як послідовність байтів, - 0.5 - 0.7, хоча популярні програми

стиску зменшують розміри текстових файлів до 0.3 - 0.4 від вихідного

розміру.

 

Доказ Шенона не було конструктивним, тобто не містило способу побудови

цих оптимальних кодів, а лише показувало їхнє існування. До появи роботи

Шенона, кодування символів алфавіту при передачі повідомлення по каналах

зв'язку здійснювалося однаковою кількістю біт, одержуваним по формулі

Хартлі. З появою цієї роботи почали з'являтися способи, що кодують

символи різним числом біт у залежності від імовірності появи їхній у

тексті. Наприклад, часто у файлах деякі значення байта зустрічаються

частіше інших. Таким чином, за рахунок використання для кожного значення

байта коду різної довжини можна значно зменшити загальний розмір даних.

-----> Page:

0 [1] [2] [3]

ЗАМОВИТИ ОРИГІНАЛЬНУ РОБОТУ