А.П. Алексеев ИНФОРМАТИКА 2015 Учебное пособие Рекомендовано к изданию методическим советом Поволжского государст- венного университета телекоммуникаций и информатики Москва СОЛОН-Пресс 2015 004:004.056(075.8) А47 Рекомендовано к изданию методическим советом ПГУТИ, протокол № 15 от 17 декабря 2014 г. Рецензенты: Заведующий кафедрой компьютерных систем и технологий Шуменского университета им. Епископа Константина Преславского (Болгария), д.т.н, профессор Станев Станимир Стоянов. Профессор кафедры геоинформатики и информационной безопасности Са- марского государственного аэрокосмического университета им. С.П.Королёва (Национального исследовательского университета) д.т.н., про- фессор, Лауреат Государственной Премии СССР Мостовой Яков Анатольевич. Алексеев, А.П. Информатика 2015: учебное пособие/ Алексеев А.П.— 2015. — 400 с., илл. Книга соответствует типовой программе по информатике для высших учебных заведений. Отличительной особенностью публикации является изложение основных принципов, идей, исторического аспекта изла- гаемых вопросов, обзоров по программным продуктам и аппаратным сред- ствам, толкование терминов. Такой подход позволяет сохранить актуаль- ность изученного материала в течение нескольких лет. В книге в компактной форме даны основные понятия информатики, рассмотрены арифметические и логические основы работы ЭВМ, принцип действия важнейших устройств ЭВМ. Дано представление о локальных и глобальных сетях, описана организация данных в ЭВМ, методы сжатия ин- формации, помехоустойчивого кодирования. Дано понятие о вирусах и ан- тивирусных программах. Рассмотрены основные понятия криптографии, стеганографии. Заметный акцент в книге сделан на изложение вопросов защиты информации. ISBN 978-5-91359-158-6 © Алексеев А.П., 2015 © СОЛОН-Пресс, 2015 Введение 3 __________________________________________________________________________________ Посвящается 100-летию со дня рождения отца- Алексеева Петра Андреевича Введение Все должно быть изложено так просто, как только возможно, но не проще. А. Эйнштейн Современный период развития цивилизации характеризуется тем, что человечество переходит от индустриального общества к информационному обществу. Основным перерабатываемым «сырьём» становится информация. Труд современников делается в меньшей степени физическим и в большей степени интеллектуальным. В наиболее развитых странах производство ин- формации и разработка информационных технологий стали одними из са- мых прибыльных и стремительно растущих отраслей. В мире накоплен громадный объем информации, но большинство лю- дей не в состоянии в полном мере воспользоваться этим благом в силу огра- ниченности своих психофизических возможностей и неумения применять новые информационные технологии обработки информации. Самыми мощ- ными усилителями интеллектуальных способностей человека за всю исто- рию развития цивилизации становятся компьютер и глобальные сети, объ- единяющие множество компьютеров. Стремительное развитие прогресса в области создания программных и аппаратных средств приводит к тому, что компьютеры и программы быстро морально устаревают. Пользователь ещё не успевает освоить и половины возможностей практически новой программы, а уже на рынке появляются её следующие более совершенные модификации. И все же в круговерти быстро меняющихся картин есть устойчивые моменты, которые являются основой, фундаментом многих процессов, трамплином, с помощью которого можно быстро достичь новых высот. 4 Введение __________________________________________________________________________________ Неизменной является История. Исторический аспект каждого изу- чаемого вопроса позволяет увидеть тенденцию развития, экстраполировать (перенести) сегодняшнее положение дел на Будущее. Основное внимание в книге автор уделил идеям и принципам — они самые живучие в этом быстро меняющемся мире вычислительной техники. Важными теоретическими аспектами информатики являются ариф- метические и логические основы работы ЭВМ, алгебра логики, понятия о системах счисления. На этих вопросах базируются многие разделы инфор- матики (например, методы архивации, помехоустойчивого кодирования, QR- коды, криптографиия, стеганография). Обилие терминов (их англоязычная основа), неоднозначность их трактовки приводит к тому, что пользователь, начинающий изучать инфор- матику, теряется в джунглях туманных понятий. Автор стремился уделить серьёзное внимание формулировке возможно точных определений (терми- нологии). При работе над книгой автор пытался из большого объёма информа- ции по рассматриваемым вопросам отобрать самое главное, основное. Это должно облегчить студентам сделать первый шаг в освоении бурно разви- вающейся дисциплины. Очевидно, что основным инструментом при изучении информатики является вычислительная машина или устройство, содержащее процессор. По этой причине значительное внимание в публикации уделяется конструк- ции ЭВМ. Рассматриваемый материал был многократно апробирован на лекци- ях, семинарах, конференциях, лабораторных и практических занятиях, мно- гочисленных курсах и в научно-исследовательских работах. Многие разделы книги были опубликованы в научно-технических журналах. Книга четыреж- ды переиздавалась в центральных издательствах [12, 28, 29, 30], рецензиро- валась ведущими специалистами России, получено множество положитель- ных отзывов. Тем не менее, автор хорошо понимает, что досадные ошибки и неточ- ности неизбежны в любой работе. Критические замечания и пожелания про- сим направлять по адресам: [email protected] ICQ 52690147 Основные понятия об информации и информатике 5 __________________________________________________________________________________ 1. Основные понятия В данном разделе даны определения понятиям «информация», «ин- форматика», «информационные технологии», рассмотрены этапы развития вычислительной техники, сферы ее использования, отмечены основные вехи создания Интернета. 1.1. Основные понятия об информации и информатике Два часа убито, информации – полбита. Информация наряду с материей и энергией является первичным поня- тием нашего материального мира. Дать строгое исчерпывающее определе- ние этому термину через другие, более простые понятия, сложно. Это поня- тие остается одним из самых дискуссионных в науке. Тем не менее, сущест- вует несколько определений понятия «информация». Приведем одно из них. Информация — это совокупность каких-либо сведений, данных, пе- редаваемых устно (в форме речи), письменно (в виде текста, таблиц, рисун- ков, чертежей, схем, условных обозначений) либо другим способом (напри- мер, с помощью звуковых или световых сигналов, электрических и нервных импульсов, запахов, вкусовых ощущений, перепадов давления или темпера- туры и т. д.). В середине ХХ века термин «информация» стал общенаучным поня- тием. Этот термин используется для описания процессов обмена сведениями между людьми, человеком и автоматом (например, электронной вычисли- тельной машиной), автоматом и автоматом. Обмен сигналами в животном и растительном мире, передача наследственных признаков от клетки к клетке, от организма к организму также описываются с помощью этого термина. Теоретические и практические вопросы, относящиеся к информации, изучает информатика. Информатика — наука, изучающая структуру и свойства информа- ции, а также вопросы, связанные с ее сбором, хранением, поиском, переда- чей, преобразованием, распространением и использованием в различных сферах человеческой деятельности. Современная информатика коренным образом меняет не только сферу материального производства, но и сферу духовной жизни. 6 Основные понятия об информации и информатике __________________________________________________________________________________ Пристальное внимание к информатике связано с бурным ростом объ- ема человеческих знаний, который порой называют «информационным взрывом». Колоссальный объем информации циркулирует и хранится в глобаль- ной сети Интернет. Человечеством накоплен большой объем информации, обработать которую отдельному человеку вручную затруднительно в силу своих ограниченных психофизических возможностей. Эффективным инст- рументом обработки большого объема информации является электронная вычислительная машина (ЭВМ). Различают две формы представления информации — непрерывную (аналоговую) и прерывистую (цифровую, дискретную). Непрерывная форма характеризует процесс, который не имеет перерывов и теоретически может изменяться в любой момент времени и на любую величину (например, речь человека, музыкальное произведение). Цифровой сигнал может изменяться лишь в определенные моменты времени и принимать лишь заранее обуслов- ленные значения (например, только значения напряжений 0 и 3,5 В). Момен- ты возможного изменения уровня цифрового сигнала задает тактовый гене- ратор конкретного цифрового устройства. Для преобразования аналогового сигнала в цифровой сигнал требуется провести дискретизацию непрерывного сигнала во времени, квантование по уровню, а затем кодирование отобранных значений. Дискретизация — замена непрерывного (аналогового) сигнала после- довательностью отдельных во времени отсчетов этого сигнала [1]. На рисунке схематично показан процесс преобразования аналогового сигнала в цифровой сигнал. Цифровой сигнал в данном случае может при- нимать лишь пять различных уровней. Естественно, что качество такого пре- образования невысокое. Из рисунка видно, что изменение цифрового сигнала возможно лишь в некоторые моменты времени (в данном случае этих момен- тов одиннадцать). Основные понятия об информации и информатике 7 __________________________________________________________________________________ После такого преобразования непрерывный сигнал представляют по- следовательностью чисел. Показанный на рисунке непрерывный сигнал за- меняется числами 2-3-4-4-4-3-2-2-3-4-4. Десятичная система счисления в рас- сматриваемом примере использована лишь для большей наглядности. Фак- тически аналоговый сигнал преобразуют в последовательность единиц и ну- лей. Результаты данного преобразования можно представить таблицей: Десятичные Двоичные Время числа числа t 2 0010 1 t 3 0011 2 t 4 0100 3 t 4 0100 4 t 4 0100 5 t 3 0011 6 t 2 0010 7 t 2 0010 8 t 3 0011 9 t 4 0100 10 t 4 0100 11 Здесь цифровые сигналы представлены четырьмя разрядами двоичных чисел. Очевидно, что, чем больше разрядов у двоичных чисел (то есть чем больше число уровней квантования) и чем чаще во времени осуществляются отсчеты (выборки), тем точнее будет преобразован непрерывный сигнал в цифровой. Образное представление о качестве оцифрованного сигнала дают ки- нофильмы, снятые с разной скоростью. Первые немые фильмы были сняты с частотой 16 кадров в секунду. Из-за низкой частоты съемки некоторые фазы движения объектов терялись, и перемещение персонажей на экране станови- лось комичным, дёрганным. Переход на частоту 24 кадров в секунду сняло эту проблему, движение стало плавным. 8 Основные понятия об информации и информатике __________________________________________________________________________________ Предыдущий рисунок показывает, как влияет частота дискретизации аналого-цифрового преобразования на качество оцифрованного сигнала. В нижней части диаграмм показан исходный аналоговый сигнал (синусоида частотой 1 кГц). В верхней части рисунков изображен сигнал после двойного преобразования при разных значениях частоты дискретизации. В данном случае аналоговый сигнал был вначале преобразован в цифровой, а затем цифровой сигнал обратно конвертирован в аналоговый. Рисунки отличаются использованной частотой дискретизации. В первом случае частота дискрети- зации составляла 8 кГц, во втором – 32 кГц. Из рисунка видно, что с ростом частоты дискретизации качество преобразования улучшается. На качество цифрового сигнала сильно влияет также его разрядность. Первое представление об аналоговом и цифровом способах хранения и распространения информации можно получить, рассматривая два способа записи звуковых сигналов: аналоговую и цифровую аудиозаписи. При аналоговой аудиозаписи непрерывный электрический сигнал, формируемый источником звука на выходе микрофона, с помощью магнит- ной головки наносится на движущуюся магнитную ленту. Недостатком ана- логового способа обработки информации является то, что копия бывает все- гда хуже оригинала. При цифровой аудиозаписи используется процесс выборки, заклю- чающийся в периодическом измерении уровня (громкости, амплитуды) ана- логового звукового сигнала (например, поступающего с выхода микрофона) и превращении полученного значения в последовательность двоичных чисел. Для преобразования аналогового сигнала в цифровой используется специ- альный конвертор, называемый аналогово-цифровой преобразователь (АЦП). Сигнал на выходе АЦП представляет собой последовательность двоичных чисел, которая может быть обработана компьютером. Обратная конверсия цифрового сигнала в непрерывный сигнал осуществляется с помощью циф- роаналогового преобразователя (ЦАП). Качество аналогово-цифрового преобразования характеризует пара- метр, называемый разрешением. Разрешение — это количество уровней квантования, используемых для замены непрерывного аналогового сигнала цифровым сигналом. Восьмиразрядная выборка позволяет получить только Основные понятия об информации и информатике 9 __________________________________________________________________________________ 256 различных уровней квантования цифрового сигнала, а шестнадцатираз- рядная выборка — 65 536 уровней. Еще один показатель качества трансформации непрерывного сигнала в цифровой сигнал — это частота дискретизации — количество преобразо- ваний аналог-цифра (выборок), производимое устройством в одну секунду. Этот показатель измеряют килогерцами (килогерц — тысяча выборок в се- кунду). Типичное значение частоты дискретизации современных лазерных (оптических) аудиодисков — 44,1 кГц. На рисунке показана струк- тура лазерного аудиодиска. Все звуки преобразованы в последова- тельность единиц и нулей, которые на диске выглядят как выступы и впадины. При этом копию можно получить практически такого же качества, как и оригинал. С позиции каждого отдель- ного человека количество инфор- мации, содержащееся в каком-либо сообщении, — субъективная величина. Объективная количественная мера информации может быть введена на основе вероятностной трактовки информационного обмена. Этот способ измерения количества информации впервые предложил в 1948 г. К. Шеннон [2]. В соответствии с идеями К. Шеннона, информация — это сведения, уменьшающие неопределенность (энтропию), существовавшую до их получения. Наименьшей единицей информации является бит (от англ. binary digit — двоичный разряд). Сообщение о том, что произошло одно из двух возможных равновероятных событий, дает получателю один бит информа- ции. Один бит информации получает человек, когда он узнает, опаздывает с прибытием нужный ему поезд или нет, был ночью мороз или нет, присут- ствует на лекции студент Иванов или нет и т. д. Более крупная единица информации — байт — равна 8 бит. Проверка присутствия или отсутствия на лекции 24 студентов дает лектору три байта информации. Еще более крупная единица информации — 1 Кбайт — равна 1024 байтам. Далее — 1 Мбайт равен 1024 Кбайтам, 1 Гбайт равен 1024 Мбайтам, 1 Тбайт равен 1024 Гбайтам, а 1 Пбайт равен 1024 Тбайт. Перечисленные единицы измерения информации произносятся так: Кбайт — килобайт, Мбайт — мегабайт, Гбайт — гигабайт, Тбайт — терабайт, Пбайт — петабайт. 10 Основные понятия теории информации __________________________________________________________________________________ 1.2. Основные понятия теории информации Знаки несут информацию только для получателя, способного их распознать. Теория информации – раздел математики, исследующий процесс хра- нения, преобразования и передачи информации. Теория информации базиру- ется на фундаментальной работе американского инженера и математика Клода Элвуда Шеннона [2], и она тесно сопряжена со статистической теори- ей связи. Согласно теории информации, количество полученных сведений сле- дует рассматривать с учетом понятия неопределенности состояния системы, например, неопределенность состояния системы связи. Вместо термина «не- определенность состояния системы» часто используют эквивалентный тер- мин - «энтропия системы». Под неопределенностью состояния системы связи понимается тот факт, что на приемной стороне получатель информации не знает, какое со- общение пошлет отправитель информации, который находится на передаю- щей стороне системы связи. Лишь после приема сообщения (букв, цифр, символов, звуков, изображения и т.д.) у получателя уменьшается неосведом- ленность относительно содержания передаваемого сообщения. Иначе гово- рят: полученная информация уменьшает энтропию системы. Рассмотрим основные понятия, которые используются в теории ин- формации [1]. Сообщение – это совокупность знаков или первичных сигналов, ото- бражающих ту или иную информацию. Например, текст электронного пись- ма представляет собой совокупность таких знаков, как буквы, цифры, знаки препинания, специальные символы. Примерами сообщений являются: текст телеграммы, текст электронного письма, SMS, MMS данные на выходе ЭВМ, речь, музыка, рисунок, фотография, запись в блоге и т.п. Передача сообщений на расстояние осуществляется с помощью како- го-либо материального носителя (бумаги, магнитных дисков, микросхем па- мяти и т.п.) или физического процесса (звуковых, световых или электромаг- нитных волн и т.п.). Таким образом, информация передается путем обмена между отправителем и получателем материей (бумага, фотоплёнка, лента) или энергией (электромагнитные волны). Физический процесс, несущий пе- редаваемое сообщение, называется сигналом. Сообщения могут быть функциями времени (информация представля- ется в виде первичных сигналов, которыми являются: музыка, речь, видео- изображение, показания датчиков). Сообщения могут не являться функциями