Информатика: аппаратные средства персонального компьютера Яшин Владимир

Предисловие

Учебное пособие предназначено для подготовки специалистов экономического профиля в соответствии с Государственным стандартом в области общих математических и естественно-научных дисциплин по базовой дисциплине «Информатика» (ЕН.Ф.02), предусмотренной учебными планами высших учебных заведений, занимающихся подготовкой специалистов в области экономики.

Основная цель данного учебного пособия – возможность приобретения студентами теоретических и практических знаний в области основ информатики и аппаратных средств персонального компьютера, который является одним из базовых компонентов любой современной информационной системы. Одной из частных целей является преодоление негативной тенденции, связанной с поверхностным рассмотрением вопросов, касающихся аппаратных средств персональных компьютеров. Считается, что в области информационных технологий для специалиста экономического профиля наиболее важны знания в узкой области программного обеспечения, связанного с его непосредственной деятельностью, а вопросы аппаратного обеспечения должны решать за него технические специалисты. С одной стороны, это оправдано, поскольку реализуется принцип разделения труда, но, с другой – технический прогресс в области информатики и информационных технологий требует от специалистов экономического профиля отслеживать состояние и тенденции развития аппаратных средств, поскольку эффективное решение многих экономических задач опирается на аппаратные средства персонального компьютера. Кроме того, многим студентам, обучающимся на различных экономических специальностях, из-за отсутствия соответствующей базовой подготовки по информатике и зачастую в связи с нехваткой времени, бывает достаточно трудно разобраться в сложных вопросах технического устройства персонального компьютера, решение которых нужно искать в различных литературных источниках. В данном учебном пособии обобщены и систематизированы необходимые студентам сведения.

Первая глава посвящена рассмотрению таких понятий, как информация, информационный процесс и информационная система, с современных позиций информатики. Рассмотрены существующие подходы к определению количества информации и единицы ее измерения.

Вторая глава связана с рассмотрением вопросов, касающихся кодирования информации с помощью систем счисления. Рассмотрены системы счисления, применяемые при компьютерной обработке информации, арифметические операции над числами в различных системах счисления, и показано, как кодируются числа в компьютере.

Третья глава посвящена кодированию текстовой и графической информации, показаны способы ее кодирования и их отличия.

В четвертой главе рассмотрены логические основы компьютерной техники: логические переменные и логические операции; основные законы алгебры логики и правила преобразования логических выражений; логические функции и таблицы истинности; логические схемы и их синтез.

В пятой главе, посвященной структурной организации и аппаратным средствам персонального компьютера, рассмотрены вопросы классификации компьютеров, структуры персонального компьютера и его аппаратных средств, определения состава и характеристик оборудования персонального компьютера.

В шестой главе рассматривается компьютерная организация данных и их обработка. Даны основные определения и понятия информации и данных, приведены типы и структуры данных, показана организация данных на устройствах с прямым и последовательным доступом, рассмотрены файлы данных, файловые структуры и системы. Описаны технические средства, используемые в качестве накопителей информации. В конце каждой главы приведены примеры и упражнения для самостоятельного выполнения, которые могут быть использованы при проведении практических занятий.

Для решения задач в многочисленных примерах часто привлекаются различные компьютерные программные средства, приведено их описание и применение. Такой подход способствует формированию убеждения в необходимости оптимального выбора программных и аппаратных средств персонального компьютера при решении конкретных задач, а также позволяет приобрести навыки при работе с этими программными средствами.

Автор выражает глубокую признательность доценту А.А. Тихомирову, профессору В.В. Мотову, доценту В.А. Лукиных, Е.М. Бородавкиной за критические замечания и советы, высказанные в ходе подготовки данного учебного пособия, а также доценту Б.Н. Леонтьеву за поддержку и помощь при его написании.

Глава 1

Информация, информационные процессы и системы

1.1. Понятия информации, информационного процесса и информационной системы

Понятия «информация», «информационный процесс» и «информационная система» являются основополагающими в курсе информатики, поэтому их формирование было и остается сложной проблемой, связанной в первую очередь с различными мировоззренческими подходами как отдельных авторов, так и представителей различных научных направлений и школ. Информация как научная категория – предмет изучения многих научных дисциплин: философии, информатики, физики, биологии и т. д. Информация, материя, энергия являются базовыми научными категориями, для которых не существует строгих научных определений, поэтому их заменяют соответствующими понятиями, и попытки выразить одно базовое понятие через другое нельзя считать успешными. Слово «информация» происходит от латинского слова informatio, что в переводе означает «сведение, ознакомление, разъяснение». Дословная трактовка означает то, что присуще человеческому сознанию и общению и не отражает многообразия свойств информации, которое проявляется не только на уровне общения между людьми, но и на уровне живой и неживой природы, включая и технические устройства, созданные человеком.

Существует достаточно много различных определений понятия «информация», но ни одно из них не может быть принято в качестве основного, поскольку все они отражают только отдельные свойства информации, к которым можно отнести:

• дуализм – свойство информации, которое характеризует ее двойственность. С одной стороны, она объективна, так как не зависит от воспринимаемого ее объекта, а с другой – субъективна, поскольку может трактоваться субъектами по-разному;

• достоверность – свойство информации, которое характеризует степень соответствия информации реальному объекту с заданной точностью;

• адекватность – свойство информации, которое устанавливает соответствие создаваемого с помощью информации образа реальному объекту, процессу или явлению и т. д.

Этот ряд свойств информации может быть продолжен. Однако здесь наиболее важно отметить следующее: совокупность свойств информации, характеризующих степень ее соответствия потребностям пользователей, называется качеством информации [1].

При определении понятия информации целесообразно использовать подход, нашедший применение в теории информации и основанный на введении соответствующих ограничений на совокупность свойств информации, проявляющихся при взаимодействии объектов, организованных в систему.

Введем общее ограничение, при котором будем рассматривать свойства информации, проявляющиеся только на уровне человеческого сознания.

Если не принимать во внимание такие свойства информации, как смысловое содержание, полезность, актуальность и т. д., то при определении понятия информации можно ограничиться только вероятностным (энтропийным) уровнем рассмотрения этого понятия. (Этот уровень рассмотрения называют также синтаксическим.) На данном уровне устанавливаются внешние характеристики информации независимо от ее смыслового содержания и характера использования. При таком рассмотрении под информацией следует понимать меру устранения неопределенности в отношении интересующего нас исхода или, что то же самое, информация есть снятая неопределенность при осуществлении выбора из множества альтернатив.

Если принять во внимание только свойство информации, связанное с ее смысловым содержанием, то при определении понятия информации можно ограничиться смысловым или семантическим уровнем рассмотрения этого понятия. В этом случае под информацией следует понимать меру, связывающую ее смысловое содержание со способностью человека ее осмыслить.

Если принять во внимание только свойство информации, связанное с ее полезностью, то при определении понятия информации можно ограничиться прагматическим уровнем рассмотрения. В этом случае под информацией можно понимать меру достижения потребителем информации (человеком) поставленной практической цели.

Таким образом, принципиально может существовать бесконечно много уровней ограничений и соответственно понятий информации. Данный вывод не содержит противоречий, поскольку учитывает одно из основных свойств информации быть всеобъемлющей. Если постулировать данное свойство, т. е. принять его как всеобщее свойство материи, связанное с отражением (материалистический подход), то можно говорить о существовании информационного поля, для которого необходимо наличие соответствующих условий.

К таким условиям можно отнести наличие:

а)  источника информационного поля;

б)  среды распространения информационного поля (канала передачи);

в)  материальных посредников распространения информационного поля;

г)  приемника информационного поля.

В качестве источника информационного поля могут выступать естественные природные источники, т. е. явления живой и неживой природы, и искусственные источники, созданные человеком. Наличие источника информационного поля – необходимое условие для возникновения и существования информационного поля.

Среда распространения разделяется на среду с распределенными параметрами (естественные природные среды – воздушные, водные и др.) и среду с сосредоточенными параметрами (искусственные каналы передачи), созданные человеком. Наличие среды распространения информационного поля – также необходимое условие для возникновения и существования информационного поля.

В качестве материальных посредников распространения информационного поля можно выделить естественных (природных) и искусственных посредников, к которым можно отнести знаки, сигналы и сообщения. Существует достаточно много определений этих понятий, однако остановимся на их трактовке исходя из представлений, выработанных семиологией – наукой, изучающей знаковые системы.

Знак, или символ, можно рассматривать как некий чувственно воспринимаемый объект, который условно представляет и отсылает к обозначаемому им предмету, явлению, событию или действию. Если придерживаться этого определения, то между знаком (символом) и обозначаемым им предметом (референтом) устанавливается условная связь в виде понятия (референции) об этом предмете, которую можно представить с помощью известного треугольника Огдена и Ричардса (рис. 1.1).

Рис. 1.1. Треугольник Огдена и Ричардса

Связь между знаком и предметом условна (на рис. 1.1 она показана пунктирной линией), поскольку прямой связи между ними нет. В действительности существуют знаки (символы), у которых есть понятия, но нет предмета, например некоторые знаки Зодиака (Водолей, Стрелец), мифологические персонажи (Единорог) и т. д.

Сигнал можно рассматривать как материальный носитель, с помощью которого передаются характеристики информационного поля. В общем случае под сигналом следует понимать физический процесс, представленный в той или иной материально-энергетической форме (электрической, световой, звуковой и т. д.) и распространяющийся в определенной среде. Сигналу как процессу свойственны непрерывность и дискретность во времени, т. е. сигналы могут быть непрерывными или дискретными. Для передачи характеристик информационного поля сигнал как материальный носитель подвергается модуляции, т. е. определенному воздействию со стороны этихарактеристик. Кроме того, на сигнал может воздействовать и сама среда распространения сигнала в виде неблагоприятного воздействия – помехи. Свойства сигналов изучается в отдельном разделе кибернетики – теории сигналов и цепей.

Сообщение можно отнести к основной характеристике информационного поля. Оно является формой представления информационного поля в виде совокупности знаков, которое передается с помощью сигналов от источника к приемнику. Сообщение как форма представления информационного поля подвергается соответствующему кодированию с помощью различных знаковых систем. Примерами сообщений могут быть телеграммы, речь, музыка, телевизионное изображение, данные на выходе вычислительных и измерительных систем и т. д.

В качестве приемника информационного поля могут выступать естественные природные приемники, т. е. объекты живой и неживой природы, и искусственные приемники, созданные человеком и соответствующим образом настроенные на прием. В качестве приемника информационного поля может выступать непосредственно и сам человек. Наличие приемника информационного поля не является необходимым условием для возникновения и существования информационного поля, поскольку оно существует объективно, т. е. независимо от нас, и необязательно подлежит осмыслению.

Таким образом, в общем случае коммуникативный процесс между источником и приемником сообщений можно представить в виде структурной схемы (рис. 1.2).

Рис. 1.2. Коммуникативный процесс между источником и получателем сообщений

В подтверждение тому, что существует много различных понятий информации, приведем еще одно, сформулированное на основе условий существования информационного поля: информация есть свойство информационного поля, которое проявляется при обязательном выполнении всех условий его возникновения и существования.

Говоря об информационном поле, необходимо также заметить, что ему присущи многообразие видов и форм представления, наличие энергетических, геометрических (пространственных), временных и другихарактеристик, а также изменение этихарактеристик под воздействием неблагоприятных факторов (помех).

Многообразие видов информационного поля приводит и к многообразию видов самой информации. Для выявления определенных видов информации необходимо согласно существующим методам классификации применить тот или иной классификационный признак (критерий) для их разграничения. Таких классификационных признаков может быть достаточно много. В табл. 1.1 приведены некоторые из них и соответствующие им виды информации.

Таблица 1.1

Приведенные в табл. 1.1 виды информации могут образовывать иерархические структуры, для которыхарактерно расположение видов информации в порядке от высокого уровня к низкому. Например, по области возникновения (классификационный признак первого уровня) различают: механическую (отражающую процессы и явления неживой природы), биологическую (отражающую процессы и явления живой природы) и социальную (отражающую процессы и явления в человеческом обществе). Социальную информацию в свою очередь по назначению (классификационный признак второго уровня) можно разделить натри вида: массовую, специальную и личную. Если использовать классификационный признак третьего уровня (специфика проявления), то массовый и специальный вид информации можно разделить на подвиды. Так, массовую информацию можно представить в виде общественно-политической и научно-популярной, а специальную – в виде научной, технической, экономической и управляющей [2].

Таким образом, может существовать достаточно много классификационных признаков и соответствующих им видов информации.

Поскольку данное учебное пособие ориентировано в основном на студентов экономических специальностей, приведем здесь одно из определений понятия экономической информации. Экономическая информация – это информация, которая используется при осуществлении функций управления экономическими процессами, т. е. отражает и обслуживает процессы производства, распределения, обмена и потребления материальных благ. Экономическая информация служит основой для осуществления управления процессами в области экономики и обладает рядом характерных свойств: многоцелевым назначением, цикличностью, простотой математических операций, сложностью логических процедур и т. д. [2].

С понятием «информация» тесно связаны такие понятия, как «информационный процесс» и «информационная система». Это также достаточно сложные нормы, трактовка которых далеко не однозначна.

Под информационным процессом в данном случае будем понимать последовательность действий, выполняемых с информацией. К таким действиям можно отнести отбор (восприятие), преобразование, передачу, обработку, хранение и поиск информации.

Кратко охарактеризуем каждое из этих действий (более подробное их описание можно найти в соответствующей литературе [1,3]).

Отбор информации связан с целенаправленным извлечением и анализом информации об объекте, процессе или явлении. Результатом этого отбора являются формирование модели (образа) объекта, процесса или явления, их опознание и оценка. Отбор информации выполняет несколько функций, среди которых можно выделить две важных функции: оценка информации на значимость и сжатие информации [3]. При оценке информации на значимость происходит ее селекция, или информационная фильтрация, результатом которой является отделение полезной информации от информационных шумов (помех). Сжатие информации необходимо для ее представления в компактном виде, позволяющем более эффективно использовать каналы, по которым передается информация, и средства ее хранения.

Преобразование информации включает в себя операции, связанные с нормализацией (приведение к определенным нормам), аналого-цифровым преобразованием, кодированием и т. д. Результатом преобразования информации является материальный носитель (сигнал), представленный в форме, удобной для передачи, обработки и хранения.

Передача информации – важная составляющая информационного процесса, в результате которого происходит транспортировка информации от источника информации к приемнику. Передача осуществляется в среде распространения по соответствующим каналам, имеющим различную физическую природу: электромагнитную, электрическую, оптическую и т. д.

Обработка информации также является важной составляющей информационного процесса. Под обработкой информации можно понимать действия, производимые с информацией по определенным законам (математики, логики, физики и т. д.) и неформальным правилам (опыт, интуиция, здравый смысл и т. д.). Результатом обработки является тоже информация, которая может быть представлена в иных формах (например, упорядоченная по каким-то признакам) или содержать ответы на поставленные вопросы [1]. В случае если процесс обработки подлежит формализации, он может осуществляться техническими средствами, например обработка информации на компьютере.

Хранение информации связано с ее записью на некоторый материальный носитель с целью дальнейшего поиска, извлечения и использования. В качестве таких носителей могут использоваться бумага, магнитная лента, накопители на гибких и жестких магнитных дисках, на оптических и магнитооптических дисках и т. д.

В заключение, говоря об информационном процессе, необходимо отметить, что это не простая последовательность действий, выполняемых с информацией, а их сложная взаимосвязь, взаимопроникновение и развитие. В каждом действии (составляющем процесс информации) можно найти признаки других составляющих: в отборе – преобразование, в хранении – передачу, в передаче – обработку и т. д.

Реализуются информационные процессы в системах, которые называются информационными, при этом под системой в общем случае понимается совокупность объектов и отношений между ними, существующая как единое целое.

Информационные системы также можно классифицировать по различным признакам: по сфере применения, организации информационных процессов, территориальному признаку, степени автоматизации информационных процессов и т. д. Например, по сфере применения информационные системы можно подразделить на административные, экономические, производственные, медицинские и т. д.

Для экономической информационной системы характерными признаками являются: непрерывное развитие, обусловленное появлением новых потребностей, сменой механизма хозяйствования; многоцелевой характер функционирования; присутствие человека как основного элемента системы. Под экономической информационной системой (ЭИС) будем понимать совокупность внутренних и внешних потоков прямой и обратной информационной связи экономического объекта, методов, средств, специалистов, участвующих в процессе обработки информации и выработке управленческих решений [2]. В качестве примера можно привести финансовые, банковские, страховые и тому пободные ЭИС.

1.2. Определение количества информации. Единицы измерения количества информации

Как уже отмечалось, понятие информации можно рассматривать при различных ограничениях, накладываемых на ее свойства, т. е. при различных уровнях рассмотрения. В основном выделяют три уровня – синтаксический, семантический и прагматический. Соответственно на каждом из них для определения количества информации применяют различные оценки.

На синтаксическом уровне для оценки количества информации используют вероятностные методы, которые принимают во внимание только вероятностные свойства информации и не учитывают другие (смысловое содержание, полезность, актуальность и т. д.). Разработанные в середине XX в. математические и, в частности, вероятностные методы позволили сформировать подход к оценке количества информации как к мере уменьшения неопределенности знаний. Такой подход, называемый также вероятностным, постулирует принцип: если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно утверждать, что такое сообщение содержит информацию. При этом сообщения содержат информацию о каких-либо событиях, которые могут реализоваться с различными вероятностями. Формулу для определения количества информации для событий с различными вероятностями и получаемых от дискретного источника информации предложил американский ученый К. Шеннон в 1948 г. Согласно этой формуле количество информации может быть определено следующим образом:

где I – количество информации; N – количество возможных событий (сообщений); piвероятность отдельных событий (сообщений);  – математический знак суммы чисел.

Определяемое с помощью формулы (1.1) количество информации принимает только положительное значение. Поскольку вероятность отдельных событий меньше единицы, то соответственно выражение log^,– является отрицательной величиной и для получения положительного значения количества информации в формуле (1.1) перед знаком суммы стоит знак минус.

Если вероятность появления отдельных событий одинаковая и они образуют полную группу событий, т. е.

то формула (1.1) преобразуется в формулу Р. Хартли:

В формулах (1.1) и (1.2) отношение между количеством информации и соответственно вероятностью, или количеством, отдельных событий выражается с помощью логарифма. Применение логарифмов в формулах (1.1) и (1.2) можно объяснить следующим образом. Для простоты рассуждений воспользуемся соотношением (1.2). Будем последовательно присваивать аргументу N значения, выбираемые, например, из ряда чисел: 1, 2, 4, 8, 16, 32, 64 и т. д. Чтобы определить, какое событие из N равновероятных событий произошло, для каждого числа ряда необходимо последовательно производить операции выбора из двух возможных событий. Так, при N = 1 количество операций будет равно 0 (вероятность события равна 1), при N = 2, количество операций будет равно 1, при N = 4 количество операций будет равно 2, при N = 8, количество операций будет равно 3 и т. д. Таким образом получим следующий ряд чисел: 0, 1, 2, 3, 4, 5, 6 и т. д., который можно считать соответствующим значениям функции I в соотношении (1.2). Последовательность значений чисел, которые принимает аргумент N, представляет собой ряд, известный в математике как ряд чисел, образующих геометрическую прогрессию, а последовательность значений чисел, которые принимает функция I, будет являться ядом, образующим арифметическую прогрессию. Таким образом, логарифм в формулах (1.1) и (1.2) устанавливает соотношение между рядами, представляющими геометрическую и арифметическую прогрессии, что достаточно хорошо известно в математике.

Для количественного определения (оценки) любой физической величины необходимо определить единицу измерения, которая в теории измерений носит название меры. Как уже отмечалось, информацию перед обработкой, передачей и хранением необходимо подвергнуть кодированию. Кодирование производится с помощью специальных алфавитов (знаковых систем). В информатике, изучающей процессы получения, обработки, передачи и хранения информации с помощью вычислительных (компьютерных) систем, в основном используется двоичное кодирование, при котором используется знаковая система, состоящая из двух символов 0 и 1. По этой причине в формулах (1.1) и (1.2) в качестве основания логарифма используется цифра 2.

Исходя из вероятностного подхода к определению количества информации эти два символа двоичной знаковой системы можно рассматривать как два различных возможных события, поэтому за единицу количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза (до получения событий их вероятность равна 0,5, после получения – 1, неопределенность уменьшается соответственно: 1/0,5 = 2, т. е. в 2 раза). Такая единица измерения информации называется битом (от англ. слова binary digit – двоичная цифра). Таким образом, в качестве меры для оценки количества информации на синтаксическом уровне, при условии двоичного кодирования, принят один бит.

Следующей по величине единицей измерения количества информации является байт, представляющий собой последовательность, составленную из восьми бит, т. е.

1 байт = 23 бит = 8 бит.

В информатике также широко используются кратные байту единицы измерения количества информации, однако в отличие от метрической системы мер, где в качестве множителей кратных единиц применяют коэффициент 10n, где п = 3, 6, 9 и т. д., в кратных единицах измерения количества информации используется коэффициент 2n. Выбор этот объясняется тем, что компьютер в основном оперирует числами не в десятичной, а в двоичной системе счисления.

Кратные байту единицы измерения количества информации вводятся следующим образом:

1 Килобайт (Кбайт) = 210 байт = 1024 байт,

1 Мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт,

1 Гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт,

1 Терабайт (Тбайт) = 210 Гбайт = 1024 Гбайт,

1 Петабайт (Пбайт) = 210 Тбайт = 1024 Тбайт,

1 Экзабайт (Эбайт) = 210 Пбайт = 1024 Пбайт.

Единицы измерения количества информации, в названии которых есть приставки «кило», «мега» и т. д., с точки зрения теории измерений не являются корректными, поскольку эти приставки используются в метрической системе мер, в которой в качестве множителей кратных единиц используется коэффициент 10n, где п = 3, 6, 9 и т. д. Для устранения этой некорректности международная организацией International Electrotechnical Commission, занимающаяся созданием стандартов для отрасли электронных технологий, утвердила ряд новых приставок для единиц измерения количества информации: киби (kibi), меби (mebi), гиби (gibi), теби (tebi), пети (peti), эксби (exbi). Однако пока используются старые обозначения единиц измерения количества информации, и требуется время, чтобы новые названия начали широко применяться.

Вероятностный подход используется и при определении количества информации, представленной с помощью знаковых систем. Если рассматривать символы алфавита как множество возможных сообщений N, то количество информации, которое несет один знак алфавита, можно определить по формуле (1.1). При равновероятном появлении каждого знака алфавита в тексте сообщения для определения количества информации можно воспользоваться формулой (1.2).

Количество информации, которое несет один знак алфавита, тем больше, чем больше знаков входит в этот алфавит. Количество знаков, входящих в алфавит, называется мощностью алфавита. Количество информации (информационный объем), содержащееся в сообщении, закодированном с помощью знаковой системы и содержащем определенное количество знаков (символов), определяется с помощью формулы:

где V – информационный объем сообщения; / = log2N, информационный объем одного символа (знака); К – количество символов (знаков) в сообщении; N – мощность алфавита (количество знаков в алфавите).

Поясним вышесказанное в п. 1.2 на примерах.

Пример 1.1

Определим, какое количество информации можно получить после реализации одного из шести событий. Вероятность первого события составляет 0,15; второго – 0,25; третьего – 0,2; четвертого – 0,12; пятого – 0,12; шестого – 0,1, т. е. Р1 = 0,15; Р2 = 0,25; Р3 = 0,2; Р4 = 0,18; Р5 = 0,12; Р6 = 0,1.

Решение.

Для определения количества информации применим формулу (1.1)

Для вычисления этого выражения, содержащего логарифмы, воспользуемся сначала компьютерным калькулятором, а затем табличным процессором Microsoft (MS) Excel, входящим в интегрированный пакет программ MS Office ХР.

Для вычисления с помощью компьютерного калькулятора выполним следующие действия.

С помощью команды: [Кнопка Пуск – Программы – Стандартные – Калькулятор] запустим программу Калькулятор. После запуска программы выполним команду: [Вид – Инженерный] (рис. 1.3).

Рис. 1.3. Инженерный калькулятор

Кнопка log калькулятора производит вычисление десятичного (по основанию 10) логарифма отображаемого числа. Поскольку в нашем случае необходимо производить вычисления логарифмов по основанию 2, а данный калькулятор не позволяет этого делать, то необходимо воспользоваться известной формулой:

logbN = М · logaN,

где

В нашем случае соотношение примет вид: log2N = M log10N,

где

т. е log2N = 3,322 · log10N, и выражение для вычисления количества информации примет вид:

При вычислении на калькуляторе используем кнопки: +/- (изменение знака отображаемого числа),() (открывающие и закрывающие скобки), log (логарифм числа по основанию 10) и т. д. Результат вычисления показан на рис. 1.3. Таким образом, количество информации I = 2,52 бит.

Воспользуемся теперь табличным процессором MS Excel. Для запуска программы Excel выполним команду: [Кнопка Пуск – Программы – MS Office ХР – Microsoft Excel]. В ячейки А1, В1, С1, D1, E1, F1 открывшегося окна Excel запишем буквенные обозначения вероятностей Р1, Р2, P3, Р4, P5, P6 а в ячейку G1 – количество информации I, которое необходимо определить. Для написания нижних индексов у вероятностей Р1 P6 в ячейках А1, В1, С1, D1, E1, F1 выполним следующую команду: [Формат – Ячейки – Шрифт – Видоизменение (поставим флажок напротив нижнего индекса) ]. В ячейки А2, В2, С2, D2, Е2, F2 запишем соответствующие значения вероятностей.

После записи значений в ячейки необходимо установить в них формат числа. Для этого необходимо выполнить следующую команду: [Формат – Ячейки – Число – Числовой (устанавливаем число десятичных знаков, равное двум) ]. Устанавливаем в ячейке G2 тот же числовой формат. В ячейку G2 записываем выражение = – (A2*LOG(A2;2) + B2*LOG(B2;2) + C2*LOG(C2;2) + 2*LOG(D2;2) + E2*LOG(E2;2) + F2*LOG(F2;2) ). После нажатия на клавиатуре компьютера клавиши <Enter>, в ячейке G2 получим искомый результат – I = 2,52 бит (рис. 1.4).

Рис. 1.4. Результат вычисления количества информации

Пример 1.2

Определим, какое количество байт и бит информации содержится в сообщении, если его объем составляет 0,25 Кбайта.

Решение.

С помощью калькулятора определим количество байт и бит информации, которое содержится в данном сообщении:

I = 0,25 Кбайт · 1024 байт/1 Кбайт = 256 байт;

I = 256 байт · 8 бит/1 байт = 2048 бит.

Пример 1.3

Определим мощность алфавита, с помощью которого передано сообщение, содержащее 4096 символов, если информационный объем сообщения составляет 2 Кбайта.

Решение.

С помощью калькулятора переведем информационный объем сообщения из килобайт в биты:

V = 2 Кбайт 1024 байт/1 Кбайт = 2048 байт 8 бит/1 байт  = 16384 бит.

Определим количество бит, приходящееся на один символ (информационный объем одного символа) в алфавите:

I  = 16 384 бит/4096 = 4 бит.

Используя формулу (1.3), определим мощность алфавита (количество символов в алфавите) :

N = 2I = 24 = 16.

Как уже отмечалось, если принять во внимание только свойство информации, связанное с ее смысловым содержанием, то при определении понятия информации можно ограничиться смысловым, или семантическим, уровнем рассмотрения этого понятия.

На семантическом уровне информация рассматривается по ее содержанию, отражающему состояние отдельного объекта или системы в целом. При этом не учитывается ее полезность для получателя информации. На данном уровне изучаются отношения между знаками, их предметными и смысловыми значениями (см. рис. 1.1), что позволяет осуществить выбор смысловых единиц измерения информации. Поскольку смысловое содержание информации передается с помощью сообщения, т. е. в виде совокупности знаков (символов), передаваемых с помощью сигналов от источника информации к приемнику, то широкое распространение для измерения смыслового содержания информации получил подход, основанный на использовании тезаурусной меры. При этом под тезаурусом понимается совокупность априорной информации (сведений), которой располагает приемник информации.

Данный подход предполагает, что для понимания (осмысливания) и использования полученной информации приемник (получатель) должен обладать априорной информацией (тезаурусом), т. е. определенным запасом знаков, наполненных смыслом, слов, понятий, названий явлений и объектов, между которыми установлены связи на смысловом уровне. Таким образом, если принять знания о данном объекте или явлении за тезаурус, то количество информации, содержащееся в новом сообщении о данном предмете, можно оценить по изменению индивидуального тезауруса под воздействием данного сообщения. В зависимости от соотношений между смысловым содержанием сообщения и тезаурусом пользователя изменяется количество семантической информации, при этом характер такой зависимости не поддается строгому математическому описанию и сводится к рассмотрению трех основных условий, при которых тезаурус пользователя:

• стремится к нулю, т. е. пользователь не воспринимает поступившее сообщение;

• стремится к бесконечности, т. е. пользователь досконально знает все об объекте или явлении и поступившее сообщение его не интересует;

• согласован со смысловым содержанием сообщения, т. е. поступившее сообщение понятно пользователю и несет новые сведения.

Два первых предельных случая соответствуют состоянию, при котором количество семантической информации, получаемое пользователем, минимально. Третий случай связан с получением максимального количества семантической информации. Таким образом, количество семантической информации, получаемой пользователем, является величиной относительной, поскольку одно и то же сообщение может иметь смысловое содержание для компетентного и быть бессмысленным для некомпетентного пользователя.

Поэтому возникает сложность получения объективной оценки количества информации на семантическом уровне ее рассмотрения и для получения такой оценки используют различные единицы измерения количества информации: абсолютные или относительные. В качестве абсолютных единиц измерения могут использоваться символы, реквизиты, записи и т. д., а в качестве относительной – коэффициент содержательности, который определяется как отношение семантической информации к ее объему. Например, для определения на семантическом уровне количества информации, полученной студентами на занятиях, в качестве единицы измерения может быть принят исходный балл (символ), характеризующий степень усвояемости ими нового учебного материала, на основе которого можно косвенно определить количество информации, полученное каждым студентом. Это количество информации будет выражено через соответствующий оценочный балл в принятом диапазоне оценок.

При семантическом подходе к оценке количества информации и выборе единицы измерения существенным является вид получаемой информации (сообщения). Так, данный подход к оценке количества экономической информации позволяет выявить составную единицу экономической информации, состоящую из совокупности других единиц информации, связанных между собой по смыслу. Элементарной составляющей единицей экономической информации является реквизит, т. е. информационная совокупность, которая не поддается дальнейшему делению на единицы информации на смысловом уровне. Деление реквизитов на символы приводит к потере их смыслового содержания. Каждый реквизит характеризуется именем, значением и типом. При этом под именем реквизита понимается его условное обозначение, под значением – величина, характеризующая свойства объекта или явления в определенных обстоятельствах, под типом – множество значений реквизита, объединенных определенными признаками и совокупностью допустимых преобразований.

Реквизиты принято делить на реквизиты-основания и реквизиты-признаки [2].

Реквизиты-основания характеризуют количественную сторону экономического объекта, процесса или явления, которые могут быть получены в результате совершения отдельных операций – вычислений, измерений, подсчета натуральных единиц и т. д. В экономических документах к ним можно отнести, например, цену товара, его количество, сумму и т. п. Реквизиты-основания чаще всего выражаются в цифрах, над которыми могут выполняться математические операции.

Реквизиты-признаки отражают качественные свойства экономического объекта, процесса или явления. С помощью реквизитов-признаков сообщения приобретают индивидуальный характер. В экономических документах к ним можно отнести, например, номер документа, имя отправителя, дату составления документа, вид операции и т. п. Реквизиты-признаки позволяют осуществлять логическую обработку единиц количества информации на семантическом уровне: поиск, выборку, группировку, сортировку и т. д.

Отдельный реквизит-основание вместе с относящимися к нему реквизитами-признаками образует следующую в иерархическом отношении составную единицу экономической информации – показатель. Показатель имеет наименование, в состав которого входят термины, обозначающие измеряемый объект: себестоимость, затраты, мощность, прибыль и т. д. Кроме того, показатель содержит формальную характеристику и дополнительные признаки. К формальной характеристике относится способ его получения (объем, сумма, прирост, процент, среднее значение и т. д.), а к дополнительным – пространственно-временные (где находится измеряемый объект, время, к которому относится данный показатель) и метрологические (единицы измерения).

Таким образом, с помощью совокупности реквизитов и соответствующих им показателей можно оценить количество экономической информации, получаемой от исследуемого объекта (источника информации).

Кроме подхода, основанного на использовании тезаурусной меры, при определении количества информации на семантическом уровне находят применение и другие подходы [1]. Например, один из подходов, связанных с семантической оценкой количества информации, заключается в том, что в качестве основного критерия семантической ценности информации, содержащейся в сообщении, принимается количество ссылок на него в других сообщениях. Количество получаемой информации определяется на основе статистической обработки ссылок в различных выборках.

Подводя итог сказанному, можно утверждать, что существовала и существует проблема формирования единого системного подхода к определению информации на семантическом уровне. Это подтверждается и тем, что в свое время для создания строгой научной теории информации К. Шеннон вынужден был отбросить важное свойство информации, связанное со смысловым ее содержанием.

Кроме перечисленных уровней рассмотрения понятия информации достаточно широко используется прагматический уровень. На данном уровне информация рассматривается с точки зрения ее полезности (ценности) для достижения потребителем информации (человеком) поставленной практической цели. Данный подход при определении полезности информации основан на расчете приращения вероятности достижения цели до и после получения получения информации [1]. Количество информации, определяющее ее ценность (полезность), находится по формуле:

где Р0, P1вероятность достижения цели соответственно до и после получения информации.

В качестве единицы измерения (меры) количества информации, определяющей ее ценность, может быть принят 1 бит (при основании логарифма, равном 2), т. е. это такое количество полученной информации, при котором отношение вероятностей достижения цели равно 2.

Рассмотрим три случая, когда количество информации, определяющее ее ценность, равно нулю и когда она принимает положительное и отрицательное значение.

Количество информации равно нулю при Р0 = Р1, т.е. полученная информация не увеличивает и не уменьшает вероятность достижения цели.

Значение информации является положительной величиной при P1 > P0, т. е. полученная информация уменьшает исходную неопределенность и увеличивает вероятность достижения цели.

Значение информации является отрицательной величиной при P1 < P0, т. е. полученная информация увеличивает исходную неопределенность и уменьшает вероятность достижения цели. Такую информацию называют дезинформацией.

Дальнейшее развитие данного подхода базируется на статистической теории информации и теории решений. При этом кроме вероятностныхарактеристик достижения цели после получения информации вводятся функции потерь и оценка полезности информации производится в результате минимизации функции потерь. Максимальной ценностью обладает то количество информации, которое уменьшает потери до нуля при достижении поставленной цели [1].

Упражнения для самостоятельного выполнения

1. Преобразовать формулу (1.1) к виду (1.2) для частного случая, когда события равновероятны (pi = 1/N).

2. Доказать, что количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.

3. По каналу связи передается пять сообщений, вероятность получения первого сообщения составляет 0,3; второго – 0,2; третьего – 0,14, а вероятности получения четвертого и пятого сообщений равны между собой. Какое количество информации мы получим после приема одного из сообщений?

4. Совершаются два события. При каких вероятностях этих событий мы получим минимальное и максимальное количество информации?

5. Какое количество информации несет в себе сообщение о том, что нужная вам компьютерная программа находится на одной из семи дискет?

6. С помощью компьютерного калькулятора заполнить пропуски числами:

а) 2 Кбайт = ___ байт = ___ бит;

б)  ___ Гбайт = 2357 Мбайт = ___ Кбайт;

в)  ___ Кбайт = ___ байт = 14567 бит;

г) 3 Гбайт = __ Мбайт = ___ Кбайт;

д)  ___ Тбайт = 8 Гбайт = ___ Мбайт.

7. Используя программу Excel реализовать таблицы для автоматического расчета пропущенных значений, указанных в упражнении 6.

8. Определить информационную емкость буквы в русском и латинском алфавитах.

9. Сколько символов содержит сообщение, если его информационный объем составляет 1,25 Кбайта и мощность алфавита, с помощью которого записано сообщение, равна 32?

10. Опытный пользователь компьютера может вводить в минуту 110 знаков. Мощность алфавита, используемого в компьютере, равна 256. Какое количество информации в байтах может ввести пользователь в компьютер за 1 и 1,5 минуты?

11. Установить качественную зависимость между мощностью алфавита, сообщением, составленным из символов алфавита, и его информационным объемом.

12. Определить количество информации, определяющее ее ценность, если вероятность достижения цели до получения информации равна 0,5, а после получения информации – 0,3.

Глава 2

Кодирование информации с помощью систем счисления

2.1. Системы счисления

Для записи информации о количестве объектов материального мира используются числа, которые разделяются по определенным признакам. На рис. 2.1 представлена классификация чисел по групповому признаку, когда в каждую группу входят числа, обладающие определенными свойствами.

Рис. 2.1. Классификация чисел

Числа записываются с использованием особых знаковых систем, которые называются системами счисления, в них числа записываются по определенным правилам с помощью символов некоторого алфавита, называемых цифрами.

Все системы счисления делятся на два вида: позиционные и непозиционные. В позиционных системах счисления значение цифры зависит от ее положения в числе, в непозиционных – не зависит. Самой распространенной из непозиционных систем является римская. В качестве цифр в римской системе используются следующие символы: I (1), V (5), X (10), L (50), С (100), D (500), М (1000). Значение цифры в этой системе не зависит от ее положения в числе. Величина числа в римской системе определяется как сумма и разность цифр в числе. Если меньшая цифра стоит слева от большей, то она вычитается, если справа – прибавляется.

Рис. 2.2. Диалоговое окно «Мастер функций – шаг 1 из 2»

Например, число 1997 (десятичная позиционная система счисления) в римской системе счисления будет выглядеть следующим образом: MCMXCVII = 1000 + (1000 – 100) + (100 – 10) + 5 + 1 + 1. Для автоматизации процесса перевода данного числа из десятичной в римскую систему счисления воспользуемся табличным процессором MS Excel.

Для запуска программы MS Excel выполним команду: [Кнопка Пуск  – Программы – MS Office ХР – Microsoft Excel]. В любую из ячеек открывшегося окна Excel введем функцию «Римское», которая и осуществит необходимый перевод. Выполним следующие действия. Выделим, например, ячейку А1 с помощью курсора и выполним следующую команду: [Вставка – Функция]. В открывшемся диалоговом окне «Мастер функций – шаг 1 из 2» (рис. 2.2), установим «Категория: Математические» и выберем функцию «Римское». После нажатия кнопки OK появится диалоговое окно «Аргументы функции», показанное на рис. 2.3. Введем число 1997 в соответствующее поле окна и нажмем кнопку OK.

Рис. 2.3. Диалоговое окно «Аргументы функции»

В результате этих действий получаем в ячейке А1 искомое значение числа 1997 в римской системе счисления (рис. 2.4).

Рис. 2.4. Лист MS Excel «Результат преобразований»

Наибольшее применение при вводе, обработке и выводе информации в компьютере и компьютерных системах нашли позиционные системы счисления, при этом самыми распространенными являются десятичная, двоичная, восьмеричная и шестнадцатеричная системы. В позиционных системах счисления количественное значение цифры зависит от ее позиции в числе. Основание системы равно количеству цифр (знаков ее алфавита) и определяет, во сколько раз различаются значения цифр соседних разрядов числа. В общем случае в позиционной системе счисления любое число, содержащее целую и дробные части, в развернутой форме может быть представлено в виде:

или в рекуррентной форме:

где K – представляемое число; h – основание системы счисления; а – разрядный коэффициент, а = 0, 1, 2, 3…, h-1, т. е. цифры, принадлежащие алфавиту данной системы счисления; i – номер разряда, позиция; п – число целых разрядов числа; т – число дробных разрядов числа.

В десятичной системе счисления формула (2.2) может быть записана следующим образом:

где а = 0, 1, 2, 3…, 9.

Например, число 827 десятичной системы счисления в соответствии с выражением (2.3) можно представить в виде: 827 = 8 · 102 + 2 · 101 + 7 · 100.

Десятичная система исчисления используется в компьютерах для ввода числовых данных и отображения полученного результата. Все внутренние, промежуточные операции компьютер производит в двоичной системе счисления и соотношение (2.2) примет вид:

где а = 0, 1.

Например, число 11001110112 двоичной системы счисления в соответствии с формулой (2.4) можно представить в виде: 1 · 29 + 1 · 28 + 0 · 27 + 0 · 26 + 1 · 25 + 1 · 24 + 1 · 23 + 0 · 22 + 1 · 21 + 1 · 20.

Достаточно широко при компьютерной обработке информации применяются восьмеричная и шестнадцатеричная системы счисления, которые используются, например, для обозначения адресов расположения данных в памяти компьютера и т. д.

Соотношение (2.2) для восьмеричной и шестнадцатеричной системы счисления соответственно примет вид (2.5) и (2.6) :

где а = 0, 1, 2, 3…, 7.

Например, число 14738 восьмеричной системы счисления в соответствии с (2.5) примет вид: 1 · 83 + 4 · 82 + 7 · 81 + 3 · 80.

где а = 0, 1, 2, 3…, 9, A, B, C, D, E, F.

В шестнадцатеричной системе счисления используется шестнадцать цифр, из которых десять цифр арабские (0, 1, 2, 3, 4, 5, 6, 7, 8, 9), а остальные цифры (10, 11, 12, 13, 14, 15) обозначаются буквами латинского алфавита (А = 10, В = 11, С = 12, D = 13, E = 14, F = 15).

Например, число 33B16 шестнадцатеричной системы счисления, в соответствии с (2.6) примет вид: 3 · 162 + 3 · 161 + В · 160 (В = 11).

При операциях с числами, представленными в различных системах счисления, необходимо указывать систему счисления числа, используя нижний индекс, например: 82710 – число 827 в десятичной системе; 11001110112 – число 1100111011 в двоичной системе; 14738 – число 1473 в восьмеричной системе; 33B16 – число 33В в шестнадцатеричной системе счисления.

Преобразование чисел, представленных в двоичной, восьмеричной и шестнадцатеричной системах счисления, в десятичную осуществляется достаточно просто. Для этого необходимо записать число в развернутой форме в соответствии с выражением (2.1) и вычислить его значение. Например:

Преобразование чисел, представленных в десятичной системе счисления, в двоичную, восьмеричную и шестнадцатеричную системы счисления – более сложная процедура, которая может осуществляться различными способами: деления, умножения, вычитания и т. д. При этом необходимо учитывать, что способы перевода целых десятичных чисел и правильных дробей будут различаться. Для перевода целого десятичного числа, например 5310, в двоичную систему можно использовать способ деления, а десятичной правильной дроби, например 0,7510, в двоичную систему – способ умножения. Результаты действий отобразим в соответствующих табл. 2.1 и 2.2.

Таблица 2.1

Таким образом, 5310 = 1101012.

Таблица 2.2

Таким образом, 0,7510 = 0,112.

Перевод чисел из одной системы счисления в другую достаточно просто реализуется с помощью компьютерных программ Калькулятор и MS Excel. Однако следует заметить, что данные программы осуществляют перевод только целых чисел.

Преобразуем число AF16 с помощью компьютерного калькулятора в двоичную, восьмеричную и десятичную системы счисления. Запустим программу Калькулятор с помощью команды: [Кнопка Пуск – Программы – Стандартные – Калькулятор]. После запуска программ выполним команду: [Вид – Инженерный]. У калькулятора имеется четыре опционные кнопки, расположенные слева вверху под индикатором вывода результата вычислений. При активизации кнопки Hex осуществляется преобразование числа, отображаемого в поле ввода, и результата вычислений калькулятора в шестнадцатеричную систему счисления, Dec  – в десятичную,  Oct  – в восьмеричную, Bin – в двоичную систему счисления. Активизируем кнопку Hex и введем число АF16. Последовательно переключая кнопки Bin, Oct и Dec, получим следующие результаты: АF16 = 101011112 = 2578 = 17510. На рис. 2.5 показан результат преобразования числа AF16 в число 2578.

Рис. 2.5. Программа «Калькулятор»

Последовательность действий при преобразовании шестнадцатеричного числа AF16 в двоичную, восьмеричную и десятичную системы счисления с помощью программы MS Excel аналогична преобразованию числа 1997 в римскую систему счисления, но здесь необходимо учесть, что вместо функции «Римское» необходимо использовать функции «ШЕСТН.В.ДВ», «ШЕСТН.В.ВОСЬМ», «ШЕСТН.В.ДЕС» категории «Инженерные» (см. рис. 2.2).

2.2. Арифметические операции над числами, представленными в различных системах счисления

Арифметические операции во всех позиционных системах счисления выполняются по одним и тем же правилам. Для проведения арифметических операций над числами, представленными в различных системах счисления, необходимо предварительно преобразовать их в одну систему счисления и учесть то, что перенос в следующий разряд при операции сложения и заем из старшего разряда при операции вычитания определяется величиной основания системы счисления.

Арифметические операции в двоичной системе счисления основаны на таблицах сложения, вычитания и умножения одноразрядных двоичных чисел.

При сложении двух единиц происходит переполнение разряда и производится перенос единицы в старший разряд, при вычитании 0–1 производится заем из старшего разряда, в таблице «Вычитание» этот заем обозначен 1 с чертой над цифрой.

Ниже приведены примеры выполнения арифметических операций над числами, представленными в различных системах счисления:

Страницы: 12345678 »»

Читать бесплатно другие книги:

В сборник вошли образцовые сочинения по литературе по основным темам, рекомендованным программой для...
Классика деловой литературы, мировой бестселлер и настольная книга амбициозных политиков, менеджеров...
В ходе крупномасштабной спецоперации силами спецназа ГРУ была уничтожена банда эмира Далгата Гаримха...
В основу книги, которую вы сейчас держите в руках, лег опыт организации профессиональных отделов про...
В книге представлены биографические портреты главных героев российской истории....
Как открыть свой автосервис и преуспеть в нем?...