Информатика. Основные понятия и определения

Содержание

Слайд 2

1. Понятие информатики Информатика – молодая наука, возникшая при первых попытках

1. Понятие информатики

Информатика – молодая наука, возникшая при первых попытках

автоматизации умственной деятельности человека и получившая бурное развитие за последние 30 лет.
Слайд 3

Как отрасль науки Исследует свойства и процессы передачи информации, используя методы

Как отрасль науки

Исследует свойства и процессы передачи информации, используя методы

таких наук, как
психология,
логика,
лингвистика и
математика.

Имеет дело со средствами обработки информации и применяет методы
вычислительной техники,
системотехники,
наук об управлении

Как отрасль техники

Слайд 4

Основная цель информатики – системное изучение всех процессов и средств, которые

Основная цель информатики – системное изучение всех процессов и средств,

которые имеют отношения к обработке информации с использованием ЭВМ.

Информатика – это совокупность научных направлений, изучающих :

свойства информации,
способы ее представления,
передачи и автоматической обработки.

Слайд 5

2. Понятия информации и сообщения. Свойства информации: объективность и субъективность; полнота; достоверность; адекватность; доступность; актуальность.

2. Понятия информации и сообщения.

Свойства информации:
объективность и субъективность;
полнота;
достоверность;

адекватность;
доступность;
актуальность.
Слайд 6

Информация существует в виде: документов, чертежей, рисунков, текстов, звуковых и световых

Информация существует в виде:
документов, чертежей,
рисунков, текстов,
звуковых и световых сигналов,
электрических и

нервных импульсов и т.п.
Информация, зафиксированная в некоторой материальной форме, называется сообщением.
Сообщения могут быть либо непрерывными, либо дискретными, определяя соответственно непрерывный и дискретный способы представления информации.
Слайд 7

Непрерывные сообщения представляются физической величиной, характеризующей процесс, не имеющий перерывов и

Непрерывные сообщения представляются физической величиной, характеризующей процесс, не имеющий перерывов

и промежутков.

Пример:
температура человека в течение дня,
диаметр дерева от возраста
и т.д.

Слайд 8

Дискретные сообщения - это последовательность символов, характеризующая прерывистую, изменяющуюся величину. Пример:

Дискретные сообщения - это последовательность символов, характеризующая прерывистую, изменяющуюся величину.

Пример:
выпуск

мебели за смену,
речь человека (набор звуков и пауз)

С понятием дискретных сообщений тесно связаны понятия:
квантования по уровню
и дискретизации по времени.

Слайд 9

Для дискретных сообщений характерно наличие определенного набора элементов из которых в

Для дискретных сообщений характерно наличие определенного набора элементов из которых в

определенные моменты формируются различные последовательности.
Элементы из которых строятся дискретные сообщения называются символами и образуют алфавит.
Важным является не физическая природа элементов, а то что их набор конечен.
Слайд 10

Пример Для записи какого-либо сообщения на бумаге используется алфавит, содержащий конечный

Пример

Для записи какого-либо сообщения на бумаге используется алфавит, содержащий конечный

набор символов букв, цифр знаков препинания, математических и иных знаков.
Это же сообщение на расстояние может быть передано с помощью коротких и длинных электрических символов (точек и тире в соответствие с кодом Морзе), т.е. с помощью алфавита состоящего всего из двух символов.
Совершенно иной алфавит будет использован для представления этого же сообщения на магнитном или оптическом диске
Слайд 11

3. Понятие кодирования информации. Для передачи информационных сообщений используются различные носители

3. Понятие кодирования информации.

Для передачи информационных сообщений используются различные носители информации

– бумага, электрические или оптические сигналы, магнитные пленки и т.д.
При этом на каждом из них информация представляется с помощью символов различного алфавита.
Процесс преобразования информации из одного алфавита в эквивалентный другой алфавит называется кодированием.
А под носителем информации понимается физическая среда, предназначенная для приема, хранения и передачи информации.
Слайд 12

Основным носителем информации в средствах вычислительной техники (ВТ) являются элементы, которые

Основным носителем информации в средствах вычислительной техники (ВТ) являются элементы, которые

могут находиться в одном из двух состояний ( включено/выключено, высокий/низкий уровень напряжения, есть/нет намагниченность ферромагнитного материала и т.д. )

Условно одно состояние обозначают через “0”,
другое через “1”.
Каждый такой элемент может хранить один двоичный разряд или бит информации
( bit - binary digit )

Слайд 13

Таким образом для представления дискретной информации в средствах ВТ используется алфавит,

Таким образом для представления дискретной информации в средствах ВТ используется алфавит,

состоящий всего лишь из двух символов (цифра 0 и цифра 1) и любое информационное сообщение представляется в виде последовательности нулей и единиц, т.е. в виде цифрового кода.
Бит – это минимальная единица машинной информации.
Совокупность восьми двоичных разрядов образуют байт.
Слайд 14

Байт – основная единица машинной информации, производными от которой являются: 1Кбайт

Байт – основная единица машинной информации, производными от которой являются:
1Кбайт

= 2^10 байт =1024 байт
1Мбайт = 2^10 Кбайт = 1024 Кбайт =
2^20 байт = 1024*1024 байт
1Гбайт = 2^10 Мбайт = 1024 Мбайт =
2^30 байт = 1024*1024*1024 байт

Биты с 0-го по 7-й

Слайд 15

С помощью одного байта можно получить 2^8 = 255 различных двоичных

С помощью одного байта можно получить 2^8 = 255 различных двоичных кодов

(от 00000000 до 11111111).

В любой ЭВМ реализуется кодовая таблица, в которой: - устанавливается соответствие этих кодов символам, отображаемым на дисплее или принтере. - каждому допустимому коду соответствует ровно один символ

Слайд 16

Пример кодовой таблицы Windows

Пример кодовой таблицы Windows

Слайд 17

Кодовые таблицы в большинстве ЭВМ основаны на американской стандартной системе кодировки

Кодовые таблицы в большинстве ЭВМ основаны на американской стандартной системе

кодировки для обмена информацией ASCII (American System Code for International Interchange), которая изначально не содержала символов русского алфавита.

альтернативная кодовая таблица CP-866
международный стандарт ISO 8859
кодовая таблица фирмы Microsoft CP-1251 (кодировка Windows)
кодовая таблица ОС Unix  KOI8-R

Отсутствие стандартов привело к появлению разных таблиц для кодирования русских текстов, среди которых :

Слайд 18

4. Задача, алгоритм и программа. ЭВМ предназначены для решения задач. Если

4. Задача, алгоритм и программа.

ЭВМ предназначены для решения задач. Если определены

исходные данные и задана конкретная цель, то говорят, что поставлена некоторая задача. Различают задачи :
Вычислительные - в этих задачах исходные данные и результат имеют количественные значения
Логические - в них исходные данные и результат принимают значение истина или ложь (True или False)
Информационные - в которых исходные данные и результат представлены набором символьных данных и текстов
Слайд 19

Понятие алгоритма и его свойств Для решения любой задачи необходимо составить

Понятие алгоритма и его свойств

Для решения любой задачи необходимо составить алгоритм.
Под

алгоритмом будем понимать однозначное пошаговое описание действий, выполняемых по строго определенным правилам и приводящее к решению поставленной задачи
Слайд 20

Алгоритм реализуется посредством соединения между собой отдельных вычислительных блоков, выполняющих элементарные

Алгоритм реализуется посредством соединения между собой отдельных вычислительных блоков, выполняющих элементарные

операции

При неизменной структуре ЭВМ алгоритм представляется в виде программы, задающей правило вычисления, как совокупность операций над информацией.

Слайд 21

X = a*b Z = c* d Y = X +

X = a*b
Z = c* d
Y = X + Z
Print “Результат

Y=”; Y

Пример:
Исходные данные: a, b, c, d.
Вычислить: Y=a*b + c* d
Использовать разные способы реализации алгоритма

Программа – это последовательность машинных команд или операторов языка программирования, определяющая порядок действий для решения некоторой задачи.

Слайд 22

5.Классификация средств ВТ и ЭВМ. Среди множества средств ВТ выделяют: Вычислительные

5.Классификация средств ВТ и ЭВМ.

Среди множества средств ВТ выделяют:
Вычислительные приборы –

предназначенные для реализации только отдельных предписаний алгоритма.
Вычислительные машины (ВМ) – технические средства для автоматического преобразования информации в соответствии с заданным алгоритмом, основным признаком которых является хранение алгоритма в ее памяти.
Вычислительная система (ВС)– комплекс средств ВТ, содержащий не менее двух основных процессоров или ЭВМ с единой системой управления, имеющих общую память и общие внешние устройства.
Интеллектуальные машины – технические средства, способные воспринимать только формулировку задачи и без участия человека автоматически разрабатывать и реализовывать алгоритм.
Слайд 23

Вычислительные машины могут строиться на различной физической основе. Различают электромеханические, пневматические,

Вычислительные машины могут строиться на различной физической основе.
Различают электромеханические, пневматические,

электронные, оптические и другие виды ВМ.
Наиболее распространены сейчас электронные ВМ, основу которых составляют электронные элементы и микропроцессоры.
Слайд 24

Классификация ЭВМ Аналоговые ВМ характеризуются тем, что в них исследуемые физические

Классификация ЭВМ

Аналоговые ВМ характеризуются тем, что в них исследуемые физические величины

заменяются другими физическими величинами (обычно напряжением электрического тока), над которыми и производятся все действия. Поэтому говорят, что в АВМ строится модель исследуемого процесса.
Гибридные ЭВМ - используются в качестве встраиваемых в системах управления.
Адаптивные ЭЦВМ – автоматически подстраивают свою структуру под решаемую задачу и обладают повышенными характеристиками производительности и надежности.
Слайд 25

6. Оценка количества информации. Количество информации находится в прямой зависимости от

6. Оценка количества информации.

Количество информации находится в прямой зависимости от степени

ее неожиданности.
Журналист охотится за сенсацией, т.е. за сведениями о которых мало что известно. Следовательно, чем менее вероятно событие, тем оно более информативно.
Некоторые исследователи склонялись к тому, чтобы количество информации (Qi) оценивать в виде
Qi  1 / pi ,
где Qi – количество информации в i – м сообщении, a pi – вероятность возникновения этого сообщения.
Но в этой формуле есть недостаток. Так, если в i – м сообщении нет никакой неожиданности, т.е. сообщение достоверно и количество информации нулевое, то должно бы быть
pi = 1 и Qi =0 .
Однако, согласно приведенной формуле получим Qi  (1 / 1) = 1 , что противоречит здравому смыслу.
Слайд 26

Основатель теории информации К.Шеннон ввел для определения количества информации следующую формулу

Основатель теории информации К.Шеннон ввел для определения количества информации следующую формулу


Qi = log 1 / pi = - log pi .
Действительно в этом случае если pi = 1 , то и
- log 1 = 0 .
Если о каком-либо объекте можно получить не одно, а N сведений, каждое из которых поступает с вероятностью p1, p2, … , pN , то оценивают среднее количество информации об объекте


Величина H называется энтропией объекта. Эта мера неопределенности, содержащаяся во всех сведениях об объекте.