Информатика_Начало


Предмет ИНФОРМАТИКА
Становление информатики как научной дисциплины относится к 60-м годам прошлого столетия.
В самом общем смысле под информатикой понимают фундаментальную естественную науку, изучающую процессы передачи, накопления и обработки информации с помощью средств вычислительной техники.
Определение информатики № 1
Известно широкое определение информатики, данное Международным конгрессом в Японии в 1978 г.
«Понятие информатики охватывает области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая машины, оборудование, математическое обеспечение, организационные аспекты, а также комплекс промышленного, коммерческого, административного, социального и политического воздействия».
Определение информатики № 2
Информатика – это междисциплинарная, методологическая наука об информационных процессах, о моделях, об алгоритмах и алгоритмизации, о программах и программировании, об исполнителях алгоритмов и различных исполняющих системах об их использовании в обществе, в природе, в познании.
Термин "информатика" (l’informatique) введен французскими учеными и означает науку обработки информации (первоначально это была информация научно-технического, библиотечного характера) с помощью различных автоматических средств.
Дословно означает «информационная автоматика».
В нашей стране для обозначения новой научной дисциплины применялись термины «вычислительные науки» или «вычислительное дело», использование же термина «информатика» сдерживалось употреблением его в области, связанной с документалистикой.
Новое толкование этого термина относится к 1976 г., когда появился русский перевод книги Ф. Бауэра и Г. Гооза «Информатика».
Окончательное утверждение термина «информатика» связано с созданием в 1983 г. Отделения информатики, вычислительной техники и автоматизации АН СССР.
Предмет информатики точно невозможно определить – он сложный, многосторонний, динамичный.
Деление информатики как науки и человеческой деятельности на те или иные части зависит от целей, задач, ресурсов рассматриваемой проблемы и часто оно бывает условным.

Основа информатики
Главное, что составляет основу современного содержания информатики это именно ЭВМ и машинная обработка информации.
Исходя из толкования ядра информатики, можно сказать, что его содержание определяют три неразрывно связанные между собой части:
алгоритмические (теоретические),
программные
и технические средства.
BrainwareДля обозначения части информатики, связанной с разработкой алгоритмов и изучением методов и приемов их построения, применяют термин Brain ware (англ. brain — интеллект).
Решение задачи всегда предшествует разработка способа её решения в виде последовательности действий, ведущих от исходных данных к искомому результату, иными словами, разработка алгоритма решения задачи.
Software
Для обозначения программных средств, под которыми понимается совокупность всех программ, используемых компьютерами, и область деятельности по их созданию и применению, используется слово Software (буквально — "мягкий товар "), которое подчеркивает равнозначность самой машины и программного обеспечения, а также способность программного обеспечения модифицироваться, приспосабливаться и развиваться.
Hardware
Технические средства, или аппаратура компьютеров, в английском языке обозначается словом Hardware, которое буквально переводится как «твердый товар».
Роль информатики
Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни.

Информация, ее представление и измерение
Информация
Слово информация (латинское informatio) означает разъяснение, осведомление, изложение.
Под информацией понимаются все те сведения, которые уменьшают степень неопределенности нашего знания о конкретном объекте.
Информацией называют сведения о тех или иных явлениях природы, событиях в общественной жизни и процессах в технических устройствах.
Информация, воплощенная и зафиксированная в некоторой материальной форме, называется сообщением, сообщением – определенного вида сигналов, символов.
Сообщения могут быть непрерывными (аналоговыми) и дискретными (цифровыми).
Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя.
Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая.
Информация по ее изменчивости бывает постоянная, переменная и смешанная.
Информация по стадии ее использования бывает первичная и вторичная.
Информация по ее полноте бывает избыточная, достаточная и недостаточная.
Информация по доступу к ней бывает открытая и закрытая.
Есть и другие типы классификации информации.
Пример.
В философском аспекте информация делится на мировозренческую, эстетическую, религиозную, научную, бытовую, техническую, экономическую, технологическую.
Основные свойства информации:
полнота; Достаточность
актуальность; Своевременность
адекватность; Репрезентативность
понятность; Точность информации
достоверность;
массовость;
устойчивость;
ценность и др.

Количество информации
Количество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и т.д.) в оцениваемой системе.
Количество информации в вычислительной технике часто оценивается в битах, причем такая оценка может выражаться и в долях бит (так речь идет не об измерении или кодировании сообщений).
Мера информации
Мера информации — это критерий оценки количества информации.
Обычно она задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события.
В свете идей семиотики (науки о знаковых системах) адекватность информации, соответствие ее содержания образу отображаемого объекта, может выражаться в трех формах:  
синтаксической;   
семантической;  
прагматической.
Синтаксический уровень
На синтаксическом уровне представления информации используется термин "объем данных", который можно выразить как количество кодовых комбинаций:
N = mn
m - основание системы счисления (максимальное число символов, применяемых в алфавите;
n - число разрядов в коде сообщения.
Если каждое состояние системы закодировать двоичными кодами, то длину кода d необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N: 2d>=N
Логарифмируя это неравенство, можно записать: d>=log2N
Наименьшее решение этого неравенства или мера разнообразия множества состояний системы задается формулой Р. Хартли:
I= log2N (бит).
Мера Хартли подходит лишь для идеальных, абстрактных систем, так как в реальных системах состояния системы неодинаково осуществимы.
Для таких неравновероятных систем используют более подходящую меру, которую предложил Клод Шеннон.
Американский учёный Клод Шеннон в 1948 г. предложил формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Количество информации синтаксического уровня представления данных можно определить через уменьшение энтропии системы (энтропия - мера неопределенности состояния системы).
Неопределенность означает принятие решений на основании неполной, обрывочной информации.
Формула Шеннона вычисляет энтропию и учитывает возможные неодинаковые вероятности появления сообщений в наборе сообщения
H(a) = -(p1log2p1 + p2log2p2 + …. + pnlog2pn)
где n – число состояний системы; рi – вероятность (относительная частота) перехода системы в i-е состояние, а сумма всех pi должна равняться 1.
Таким образом энтропии системы, имеющей n возможных состояний можно записать формулой Шеннона

До получения информации энтропия системы — Н(a);
После получения информационного сообщения энтропия системы стала равной Н(a/b). 
Тогда, количество информации, которое содержало сообщение, равно: Ib(a) = Н(a) — Н(a/b).
В качестве единицы информации К. Шеннон предложил принять один бит (англ. Bit – binary digit – двойная цифра).
Бит в теории информации – количество информации, необходимое для различия двух равновероятностных сообщений (самая простая система из двух равновероятностных событий «орел» - «решка», «чет»- «нечет» и т.д.).
В вычислительной технике битом называют наименьшую единицу информации.
Любые сообщения измеряются в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах, петабайтах и эксабайтах, и кодируются, например, в компьютере, с помощью алфавита из нулей и единиц, записываются и реализуются в ЭВМ в битах.
1 бит (binary digit – двоичное число) = 0 или 1,
1 байт 8 бит = 23 бит,
1 килобайт (1К) = 213 бит,
1 мегабайт (1М) = 223 бит,
1 гигабайт (1Г) = 233 бит,
1 терабайт (1Т) = 243 бит,
1 петабайт (1П) = 253 бит,
1 эксабайт (1Э) = 263 бит.
Пример.
Найти неизвестные х и у, если верны соотношения:
128y (К байт) = 32x (бит);
2x (М байт) = 2y (байт).
Семантическая мера
Количество полученной информации измеряется с учётом её смысла для получателя.
Оценивается количество смысла полученной информации, с помощью сравнения объёмов тезаурусов до и после получения информации, т.е. оно равно разности тезауруса Sп до получения информации Sп.0 и после получения информации Sп.1, т.е. I = Sп.1 – Sп.0 .
Для измерения количества информации на семантическом уровне признание получила тезаурусная мера информации, предложенная Ю. И. Шрейдером. Тезаурусная мера связывает семантические свойства информации со способностью пользователя воспринимать поступившее сообщение.
Тезаурус — совокупность сведений, которыми располагает получатель информации.
Различают:
тезаурус пользователя - совокупность сведений, которыми располагает пользователь;
тезаурус системы - совокупность сведений, которыми располагает система.
Прагматический уровень
Количество информации в данном случае оценивается как полезность сообщения.
Для этого используется следующее соотношение I = log2 (P1/P0) , где P — вероятность решения задачи:
- P0 до получения сообщения;
- P1 после получения сообщения.
Получение информации — это, в конечном счете, получение фактов, сведений и данных о свойствах, структуре или взаимодействии объектов и явлений окружающего нас мира с использованием некоторой абстрактной системы символов (жестов, знаков, рисунков и прочее) для представления содержательной информации.
В процессе развития человеческого общества люди выработали большое число подобных систем — языков. Среди них — язык жестов и мимики, язык рисунков и чертежей, язык музыки, разговорные языки и т.д.

Системы Счисления
Алфавит Х из р символов и правила записи (изображения) и обработки чисел с помощью символов этого алфавита называются системой счисления (нумерацией) с основанием р.
Число х в системе с основанием р обозначается как (х)р или хр.
Любая система счисления – это система кодирования числовых величин (количеств), позволяющая выполнять операции кодирования и декодирования, то есть по любой количественной величине однозначно находить его кодовое представление и по любой кодовой записи – восстанавливать соответствующую ей числовую величину.
Все системы счисления строятся по общему принципу: определяется величина р – основание системы, а любое число х записывается в виде комбинации степеней веса р от 0-й до n-й степени следующим образом:
(x)10 = xnpn + xn–1pn–1 +... + x1p1 + x0p0.
Наиболее используемые в информатике системы счисления, кроме, естественно, десятичной, – это:
1) двоичная, над алфавитом Х = {0,1};
2) восьмеричная, над Х = {0, 1, 2, 3, 4, 5, 6, 7};
3) шестнадцатеричная, над Х = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, А, В, С, D, Е, F}, где символы А, В, С, D, Е, F имеют, соответственно, десятичные веса 10, 11, 12, 13, 14, 15.
В большинстве систем счисления вес цифры (или символа алфавита) зависит от ее места в записи числа или слова. Такая система счисления называется позиционной; в противном случае система называется непозиционной.
Пример.
Непозиционная система – древняя римская система записи чисел с алфавитом вида Х = {I (1), V (5), Х (10), L (50), С (100), D (500), М (1000)}, где в скобках указаны веса символов (не зависящие от позиции символа). Примеры римских чисел (в скобках – обычные десятичные эквиваленты): III (3), IV (4), V (5), VI (6), IX (9), XI (11), DCL (650).
Запись числа в этой системе получается двусторонней конкатенацией, причем правая конкатенация ассоциируется с добавлением, а левая конкатенация – с убавлением (например, IV и VI).
Поразрядное же выполнение арифметических операций не имеет места (например, XIV + IV = XVIII).
История развития систем счисления достаточно интересна.
Некоторые факты. Счет вначале велся с помощью пальцев рук (пятерками и затем – десятками). В некоторых странах сохранился счет с основанием 12 (например, Великобритания – 12 шиллингов) и 20 (например, Франция – "quatre–vingts" или "четыре-двадцать" то есть 80; у древних адыгов счет велся аналогично: "тощIищ", то есть "двадцать-три" – 60) и др. 

Приложенные файлы

  • docx File_5
    Бусарова И.В.
    Размер файла: 40 kB Загрузок: 1