Информатика


Чтобы посмотреть презентацию с оформлением и слайдами, скачайте ее файл и откройте в PowerPoint на своем компьютере.
Текстовое содержимое слайдов:

Автор - Бусарова Ирина ВасильевнаНаименование образовательной организации - ГБПОУ ПО «Псковский колледж профессиональных технологий и сервиса»Год и место создания работы – 2012, г. Псков Предмет «ИНФОРМАТИКА» Становление информатики как научной дисциплины относится к 60-м годам прошлого столетия. В самом общем смысле под Информатикой понимают фундаментальную естественную науку, изучающую процессы передачи, накопления и обработки информации с помощью средств вычислительной техники. Определение «Информатики» № 1Известно широкое определение информатики, данное Международным конгрессом в Японии в 1978 г. «Понятие информатики охватывает области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая машины, оборудование, математическое обеспечение, организационные аспекты, а также комплекс промышленного, коммерческого, административного, социального и политического воздействия». Определение «Информатики» № 2Информатика – это междисциплинарная, методологическая наука об информационных процессах, о моделях, об алгоритмах и алгоритмизации, о программах и программировании, об исполнителях алгоритмов и различных исполняющих системах об их использовании в обществе, в природе, в познании. Термин "Информатика" (L’informatique)Введен французскими учеными и означает науку обработки информации (первоначально это была информация научно-технического, библиотечного характера) с помощью различных автоматических средств. Дословно означает «информационная автоматика». В нашей стране для обозначения новой научной дисциплины применялись термины «вычислительные науки» или «вычислительное дело», использование же термина «информатика» сдерживалось употреблением его в области, связанной с документалистикой. Новое толкование этого термина относится к 1976 г., когда появился русский перевод книги Ф. Бауэра и Г. Гооза «Информатика». Окончательное утверждение термина «Информатика» связано с созданием в 1983 г. Отделения информатики, вычислительной техники и автоматизации АН СССР. Предмет информатикиТочно невозможно определить – он сложный, многосторонний, динамичный. Деление информатики как науки и человеческой деятельности на те или иные части зависит от целей, задач, ресурсов рассматриваемой проблемы и часто оно бывает условным. Основа информатикиГлавное, что составляет основу современного содержания информатики это именно ЭВМ и машинная обработка информации.Исходя из толкования ядра информатики, можно сказать, что его содержание определяют три неразрывно связанные между собой части: алгоритмические (теоретические), программные и технические средства. Алгоритмическая (теоретическая)I часть BrainwareДля обозначения части информатики, связанной с разработкой алгоритмов и изучением методов и приемов их построения, применяют термин Brain ware (англ. brain — интеллект).Решение задачи всегда предшествует разработка способа её решения в виде последовательности действий, ведущих от исходных данных к искомому результату, иными словами, разработка алгоритма решения задачи. Программные средстваII часть SoftwareДля обозначения программных средств, под которыми понимается совокупность всех программ, используемых компьютерами, и область деятельности по их созданию и применению, используется слово Software (буквально — "мягкий товар "), которое подчеркивает равнозначность самой машины и программного обеспечения, а также способность программного обеспечения модифицироваться, приспосабливаться и развиваться. Технические средстваIII часть HardwareТехнические средства, или аппаратура компьютеров, в английском языке обозначается словом Hardware, которое буквально переводится как «твердый товар». Роль информатикиРоль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни. Информация, ее представление и измерение ИнформацияСлово информация  (латинское informatio) означает разъяснение, осведомление, изложение. Под информацией понимаются все те сведения, которые уменьшают степень неопределенности нашего знания о конкретном объекте. Информацией называют сведения о тех или иных явлениях природы, событиях в общественной жизни и процессах в технических устройствах. Информация, воплощенная и зафиксированная в некоторой материальной форме, называется сообщением, сообщением – определенного вида сигналов, символов. Сообщения могут быть непрерывными (аналоговыми) и дискретными (цифровыми).Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя. Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая. Информация по ее изменчивости бывает постоянная, переменная и смешанная. Информация по стадии ее использования бывает первичная и вторичная. Информация по ее полноте бывает избыточная, достаточная и недостаточная. Информация по доступу к ней бывает открытая и закрытая. Есть и другие типы классификации информации. Пример. В философском аспекте информация делится на мировозренческую, эстетическую, религиозную, научную, бытовую, техническую, экономическую, технологическую. Основные свойства информации: полнота; Достаточность актуальность; Своевременность адекватность; Репрезентативность понятность; Точность информации достоверность; массовость; устойчивость; ценность и др. Количество информацииКоличество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и т.д.) в оцениваемой системе. Количество информации в вычислительной технике часто оценивается в битах, причем такая оценка может выражаться и в долях бит (так речь идет не об измерении или кодировании сообщений). Мера информации Мера информации это критерий оценки количества информации.Обычно она задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события. В свете идей семиотики (науки о знаковых системах) адекватность информации, соответствие ее содержания образу отображаемого объекта, может выражаться в трех формах:  синтаксической;    семантической;  прагматической. Синтаксический уровеньНа синтаксическом уровне представления информации используется термин "объем данных", который можно выразить как количество кодовых комбинаций:  N = m . n m — основание системы счисления (максимальное число символов, применяемых в алфавите;n - число разрядов в коде сообщения. Формула Р. ХартлиЕсли каждое состояние системы закодировать двоичными кодами, то длину кода d необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N: 2d>=NЛогарифмируя это неравенство, можно записать: d>=log2NНаименьшее решение этого неравенства или мера разнообразия множества состояний системы задается формулой Р. Хартли: I= log2N (бит). Формула ШеннонаМера Хартли подходит лишь для идеальных, абстрактных систем, так как в реальных системах состояния системы неодинаково осуществимы. Для таких неравновероятных систем используют более подходящую меру, которую предложил Клод Шеннон. Американский учёный Клод Шеннонв 1948 г. предложил формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Количество информации синтаксического уровня представления данных можно определить через уменьшение энтропии системы (энтропия - мера неопределенности состояния системы).Неопределенность означает принятие решений на основании неполной, обрывочной информации. Формула ШеннонаФормула Шеннона вычисляет энтропию и учитывает возможные неодинаковые вероятности появления сообщений в наборе сообщенияH(a) = -(p1log2p1 + p2log2p2 + …. + pnlog2pn)где n – число состояний системы; рi – вероятность (относительная частота) перехода системы в i-е состояние, а сумма всех pi должна равняться 1. Таким образом для вычисления энтропии системы, имеющей n возможных состояний можно записать формулой Шеннона: До получения информации энтропия системы — Н(a); после получения информационного сообщения   Н(a/b).  Тогда, количество информации, которое содержало сообщение, равно: Ib(a) = Н(a) — Н(a/b). причем если неопределенность в результате опыта снимается полностью будем иметь: I = – Н(a/b). I = В качестве единицы информации К. Шеннон предложил принять один бит (англ. Bit – binary digit – двойная цифра). Бит в теории информации – количество информации, необходимое для различия двух равновероятностных сообщений (самая простая система из двух равновероятностных событий «орел» - «решка», «чет»- «нечет» и т.д.).В вычислительной технике битом называют наименьшую значение информации. Любые сообщения измеряются в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах, петабайтах и эксабайтах, и кодируются, например, в компьютере, с помощью алфавита из нулей и единиц, записываются и реализуются в ЭВМ в битах. 1 бит (binary digit – двоичное число) = 0 или 1, 1 байт 8 бит, 1 килобайт (1К) = 213 бит, 1 мегабайт (1М) = 223 бит, 1 гигабайт (1Г) = 233 бит, 1 терабайт (1Т) = 243 бит, 1 петабайт (1П) = 253 бит, 1 эксабайт (1Э) = 263 бит. Решить Решить уравнение 8х(бит) = 32 (Кбайт)Решить систему уравненийНайти неизвестные х и у, если верны соотношения: 2х+2 (бит) = 8y-5 (Кбайт), 22у-1 (Мбайт) = 16х-3 (бит). Семантическая мераКоличество полученной информации измеряется с учётом её смысла для получателя. Оценивается количество смысла полученной информации, с помощью сравнения объёмов тезаурусов до и после получения информации, т.е. оно равно разности тезауруса Sп до получения информации Sп.0 и после получения информации Sп.1, т.е. I = Sп.1 – Sп.0 . Для измерения количества информации на семантическом уровне признание получила тезаурусная мера информации, предложенная Ю. И. Шрейдером. Тезаурусная мера связывает семантические свойства информации со способностью пользователя воспринимать поступившее сообщение. Тезаурус — совокупность сведений, которыми располагает получатель информации. Различают:тезаурус пользователя - совокупность сведений, которыми располагает пользователь;тезаурус системы - совокупность сведений, которыми располагает система. Прагматический уровеньКоличество информации в данном случае оценивается как полезность сообщения. Для этого используется следующее соотношение I = log2 (P1/P0) , где P — вероятность решения задачи: - P0 до получения сообщения;- P1 после получения сообщения.

Приложенные файлы

  • pptx File_2
    Бусарова И.В.
    Размер файла: 115 kB Загрузок: 1