Информация и информационные процессы
Информация и сигнал. Непрерывные и дискретные сигналы. Виды информации по способу восприятия её человеком. Субъективные характеристики информации, зависящие от личности получателя информации и обстоятельств получения информации: «важность», «своевременность», «достоверность», «актуальность» и т. п.
Представление информации. Формы представления информации. Знаки и знаковые системы. Язык как знаковая система: естественные и формальные языки. Алфавит, мощность алфавита.
Кодирование информации. Преобразование информации из непрерывной формы в дискретную. Двоичное кодирование. Двоичный алфавит. Двоичный код. Разрядность двоичного кода. Связь разрядности двоичного кода и количества кодовых комбинаций. Универсальность двоичного кодирования. Равномерные и неравномерные коды.
Измерение информации. Алфавитный подход к измерению информации. 1 бит – информационный вес символа двоичного алфавита. Информационный вес символа алфавита, произвольной мощности. Информационный объём сообщения. Единицы измерения информации (байт, килобайт, мегабайт, гигабайт, терабайт).
Понятие информационного процесса. Основные информационные процессы: сбор, представление, обработка, хранение и передача информации. Два типа обработки информации: обработка, связанная с получением новой информации; обработка, связанная с изменением формы, но не изменяющая содержание информации. Источник, информационный канал, приёмник информации. Носители информации. Сетевое хранение информации. Всемирная паутина как мощнейшее информационное хранилище. Поиск информации. Средства поиска информации: компьютерные каталоги, поисковые машины, запросы по одному и нескольким признакам.
Примеры информационных процессов в системах различной природы; их роль в современном мире. Основные этапы развития ИКТ.
Скачать:
Вложение | Размер |
---|---|
![]() | 21.12 КБ |
Предварительный просмотр:
Наш курс называется "Информатика и информационно коммуникационные технологии". Давайте вместе попробуем разобраться, что же это такое.
Информатика - это техническая наука о способах передачи, хранения, и переработки информации средствами вычислительной техники, а также изучающая принципы функционирования этих средств и методы управления ими.
Информационные технологии - это совокупность технических и программных средств, с помощью которых выполняются различные работы с информацией.
Информация в переводе с латинского (informatio) - сведение, разъяснение, ознакомление.
Несмотря на то, что человеку постоянно приходится иметь дело с информацией, строгого научного определения, что такое информация не существует. Можно лишь попытаться выразить его через другие известные понятия. Понятия отличаются от определений тем, что при разных обстоятельствах в них вкладывают разный смысл.
В бытовом смысле под информацией понимают те сведения, которые человек получает от окружающей природы и общества с помощью органов чувств, которые повышают его уровень осведомленности.
Математик включит в это понятие и те сведения, которые человек не получал, а сам создал с помощью умозаключений. Биолог отнесет к информации и те данные, которые хранит в себе человек с момента рождения до смерти (генетический код).
В кибернетике понятие информация связано с процессами управления в сложных системах.
В философском смысле - это взаимодействие, отражение, познание.
В вероятностно - это сведения, которые снимают полностью или уменьшают существующую до их получения неопределенность.
В информатике информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний
Рассмотрим свойства информации.
Человек – это существо социальное, для общения с другими людьми ему необходимо обмениваться с ними информацией, причём этот обмен происходит на определённом языке – русском, английском и т.д. Участники дискуссии должны владеть тем языком, на котором ведётся общение, тогда информация будет понятной.
Только при условии, что информация полезна, дискуссия приобретает практическую ценность. Бесполезная информация создаёт информационный шум, который затрудняет восприятие полезной информации.
Широко известен термин “средства массовой информации” (газеты, радио, телевидение), которые доводят информацию до каждого члена общества. Обязательно, чтобы такая информация была достоверной и актуальной. Недостоверная информация вводит членов общества в заблуждение и может стать причиной возникновения социальных потрясений. Неактуальная информация бесполезна, и потому никто, кроме историков, не читает прошлогодних газет.
Чтобы человек мог правильно ориентироваться в окружающем мире, ему нужна полная и точная информация. Задача получения полной и точной информации стоит перед наукой. Человек получает полную и точную информацию о природе, обществе и технике в процессе обучения.
В повседневной жизни человек все время сталкивается с различными процессами: смена времен года, раскрытие бутона цветка, пошив костюма.
Процесс — последовательная смена состояний объекта в результате произведенных действий.
Если происходит смена состояний объекта, то в этом случае можно говорить о процессе.
ОБЪЕКТ | ДЕЙСТВИЕ | ОБЪЕКТ |
Мяч (покой) | удар | движение |
Одни процессы протекают в живой природе, другие - в человеческом обществе. Иногда человек играет решающую роль в ходе протекания процесса, например при пилотировании самолета, или написании сочинения. Некоторые процессы протекают независимо от влияния человека, как, например, распускание листьев на дереве, приливы и отливы.
Особую роль в ходе протекания некоторых процессов играет информация.
Если обратиться в далекое прошлое, то жалобы на обилие информации обнаруживаются тысячелетия назад.
Информационный кризис - это возрастающее противоречие между объемом накапливаемой в обществе информации и ограниченными возможностями ее обработки отдельно взятой личностью.
В связи с этим сформировались новые научные дисциплины - информатика, кибернетика, бионика, робототехника и другие, имеющие своей целью изучение закономерностей информационных процессов.
Информационный процесс - совокупность последовательных действий (операций), производимых над информацией (в виде данных, сведений, фактов, идей, гипотез, теорий и пр.) для получения какого-либо результата (достижения цели).
Информационные процессы всегда протекают в каких-либо системах (социальных, социотехнических, биологических и пр.).
Система — совокупность взаимосвязанных между собой объектов. Составные части системы называются элементами или компонентами.
Информационный процесс может состояться только при наличии информационной системы, обеспечивающей его составляющие.
Есть три типа информационных процессов: хранение, передача и обработка информации.
Хранение информации - это распространение ее во времени. Человек хранит информацию либо в собственной памяти, либо на каких-то внешних носителях. Чаще всего - на бумаге.
Обработка информации составляет основу процесса преобразования информации.
Информация может быть передана для ее последующего использования, обработки или хранения. Передача информации - всегда двусторонний процесс.
Информация передается в форме сообщений от некоторого источника информации к ее приемнику посредствомканала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приемнике появляетсяпринимаемый сигнал, который декодируется и становится принимаемым сообщением.
канал связи
источник --------------------------------- > приемник
Пример:
Живое существо своими органами чувств (глаз, ухо, кожа, язык и т. д.) воспринимает информацию из внешнего мира, перерабатывает ее в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе своей жизнедеятельности.
Информационные процессы, осуществляемые по определенным информационным технологиям, составляют основу информационной деятельности человека.
Компьютер является универсальным устройством для автоматизированного выполнения информационных процессов.
В информатике понятие " информация" вводится как мера уменьшения неопределенности. Такой подход позволяет количественно измерять информацию, что чрезвычайно важно для информатики как технологической науки. Рассмотрим такой подход к определению информации более подробно на примерах, когда существуют некоторое количество событий, каждое из которых может произойти с определенной вероятностью, например, "бросания монеты". Перед броском существует неопределенность, как упадет монета предсказать невозможно. После броска реализуется полная определенность (например "орел"). При бросании четырехгранной пирамиды существует 4 возможных исхода, а при бросании игрального кубика - 6 возможных исходов. Очевидно, что чем больше возможных событий, тем больше начальная неопределенность результата и, главное, тем больше количество информации будет получено после проведения опыта.
Итак,
Количество информации - мера уменьшения неопределенности знаний.
Для количественного определения любой величины необходимо выбрать единицу измерения.
За единицу измерения информации принято такое количество информации, которое мы получаем при уменьшении неопределенности в два раза. Такая единица называется бит.
Если вернуться к опыту с бросанием монеты, то здесь неопределённость как раз уменьшается в два раза (из двух возможных событий реализуется одно), и, следовательно, полученное количество информации равно 1 биту.
Существует формула, которая связывает между собой количество возможных событий N и количество информацииI:
N = 2I
По этой формуле можно определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло:
N = 24 = 16.
Наоборот, для определения количества информации, если известно количество событий, необходимо решить показательное уравнение относительно I. Например, в игре “Крестики – нолики” на поле 8х8 перед первым ходом существует 64 возможных события (64 варианта расположения “крестика”), тогда уравнение принимает вид:
64 = 2I.
Так как 64=26, то уравнение принимает вид:
26 = 2I.
Таким образом, I=6 бит, т.е. количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 бит.
1бит – слишком мелкая единица измерения информации. На практике используется более крупная единица – 1 байт, которая равна 8 битам.
1 байт = 23 бит = 8 бит
В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n:
1 килобайт (1 Кбайт) = 210 байт = 1024 байт,
1 мегабайт (1 Мбайт) = 210 Кбайт = 1024 Кбайт = 220 байт,
1 гигабайт (1 Гбайт) = 210 Мбайт=1024 Мбайт = 230 байт,
1 терабайт (1 Тбайт) = 210 Гбайт = 1024 Мбайт = 240 байт,
1 петабайт (1 Пбайт) = 210 Тбайт = 1024 Тбайт = 250 байт.
1 экзабайт = 210 Пбайт =260 байт.
1 йоттобайт = байт