WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     || 2 | 3 | 4 | 5 |   ...   | 12 |
Саратовский госуниверситет им. Н. Г. Чернышевского Кафедра математического моделирования процессов и систем управления Информационные системы Учебное пособие по дисциплине Информационные системы для специальностей ПИЭ и ПИЮ Составители Орел А. А., Ромакина О.М.

Саратов 2004 Содержание Содержание......................................................................................................................................... 2 Глава 1................................................................................................................................................. 3 Основные понятия.......................................................................................................................... 3 Глава 2................................................................................................................................................. 8 Применение информационных систем......................................................................................... 8 Автоматизированные информационные системы (АИС)......................................................... 11 Жизненный цикл ИС................................................................................................................ 15 Эффективность ИС................................................................................................................... 17 Пользователи ИС. Трехуровневое представление данных................................................... 18 История и основные направления развития ИС.................................................................... 19 Классификация ИС................................................................................................................... 21 Структура программного обеспечения ИС............................................................................ 24 Структура приложений в ИС................................................................................................... Структура хранения информации в ИС................................................................................. Единое информационное пространство................................................................................. Классификация программных решений................................................................................. Этапы разработки автоматизированных информационных систем.................................... Разработка и анализ бизнес-модели....................................................................................... Основные понятия электронного документооборота........................................................... Электронный документооборот.............................................................................................. Модели информационного пространства предприятия........................................................ Эволюция модели документооборота.................................................................................... Глава 3............................................................................................................................................... Теоретические основы информационных систем......................................................................... Знаковые системы..................................................................................................................... Классификационные системы................................................................................................. Предметная область................................................................................................................. Модель "сущность-связь"........................................................................................................ Глава 4............................................................................................................................................... Информационные системы как средство автоматизации бизнес – процессов........................... Cals-технологии........................................................................................................................ Cистемы класса MRP - CSRP.................................................................................................. Состав систем класса MRPII (Manufacturing Resource Planning)......................................... Механизм работы MRPII-системы.......................................................................................... Список литературы........................................................................................................................... Глава Основные понятия Информация - это содержание сообщения, сигнала, памяти, а также сведения, содержащиеся в сообщении, сигнале или памяти.

Информационные процессы, т.е. процессы передачи, хранения и переработки информации, играют важную роль в жизни общества.

Информация всегда связана с материальным носителем, а ее передача - с затратами энергии. Однако одну и ту же информацию можно хранить в различном материальном виде и передавать с различными энергетическими затратами, причем последствия - в том числе и материальные - переданной информации совершенно не зависят от физических затрат на ее передачу. Поэтому информационные процессы не сводимы к физическим, и информация, наряду с материей и энергией, является одной из фундаментальных сущностей окружающего мира.

Достижения техники в 18 - 19 вв. практически целиком были связаны с успехами физики и химии. Благодаря им были созданы и широко распространились различные преобразователи материи и энергии: двигатели, металлургические и химические производства, электрогенераторы и т. д. Эффективность их работы описывается с помощью физических понятий: мощности, к. п. д., грузоподъемности, количества вырабатываемой энергии и др. В 20 в. с развитием техники появились устройства другого рода: средства связи, устройства автоматики, а с 40-х гг. - вычислительной техники. Выяснилось, что эффективность их работы с помощью физических понятий описать невозможно и что существенные характеристики таких устройств нужно описывать совсем другими способами.



В результате возникли точное понятие информации и математическая теория информации.

Теория информации как самостоятельная научная дисциплина, связанная с восприятием, передачей и переработкой, хранением и использованием информации, была основана американским ученым К. Шенноном в конце 40-х гг. 20-го в. Предложенная Шенноном теория основывалась на фундаментальном понятии количественной меры неопределенности - энтропии - и связанного с нею понятия - количества информации.

Другим фактором в становлении теории информации стало осознание того, что носитель информации - сигнал - имеет случайную природу.

На основе понятий энтропии и количества информации в теории информации введены важные характеристики сигналов и информационных систем.

Приведем основные из них.

1. Скорость создания информации Н - энтропия источника, отнесенная к единице времени.

2. Скорость передачи информации R - количество информации, передаваемое по каналу связи в единицу времени (например, для речи в обычном темпе - около 20 бит/с).

3. Избыточность - свойство сигналов, состоящее в том, что каждый элемент сигнала (например, символ в тексте) несет информации меньше, чем может нести потенциально. При отсутствии помех избыточность вредна, так как снижает эффективность использования системы (снижает скорость передачи по каналу связи, увеличивает требуемый объем памяти при запоминании, увеличивает число операций при обработке и пр.). Вместе с тем избыточность - единственное средство борьбы с помехами, так как именно она позволяет установить, какие символы были испорчены шумами, и восстановить переданный сигнал n - nИзбыточность измеряется по формуле: r =, где n - текущая длина (число символов) n сигнала, а n0 - длина сигнала при максимальной информационной загрузке, т.е. минимальная из длин сигналов, несущих ту же информацию.

4. Пропускная способность канала связи C - максимальная скорость передачи информации: C = max R, где максимум отыскивается среди всех мыслимых приемнопередающих систем, связанных данным каналом (К. Шеннон рассматривал разные способы кодирования при фиксированных мощностях сигналов и шумов). Экспериментально установлено, что пропускная способность зрения и слуха человека около 5 бит/с.

Средства связи, какие бы физические процессы они ни использовали, - это средства передачи информации. Объединение понятий "информация" и "управление" привело Н.

Винера в 40-х гг. к созданию кибернетики, которая, в частности, впервые указала на общность информационных процессов в технике, обществе и живых организмах.

Математическое понятие информации связано с ее измерением. В теории информации принят энтропийный подход, который учитывает ценность информации, содержащейся в сообщении для его получателя, и исходит из следующей модели. Получатель сообщения имеет определенные представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшается эта мера после получения сообщения. Например, тривиальное сообщение, т.е. сообщение о том, что получателю и без того известно, не изменяет ожидаемых вероятностей и не несет для него никакой информации. Сообщение несет полную информацию о данном множестве событий, если оно целиком снимает всю неопределенность. В этом случае количество информации в нем равно исходной энтропии.

Количество информации это числовая характеристика сигнала, которая не зависит от его формы и содержания и характеризует степень неопределенности, которая исчезает после выбора (получения) сообщения в виде данного сигнала.

Рассмотрим пример. Пусть имеется колода, содержащая 32 различные карты. Чтобы выбрать одну из них существует 32 возможности, характеризующие исходную неопределенность ситуации. Число 32 в данном примере можно считать количеством информации, заложенном в одном выборе из 32 возможностей. Американский инженер Р.

Хартли в 1928 году предложил в качестве меры неопределенности логарифм от числа возможностей:

H = k loga m (1) Здесь H – количество информации, k - коэффициент пропорциональности, m – число возможных выборов, a – основание логарифма. Чаще всего принимают k = 1 и a = 2. В этом случае единицей количества информации будет выбор из двух возможностей. Такая единица носит наименование бита и представляется одним символом двоичного алфавита.

Величина H в соотношении (1) определяет число вопросов, ответы на которые позволяют выбрать одну из двух альтернатив. В примере с колодой из 32 карт необходимо и достаточно получить ответы “да” или “нет” на пять вопросов, каждый из которых вдвое сокращает область дальнейшего выбора. Такими вопросами могут быть:





1. Карта красной масти 2. Трефы 3. Одна из четырех старших 4. Одна из двух старших 5. Дама Для выбора дамы пик ответами будут “нет”,”нет”,”да”,”нет”,”да” или последовательность из пяти двоичных символов 00101.

В случае, когда выборы не равновероятны вместо формулы (1) используется формула К. Шеннона. В этом случае H зависит не только от m, но и от вероятностей выбора символов и вероятностей связей между ними.

Для количества собственной или индивидуальной информации К.Шеннон в 1948 году предложил соотношение:

hi = log2 = - log2 Pi (2) Pi где P вероятность выбора i – го символа алфавита.

В качестве меры количества информации удобнее пользоваться не hi, а средним значением количества информации, приходящимся на один символ алфавита:

m m H = hi = - log2 Pi (3) Pi Pi 1 Значение H достигает максимума при равенстве всех P, т.е. при P =. В этом m случае соотношение (3) превращается в формулу Р. Хартли (1): H = - log2 P = log2 m В технике часто используют более простой и грубый способ измерения информации, который можно назвать объемным. Он основан на подсчете числа символов в сообщении, т.е.

связан с его длиной и не учитывает содержания. Длина сообщения зависит от числа различных символов, употребляемых для записи сообщения, т.е. от мощности алфавита.

Например, одно и то же число "девятнадцать" в десятичном алфавите записывается двумя символами - 19, а в двоичном алфавите - пятью символами - 10111. В вычислительной технике применяются две стандартные единицы измерения: бит и байт. Бит - это один символ двоичного алфавита. Байт - это один символ, который можно представить восьмиразрядным двоичным кодом; мощность алфавита этого представления равна числу различных восьмиразрядных двоичных кодов, т.е. 2**8 = 256, и может включать, например, все символы клавиатуры компьютера.

Эти два способа измерения информации, как правило, не совпадают, причем энтропийное количество информации не может быть больше числа двоичных символов (битов) в сообщении. Если же оно меньше этого числа, то говорят, что сообщение избыточно.

В примере с колодой из 32 карт оба способа измерения информации дают одно и то же число 5. Это значит, что если кодировать карты колоды последовательностями из пяти двоичных символов, то такой код будет неизбыточным. Тривиальные сообщения всегда избыточны, так как имеют нулевую информацию с точки зрения энтропии, но содержат ненулевое число символов.

При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространены одномерные представления информации, при которых сообщения имеют вид последовательностей символов. Так информация представляется в письменных текстах, при передаче по каналам связи, в памяти компьютера. Однако широко используются и многомерные представления информации, причем под многомерностью понимают не только расположение элементов информации на плоскости или в пространстве (в виде рисунков, схем, графов, объемных макетов и т. д.), но и множественность признаков используемых символов. Например, информацию могут нести не только значения букв и цифр, но и их цвет, размер, вид шрифта.

Формирование представления информации называется ее кодированием. Часто термин "кодирование" употребляется в более узком смысле, как переход от исходного представления к представлению, удобному для хранения, передачи или обработки. В этом случае обратный переход к исходному представлению называется декодированием.

При кодировании могут ставиться разные цели и соответственно применяться разные методы. Наиболее распространенные цели кодирования - это экономность, т.е. уменьшение избыточности сообщения; повышение скорости передачи или обработки; надежность, т.е.

защита от случайных искажений; сохранность, т.е. защита от нежелательного доступа к информации; удобство физической реализации (например, двоичное кодирование информации в компьютере); удобство восприятия. Эти цели часто противоречат друг другу.

Экономные сообщения могут оказаться ненадежными, так как они не содержат лишних символов, и искажение любого символа может изменить смысл сообщения.

Например, обычная запись чисел цифрами гораздо экономнее и удобнее для вычислений, чем запись словами. Однако искажение или удаление любой цифры изменяет величину числа. Поэтому в финансовых документах, где надежность крайне важна, цифровые представления чисел в некоторых местах заменяются или дублируются словесными представлениями. (Сумму иногда пишут прописью.) Теория кодирования подробно исследует проблемы разумного сочетания экономности и надежности при передаче информации.

Экономное сообщение может повысить скорость обработки (более короткое сообщение будет быстрее передано или прочтено), но может и уменьшить ее. Например, очень экономно использовать вместо фамилий и имен коды. Но тогда надо либо помнить все соответствия между фамилиями и кодами, либо каждый раз обращаться к справочнику. Защита информации от нежелательного доступа требует специальных способов обеспечения секретности (паролей, ключей и т.д.). Это увеличивает объем хранимой информации и замедляет работу с ней.

На разных этапах сложного информационного процесса достигаются разные цели, и поэтому информация неоднократно перекодируется, т.е. изменяет свое представление.

Pages:     || 2 | 3 | 4 | 5 |   ...   | 12 |










© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.