Лекция 11. Методика изучения содержательных линий представления информации и информационных процессов
Лекция 1. Методика изучения содержательных линий представления информации и информационных процессов
Методика формирования понятия «информация». Виды и свойства информации. Раскрытие различных аспектов информации.
Методика формирования понятия «язык».
Изучение информационных процессов.
Кодирование информации. Единицы измерения информации. Измерение количества информации. Изучение систем счисления и основ логики в курсе информатики.
Ключевыми вопросами данной содержательной линии являются:
• определение информации;
• измерение информации;
• хранение информации;
• передача информации;
• обработка информации.
Проанализируем подходы к этим вопросам в различных школьных учебниках информатики, а также раскроем авторскую концепцию их содержания и методики преподавания.
Методические рекомендации по изучению темы
Изучаемые вопросы:
ª Чем является информация для человека.
ª Декларативные и процедурные знания (информация).
ª Кибернетический подход к информации.
ª Роль органов чувств человека в процессе восприятия им информации.
Субъективный подход. При раскрытии понятия «информация», с точки зрения субъективного (бытового, человеческого) подхода, следует отталкиваться от интуитивных представлений об информации, имеющихся у детей. Целесообразно вести беседу в форме Диалога, задавая ученикам вопросы, на которые они в состоянии ответить. Не следует сразу требовать от них определения информации, но подвести их к этому определению с помощью понятных вопросов вполне возможно. Вопросы, например, можно задавать в следующем порядке.
— Расскажите, откуда вы получаете информацию?
Наверняка услышите в ответ:
— Из книг, из радио и телепередач.
Дальше попросите учеников привести примеры какой-нибудь информации, которую они получили сегодня. Например, кто-нибудь ответит:
— Утром по радио я слышал прогноз погоды.
Ухватившись за такой ответ, учитель подводит учеников к окончательному выводу:
— Значит, вначале ты не знал, какая будет погода, а после прослушивания радио стал знать! Следовательно, получив информацию, ты получил новые знания!
Таким образом, учитель вместе с учениками приходит к определению: информация для человека — это знания, которые он получает из различных источников. Далее на многочисленных известных детям примерах следует закрепить это определение.
Приняв определение информации как знания людей, неизбежно приходишь к выводу, что информация — это содержимое нашей памяти, ибо человеческая память и есть средство хранения знаний. Разумно назвать такую информацию внутренней, оперативной информацией, которой обладает человек. Однако люди хранят информацию не только в собственной памяти, но и в записях на бумаге, на магнитных носителях и пр. Такую информацию можно назвать внешней (по отношению к человеку). Чтобы человек мог ей воспользоваться (например, приготовить блюдо по кулинарному рецепту), он должен сначала ее прочитать, т.е. обратить во внутреннюю форму, а затем уже производить какие-то действия. Вопрос о классификации знаний (а стало быть, информации) очень сложный. В науке существуют различные подходы к нему. Особенно много занимаются этим вопросом специалисты в области искусственного интеллекта. В рамках базового курса достаточно ограничиться делением знаний на декларативные и процедурные. Описание декларативных знаний можно начинать со слов: «Я знаю, что...». Описание процедурных знаний — со слов: «Я знаю, как...». Нетрудно дать примеры на оба типа знаний и предложить детям придумать свои примеры.
Учитель должен хорошо понимать пропедевтическое значение обсуждения данных вопросов для будущего знакомства учеников с устройством и работой компьютера. У компьютера, подобно человеку, есть внутренняя — оперативная память и внешняя — долговременная память. Деление знаний на декларативные и процедурные в дальнейшем следует увязать с делением компьютерной информации на данные — декларативная информация, и программы — процедурная информация. Использование дидактического приема аналогии между информационной функцией человека и компьютером позволит ученикам лучше понять суть устройства и работы ЭВМ.
Исходя из позиции «информация для человека — это знания», учитель сообщает ученикам, что и запахи, и вкусы, и тактильные (осязательные) ощущения тоже несут информацию человеку. Обоснование этому очень простое: раз мы помним знакомые запахи и вкусы, узнаем на ощупь знакомые предметы, значит эти ощущения хранятся в нашей памяти, а стало быть, являются информацией. Отсюда вывод: с помощью всех своих органов чувств человек получает информацию из внешнего мира.
Кибернетический подход. Между информатикой и кибернетикой существует тесная связь. Основал кибернетику в конце 1940-х гг. американский ученый Норберт Винер. Можно сказать, что кибернетика породила современную информатику, выполнила роль одного из ее источников. Сейчас кибернетика входит в информатику как составная часть.
Кибернетика имеет дело со сложными системами: машинами, живыми организмами, общественными системами. Но она не стремится разобраться в их внутреннем механизме. Кибернетику интересуют процессы взаимодействия между такими системами или их компонентами. Рассматривая такие взаимодействия как процессы управления, кибернетику определяют как науку об общих свойствах процессов управления в живых и неживых системах.
Для описания сложных систем в кибернетике используется модель «черного ящика». Термины «черный ящик» и «кибернетическая система» можно использовать как синонимы. Главные характеристики «черного ящика» — это входная и выходная информация. И если два таких черных ящика взаимодействуют между собой, то делают они это только путем обмена информацией.
Информация между кибернетическими системами передается в виде некоторых последовательностей сигналов. Выходные сигналы одних участников обмена являются входными для других.
Информационные обмены происходят везде и всюду: между людьми, между животными, между работающими совместно техническими устройствами, между людьми и техническими устройствами, между различными частями сложных устройств, между различными органами человека или животного и т. п. Во всех этих случаях информация передается в виде последовательностей сигналов разной природы: акустических, световых, графических, электрических и др.
С точки зрения кибернетики, информацией является содержание передаваемых сигнальных последовательностей. В частности, любой текст на каком-то языке есть последовательность букв (в письменной форме) или звуков (в устной форме), которые можно рассматривать как графические или акустические сигналы.
Передача сигналов требует определенных материальных и энергетических затрат. Например, при использовании электрической связи нужны провода и источники электроэнергии. Однако содержание сигналов не зависит от затрат вещества или энергии. В последовательностях сигналов закодированы определенные смысловые символы, в которых и заключается их содержание. Эти символы могут быть буквами текста на каком-то языке (например, в азбуке Морзе: «. -» обозначает букву «А») или целыми понятиями (например, красный сигнал светофора обозначает «стоять!»).
Проблема измерения информации напрямую связана с проблемой определения информации, поскольку сначала надо уяснить, ЧТО собираемся измерять, а потом уже — КАК это делать, какие единицы использовать. Если опираться на расплывчатое, интуитивное представление ученика об информации, то невозможно дать сколько-нибудь логичное определение количества информации, ввести единицы ее измерения.
Характерным приемом для ряда учебников является следующий: обсуждая вопрос об измерении информации, тут же переходят к описанию компьютерного представления информации в форме двоичного кода. Затем дается утверждение о том, что количество информации равно количеству двоичных цифр (битов) в таком коде. Вот цитата из учебника: «В современной вычислительной технике информация чаще всего кодируется с помощью последовательностей сигналов всего двух видов: намагничено или не намагничено, включено или выключено, высокое или низкое напряжение и т.д. Принято обозначать одно состояние цифрой 0, а другое — цифрой 1. Такое кодирование называется двоичным кодированием, а цифры 0 и 1 называются битами (от англ. Bit — binary digit — двоичная цифра)». В следующем параграфе сказано: «А как узнать количество информации в сообщении, в каких единицах эту информацию измерять? Для двоичных сообщений в качестве такой числовой меры используется количество бит в сообщении. Это количество называется информационным объемом сообщения».
Вопрос об измерении информации необходимо раскрывать в контексте рассматриваемого подхода к определению информации. Здесь обязательно должна присутствовать логическая последовательность, пусть даже она приводит в тупик.
В учебнике последовательно прослеживаются два подхода к измерению информации: с точки зрения содержательной и кибернетической концепций.
Методические рекомендации по изучению темы
Изучаемые вопросы:
ª От чего зависит информативность сообщения, принимаемого человеком.
ª Единица измерения информации.
ª Количество информации в сообщении об одном из 2-х равновероятных событий.
С позиции содержательного подхода просматривается следующая цепочка понятий: информация — сообщение — информативность сообщения — единица измерения информации — информационный объем сообщения.
Исходная посылка: информация — это знания людей. Следующий вопрос: что такое сообщение? Сообщение — это информационный поток, который в процессе передачи информации поступает к принимающему его субъекту. Сообщение — это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем и т.д.
Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: информативным назовем сообщение, которое пополняет знания человека, т. е. несет для него информацию. Для разных людей одно и то же сообщение, с точки зрения его информативности, может быть разным. Если сведения «старые», т. е. человек это уже знает, или содержание сообщения непонятно человеку, то для него это сообщение неинформативно. Информативно то сообщение, которое содержит новые и понятные сведения.
Введение понятия «информативность сообщения» является первым подходом к изучению вопроса об измерении информации в рамках содержательной концепции. Если сообщение неинформативно для человека, то количество информации в нем, с точки зрения этого человека, равно нулю. Количество информации в информативном сообщении больше нуля.
Для определения количества информации нужно ввести единицу измерения информации. В рамках содержательного подхода такая единица должна быть мерой пополнения знаний субъекта; иначе можно еще сказать так: мерой уменьшения степени его незнания. Дано следующее определение единицы информации: «Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации». Немного дальше приводится определение для частного случая: «Сообщение о том, что произошло одно событие из двух равновероятных, несет 1 бит информации».
Определение бита — единицы измерения информации может оказаться сложным для понимания учениками. В этом определении содержится незнакомое детям понятие «неопределенность знаний». Прежде всего нужно раскрыть его. Учитель должен хорошо понимать, что речь идет об очень частном случае: о сообщении, которое содержит сведения о том, что произошло одно из конечного множества (N) возможных событий. Например, о результате бросания монеты, игрового кубика, вытаскивания экзаменационного билета и т. п. Неопределенность знания о результате некоторого события — это число возможных вариантов результата: для монеты — 2, для кубика — 6, для билетов — 30 (если на столе лежало 30 билетов).
Еще одной сложностью является понятие равновероятности. Здесь следует воспользоваться интуитивным представлением детей, подкрепив его примерами. События равновероятны, если ни одно из них не имеет преимущества перед другими. С этой точки зрения выпадения орла и решки — равновероятны; выпадения каждой из шести граней кубика — равновероятны. Полезно привести примеры и неравновероятных событий. Например, в сообщении о погоде в зависимости от сезона сведения о том, что будет дождь или снег могут иметь разную вероятность. Летом наиболее вероятно сообщение о дожде, зимой — о снеге, а в переходный период (в марте или ноябре) они могут оказаться равновероятными. Понятие «более вероятное событие» можно пояснить через родственные понятия: более ожидаемое, происходящее чаще в данных условиях. В рамках базового курса не ставится задача понимания учениками строгого определения вероятности, умения вычислять вероятность. Но представление о равновероятных и неравновероятных событиях должно быть ими получено. Ученики должны научиться приводить примеры равновероятных и неравновероятных событий.
Возвращаясь к вопросу об измерении количества информации, заключенной в сообщении об одном из N равновероятных событий, предлагаем следующую логическую цепочку раскрытия темы.
Объяснение удобно начать с частного определения бита как меры информации в сообщении об одном из двух равновероятных событий. Обсуждая традиционный пример с монетой (орел — решка), следует отметить, что получение сообщения о результате бросания монеты уменьшило неопределенность знаний в два раза: перед подбрасыванием монеты было два равновероятных варианта, после получения сообщения о результате остался один единственный. Далее следует сказать, что и для всех других случаев сообщений о равновероятных событиях при уменьшении неопределенности знаний в два раза передается 1 бит информации.
Примеры, приведенные в учебнике, учитель может дополнить другими, а также предложить ученикам придумать свои примеры. Индуктивно, от частных примеров учитель вместе с классом приходит к обобщенной формуле: 2i = N. Здесь N — число вариантов равновероятных событий (неопределенность знаний), а i — количество информации в сообщении о том, что произошло одно из N событий.
Если N— известно, а i является неизвестной величиной, то данная формула превращается в показательное уравнение. Как известно, показательное уравнение решается с помощью функции логарифма: i= log2N. Здесь учителю предоставляются два возможных пути: либо с опережением уроков математики объяснить, что такое логарифм, либо «не связываться» с логарифмами. Во втором варианте следует рассмотреть с учениками решение уравнения для частных случаев, когда N есть целая степень двойки: 2, 4, 8, 16, 32 и т.д. Объяснение происходит по схеме:
Если N = 2 = 21, то уравнение принимает вид: 2i = 21, отсюда i = 1.
Если N = 4 = 22, то уравнение принимает вид: 21 = 22, отсюда i = 2.
Если N = 8 = 23, то уравнение принимает вид: 2i = 23, отсюда i = 3 и т. д.
В общем случае, если N = 2k, где k — целое число, то уравнение принимает вид 2i = 2k и, следовательно, i = k. Ученикам полезно запомнить ряд целых степеней двойки хотя бы до 210 = 1024. С этими величинами им предстоит еще встретиться в других разделах.
Для тех значений N, которые не являются целыми степенями двойки, решение уравнения 2i = N можно получать из приведенной в учебнике [26] таблицы в §2. Совсем не обязательно говорить ученикам, что это таблица логарифмов по основанию 2. Например, желая определить, сколько же бит информации несет сообщение о результате бросания шестигранного кубика, нужно решать уравнение: 2i = 6. Поскольку 22 < 6 < 23, то следует пояснить ученикам, что 2 < i < 3. Заглянув в таблицу, узнаем (с точностью до пяти знаков после запятой), что i = 2,58496 бит.
Рассмотренные примеры исчерпывают возможности содержательного подхода в решении проблемы измерения информации. Очевидно, что предложенный метод применим только в очень частных случаях.
Алфавитный подход — это единственный способ измерения информации, который может применяться по отношению к информации, циркулирующей в информационной технике, в компьютерах.
Опорным в этой теме является понятие алфавита. Алфавит — это конечное множество символов, используемых для представления информации. Число символов в алфавите называется мощностью алфавита (термин взят из математической теории множеств). В основном содержании базового курса алфавитный подход рассматривается лишь с позиции равновероятного приближения. Это значит, что допускается предположение о том, что вероятности появления всех символов алфавита в любой позиции в тексте одинаковы. Разумеется, это не соответствует реальности и является упрощающим предположением.
В рассматриваемом приближении количество информации, которое несет в тексте каждый символ (i), вычисляется из уравнения Хартли: 2i = N, где N — мощность алфавита. Величину i можно назвать информационным весом символа. Отсюда следует, что количество информации во всем тексте (i), состоящем из К символов, равно произведению информационного веса символа на К: I = i´К. Эту величину можно назвать информационным объемом текста. Такой подход к измерению информации еще называют объемным подходом.
Полезно обсудить с учениками следующий вопрос: какова минимальная мощность алфавита, с пoмощыо которого можно записывать (кодировать) информацию? Этот вопрос напрямую связан с заданием № 3 к § 3 учебника [11], которое звучит так: «Докажите, что исходя из алфавитного подхода, сообщение любой длины, использующее односимвольный алфавит, содержит нулевую информацию».
Предположим, что используемый алфавит состоит всего из одного символа, например «1». Интуитивно понятно, что сообщить что-либо с помощью единственного символа невозможно. Но это же доказывается строго с точки зрения алфавитного подхода. Информационный вес символа в таком алфавите находится из уравнения: 2i= 1. Но поскольку 1 = 2°, то отсюда следует, что i = 0 бит. Полученный вывод можно проиллюстрировать следующим образным примером. Представьте себе толстую книгу в 1000 страниц, на всех страницах которой написаны одни единицы (единственный символ используемого алфавита). Сколько информации в ней содержится? Ответ: нисколько, ноль. Причем такой ответ получается с любой позиции, как с содержательной, так и с алфавитной.
Минимальная мощность алфавита, пригодного для передачи информации, равна 2. Такой алфавит называется двоичным алфавитом. Информационный вес символа в двоичном алфавите легко определить. Поскольку 2i = 2, то i = 1 бит. Итак, один символ двоичного алфавита несет 1 бит информации. С этим обстоятельством ученики снова встретятся, когда будут знакомиться с алфавитом внутреннего языка компьютера — языка двоичного кодирования.
Бит — основная единица измерения информации. Кроме нее используются и другие единицы. Следует обратить внимание учеников на то, что в любой метрической системе существуют единицы основные (эталонные) и производные от них. Например, основная физическая единица длины — метр. Но существуют миллиметр, сантиметр, километр. Расстояния разного размера удобно выражать через разные единицы. Так же обстоит дело и с измерением информации. 1 бит — это исходная единица. Следующая по величине единица — байт. Байт вводится как информационный вес символа из алфавита мощностью 256. Поскольку 256 = 28, то 1 байт = 8 бит. Мы снова встречаемся с темой, которая является своеобразной пропедевтикой к будущему изучению компьютера.
Уже в рамках данной темы можно сообщить ученикам, что компьютер для внешнего представления текстов и другой символьной информации использует алфавит мощностью 256 (во внутреннем представлении любая информация в компьютере кодируется в двоичном алфавите). Фактически, для выражения объема компьютерной информации в качестве основной единицы используется байт.
Представляя ученикам более крупные единицы: килобайт, мегабайт, гигабайт — нужно обратить их внимание на то, что мы привыкли приставку «кило» воспринимать, как увеличение в 1000 раз. В информатике это не так. Килобайт больше байта в 1024 раза, а число 1024 = 210. Так же относится и «мега» по отношению к «кило» и т.д. Тем не менее часто при приближенных вычислениях используют коэффициент 1000.
В рамках углубленного курса учитель может изложить алфавитный подход в более адекватном варианте, без допущения равновероятности символов. Теоретический и практический материал на эту тему можно найти в пособии [8] в подразделе 1.4.
Примеры решения задач
Задачи по теме «Измерение информации. Содержательный подход» связаны с использованием уравнения 2i = N. Возможны два варианта условия задачи: 1) дано N, найти i; 2) дано i, найти N.
В случаях, когда N равно целой степени двойки, желательно, чтобы ученики выполняли вычисления «в уме». Как уже говорилось выше, полезно запомнить ряд целых степеней числа 2 хотя бы до 210. В противном случае следует использовать таблицу решения уравнения 2i = N, приведенную в [25] и [8], в которой рассматриваются значения N от 1 до 64.
Для основного уровня изучения базового курса предлагаются задачи, связанные с сообщениями о равновероятных событиях. Ученики должны это понимать и обязательно качественно обосновывать, используя термин «равновероятные события».
Пример 1. Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?
Решение. При случайном вытаскивании карт из перемешанной колоды ни одна из карт не имеет преимущества быть выбранной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик — события равновероятные. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 — числу карт в колоде. Если i — количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение:
2i = 32.
Поскольку 32 = 25, то, следовательно, i = 5 бит.
На тему данной задачи учитель может предложить еще несколько заданий. Например: сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так как красных и черных карт одинаковое количество).
Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? (2 бита, так как всего в колоде 4 масти и количество карт в них равные).
Пример 2. Два текста содержат одинаковое количество символов. Первый текст составлен в алфавите мощностью 32 символа, второй — мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?
Решение. В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа:
Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i1 для первого алфавита и i2 для второго алфавита:
2i1 = 32, отсюда i1 = 5 бит;
2i2 = 64, отсюда i2 = 6 бит.
Следовательно, информационные объемы первого и второго текстов будут равны:
I1 = К×5 бит, 12=К×6 бит.
Отсюда следует, что количество информации во втором тексте больше, чем в первом в 6/5, или в 1,2 раза.
Пример 4. Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение?
Решение. Переведем информационный объем сообщения из мегабайтов в биты. Для этого данную величину умножим дважды на 1024 (получим байты) и один раз — на 8:
I = 1/512•1024•1024•8 = 16384 бит.
Поскольку такой объем информации несут 1024 символа (К), то на один символ приходится:
i = I/K = 16384/1024 = 16 бит.
Отсюда следует, что размер (мощность) использованного алфавита равен 216 = 65 536 символов.
Заметим, что именно такой алфавит через некоторое время станет международным стандартом для представления символьной информации в компьютере (кодировка Unicode).
Изучение информационных процессов.
Понятие «информационные процессы», так же как и понятие «информация», является базовым в курсе информатики. Под информационными процессами понимаются любые действия, выполняемые с информацией. Примеры информационных процессов, с которыми нам приходится постоянно иметь дело: получение информации из средств СМИ, обучение, принятие управляющих решений, разработка технического проекта, документооборот на предприятии, сдача экзаменов и многие другие. Согласно схеме 1 существуют три основных типа информационных процессов, которые как составляющие присутствуют в любых других более сложных процессах. Это хранение информации, передача информации и обработка информации. Первоначально следует рассмотреть эти процессы без привязки к компьютеру, т. е. применительно к человеку. Затем, при изучении архитектуры ЭВМ, компьютерных информационных технологий речь пойдет о реализации тех же самых информационных процессов с помощью ЭВМ.
С хранением информации связаны следующие понятия: носитель информации (память), внутренняя память, внешняя память, хранилище информации.
Носитель информации — это физическая среда, непосредственно хранящая информацию. Основным носителем информации для человека является его собственная биологическая память (мозг человека). Собственную память человека можно назвать оперативной памятью. Здесь слово «оперативный» является синонимом слова «быстрый». Заученные знания воспроизводятся человеком мгновенно. Собственную память мы еще можем назвать внутренней памятью, поскольку ее носитель — мозг — находится внутри нас.
Все прочие виды носителей информации можно назвать внешними (по отношению к человеку). Виды этих носителей менялись со временем: в древности были камень, дерево, папирус, кожа и пр. Во II в. нашей эры в Китае была изобретена бумага. Однако до Европы она дошла лишь в XI в. С тех пор бумага является основным внешним носителем информации. Развитие информационной техники привело к созданию магнитных, оптических и других современных видов носителей информации
Хранилище информации — это определенным образом организованная информация на внешних носителях, предназначенная для длительного хранения и постоянного использования. Примерами хранилищ являются архивы документов, библиотеки, справочники, картотеки. Основной информационной единицей хранилища является определенный физический документ: анкета, книга, дело, досье, отчет и пр. Под организацией хранилища понимается наличие определенной структуры, т.е. упорядоченность, классификация хранимых документов. Такая организация необходима для удобства ведения хранилища: пополнения новыми документами, удаления ненужных, поиска информации и пр.
Знания, сохраненные в памяти человека, можно рассматривать как внутреннее хранилище информации, однако его организацию нам понять трудно. Основное свойство человеческой памяти — быстрота, оперативность воспроизведения хранящейся в ней информации. Но, по сравнению с внешними хранилищами, человеческая память менее надежна. Человеку свойственно забывать информацию. Хотя психологи утверждают, что из памяти человека ничего не исчезает, тем не менее способность к воспроизведению некоторых знаний довольно часто теряется человеком. Именно для более надежного хранения человек использует внешние носители, организует хранилища. Впрочем, известен исторический феномен в этом отношении: у народа древних инков не было письменности. Все свои знания они хранили в собственной памяти. С нашей точки зрения в этом случае трудно объяснить возможность достижения высокого уровня цивилизации инков.
Основные свойства хранилища информации: объем хранимой информации, надежность хранения, время доступа (т. е. время поиска нужных сведений), наличие защиты информации.
Информацию, хранимую на устройствах компьютерной памяти, принято называть данными. Для описания хранения данных в компьютере используются те же понятия: носитель, хранилище данных, организация данных, время доступа, защита данных. Организованные хранилища данных на устройствах внешней памяти компьютера принято называть базами и банками данных. Подробнее эти вопросы будут обсуждаться в теме «Базы данных и информационные системы».
Процесс обработки информации
Любой вариант процесса обработки информации происходит по следующей схеме (рис):
Рис.19.1 Общая схема процесса обработки информации
В любом случае можно говорить о том, что в процессе обработки информации решается некоторая информационная задача, которая предварительно может быть поставлена в традиционной форме: дан некоторый набор исходных данных — исходной информации; требуется получить некоторые результаты — итоговую информацию. Сам процесс перехода от исходных данных к результату и есть процесс обработки. Тот объект или субъект, который осуществляет обработку, может быть назван исполнителем обработки. Исполнитель может быть человеком, а» может быть специальным техническим устройством, в том числе компьютером.
Обычно обработка информации — это целенаправленный процесс. Для успешного выполнения обработки информации исполнителю должен быть известен способ обработки, т.е. последовательность действий, которую нужно выполнить, чтобы достичь нужною результата. Описание такой последовательности действий в информатике принято называть алгоритмом обработки.
Ученики должны уметь приводить примеры ситуаций, связанных с обработкой информации. Такие ситуации можно разделить на два типа.
Первый тип обработки: обработка, связанная с получением новой информации, нового содержания знаний.
К этому типу обработки относится решение математических задач. Например, даны две стороны треугольника и угол между ними, требуется определить все остальные параметры треугольника: третью сторону, углы, площадь, периметр. Способ обработки, т.е. алгоритм решения задачи, определяется математическими формулами, которые должен знать исполнитель.
К первому же типу обработки информации относится решение различных задач путем применения логических рассуждений. Например, следователь по некоторому набору улик находит преступника; человек, анализируя сложившиеся обстоятельства, принимает решение о своих дальнейших действиях; ученый разгадывает тайну древних рукописей и т.п.
Второй тип обработки: обработка, связанная с изменением формы, но не изменяющая содержания.
К этому типу обработки информации относится, например, перевод текста с одного языка на другой. Изменяется форма, но должно сохраниться содержание. Важным видом обработки для информатики является кодирование. Кодирование — это преобразование информации в символьную форму, удобную для ее хранения, передачи, обработки. Кодирование активно используется в технических средствах работы с информацией (телеграф, радио, компьютеры).
Другой вид обработки информации — структурирование данных. Структурирование связано с внесением определенного порядка, определенной организации в хранилище информации. Расположение данных в алфавитном порядке, группировка по некоторым признакам классификации, использование табличного или (графового представления — все это примеры структурирования. Еще один важный вид обработки информации — поиск. Задача поиска обычно формулируется так: имеется некоторое хранилище информации — информационный массив (телефонный справочник, словарь, расписание поездов и пр.), требуется найти в нем нужную информацию, удовлетворяющую определенным условиям поиска (телефон данной организации, перевод данного слова на английский язык, время отправления данного поезда). Алгоритм поиска зависит от способа организации информации. Если информация структурирована, то поиск осуществляется быстрее и можно построить оптимальный алгоритм.
Процесс передачи информации
Ключевыми понятиями в описании процесса передачи информации являются источник информации, приемник информации, информационный канал. Схематично этот процесс можно изобразить так (рис. 19.2):
Рис 19.2. Схема процесса передачи информации
В таком процессе информация представляется и передается в форме некоторой последовательности сигналов, символов, знаков. Например, при непосредственном разговоре между людьми происходит передача звуковых сигналов — речи, при чтении текста человек воспринимает буквы — графические символы. Передаваемая последовательность называется сообщением. От источника к приемнику сообщение передается через некоторую материальную среду (звук — акустические волны в атмосфере, изображение — световые электромагнитные волны). Если в процессе передачи используются технические средства связи, то их называют каналами передачи информации (информационными каналами). К ним относятся телефон, радио, телевидение.
Можно говорить о том, что органы чувств человека выполняют роль биологических информационных каналов. С их помощью информационное воздействие на человека доносится до памяти.
В рамках данной темы ученики должны уметь приводить конкретные примеры процесса передачи информации, определять для этих примеров источник, приемник информации, используемые каналы передачи информации.
При углубленном изучении базового курса информатики следует познакомить учеников с основными понятиями технической теории связи. Американским ученым Клодом Шенноном, одним из основателей теории информации, была предложена схема процесса передачи информации по техническим каналам связи (рис.8.3)
Рис.19.3 Схема технической системы передачи информации
Работу такой схемы можно пояснить на знакомом всем процессе разговора по телефону. Источником информации является говорящий человек. Кодирующим устройством — микрофон телефонной трубки, с помощью которого звуковые волны (речь) преобразуются в электрические сигналы. Каналом связи является телефонная сеть (провода, коммутаторы телефонных узлов через которые проходит сигнал). Декодирующим устройством является телефонная трубка (наушник) слушающего человека — приемника информации. Здесь пришедший электрический сигнал превращается в звук.
Связь, при которой передача производится в форме непрерывного электрического сигнала, называется аналоговой связью.
Под кодированием понимается любое преобразование информации, идущей от источника, в форму, пригодную для ее передачи по каналу связи. На заре эры радиосвязи применялся код азбуки Морзе. Текст преобразовывался в последовательность точек и тире (коротких и длинных сигналов) и передавался в эфир. Принимавший на слух такую передачу человек должен был суметь декодировать код обратно в текст. Еще раньше азбука Морзе использовалась в телеграфной связи. Передача информации с помощью азбуки Морзе — это пример дискретной связи.
В настоящее время широко используется цифровая связь, когда передаваемая информация кодируется в двоичную форму (0 и 1 – двоичные цифры), а затем декодируется в текст, изображение, звук. Цифровая связь, очевидно, тоже является дискретной.
Термином «шум» называют разного рода помехи, искажающие передаваемый сигнал и приводящие к потере информации. Такие помехи, прежде всего, возникают по техническим причинам: плохое качество линий связи, незащищенность друг от друга различных потоков информации, передаваемой по одним и тем же каналам. Часто, беседуя по телефону, мы слышим шум, треск, мешающие понять собеседника, или на наш разговор накладывается разговор совсем других людей. В таких случаях необходима защита от шума.
В первую очередь применяются технические способы зашиты каналов связи от воздействия шумов. Такие способы бывают самые разные, иногда простые, иногда — очень сложные. Например, использование экранированного кабеля вместо «голого» провода; применение разного рода фильтров, отделяющих полезный сигнал от шума и пр.
Клодом Шенноном была разработана специальная теория кодирования, дающая методы борьбы с шумом. Одна из важных идей этой теории состоит в том, что передаваемый по линии связи код должен быть избыточным. За счет этого потеря какой-то части информации при передаче может быть компенсирована. Например, если при разговоре по телефону вас плохо слышно, то повторяя каждое слово дважды, вы имеете больше шансов на то, что собеседник поймет вас правильно.
Однако нельзя делать избыточность слишком большой. Это приведет к задержкам и подорожанию связи. Теория кодирования К. Шеннона как раз и позволяет получить такой код, который будет оптимальным. При этом избыточность передаваемой информации будет минимально-возможной, а достоверность принятой информации — максимальной.
В современных системах цифровой связи часто применяется следующий прием борьбы с потерей информации при передаче. Все сообщение разбивается на порции — блоки. Для каждого блока вычисляется контрольная сумма (сумма двоичных цифр), которая передается вместе с данным блоком. В месте приема заново вычисляется контрольная сумма принятого блока, и если она не совпадает с первоначальной, то передача данного блока повторяется. Так будет происходить до тех пор, пока исходная и конечная контрольные суммы не совпадут.
При обсуждении темы об измерении скорости передачи информации можно привлечь прием аналогии. Аналог — процесс перекачки воды по водопроводным трубам. Здесь каналом передачи воды являются трубы. Интенсивность (скорость) этого процесса характеризуется расходом воды, т.е. количеством литров или кубометров, перекачиваемых за единицу времени (л/с или куб. м/с). В процессе передачи информации каналами являются технические линии связи. А если информацию непосредственно принимает человек, то его органы чувств — внутренние информационные каналы человека. По аналогии с водопроводом можно говорить об. информационном потоке, передаваемом по каналам. Скорость передачи информации — это информационный объем сообщения, передаваемого в единицу времени. Поэтому единицы измерения скорости информационного потока: бит/с, байт/с и др.
Еще одно понятие — пропускная способность информационных каналов — может быть объяснено с помощью «водопроводной» аналогии. Увеличить расход воды через трубы можно путем увеличения давления. Но этот путь не бесконечен. При слишком большом давлении трубу может разорвать. Поэтому техническими условиями использования водопровода всегда определяется предельное давление и как результат — предельный расход воды, который можно назвать пропускной способностью водопровода. Аналогичный предел скорости передачи данных имеют и технические линии информационной связи (телефонные лини, радиосвязь, оптико-волоконный кабель). Причины этому также носят физический характер.
Тема «Системы счисления» имеет прямое отношение к математической теории чисел. Однако в школьном курсе математики она, как правило, не изучается. Необходимость изучения этой темы в курсе информатики связана с тем фактом, что числа в памяти компьютера представлены в двоичной системе счисления, а для внешнего представления содержимого памяти, адресов памяти используют шестнадцатеричную или восьмеричную системы. Это одна из традиционных тем курса информатики или программирования. Являясь смежной с математикой, данная тема вносит вклад также и в фундаментальное математическое образование школьников.
Если рассматривать систему счисления как язык представления числовой информации, то можно сказать, что данные выше определения затрагивает только алфавит, синтаксис и семантику языка чисел. Более полное определение: «Система счисления — способ изображения чисел и соответствующие ему правила действия над числами». Под правилами действия понимаются способы выполнения арифметических вычислений в рамках данной системы счисления. Эти правила можно назвать прагматикой языка чисел.
Методические рекомендации по изучению темы
Изучаемые вопросы:
ª Позиционные и непозиционные системы счисления.
ª Основные понятия позиционных систем: основание, алфавит.
ª Развернутая форма представления чисел в позиционных системах.
ª Перевод чисел из одной системы в другую.
ª Особенности двоичной арифметики.
ª Связь между двоичной и шестнадцатеричной системами.
Ученики, безусловно, знакомы с записью чисел как римскими, так и арабскими цифрами. Они привыкли видеть римские цифры в обозначении глав в книге, в указании столетий (XX в.) и в некоторых других нумерациях. Математические расчеты они всегда производили в арабской системе чисел. В данной теме учителю предстоит раскрыть перед учениками эти, казалось бы, знакомые вещи с новой стороны.
С методической точки зрения бывает очень эффективным прием, когда учитель подводит учеников к самостоятельному, пусть маленькому, открытию. В данном случае желательно, чтобы ученики сами подошли к формулировке различия между позиционным и непозиционным принципом записи чисел. Сделать это можно, отталкиваясь от конкретного примера. Напишите на доске два числа:
XXX 333
Первое — римское тридцать, второе — арабское триста тридцать три. И задайте вопрос: «Чем отличается принцип записи многозначных чисел римскими и арабскими цифрами?» Скорее всего, вы сразу не услышите тот ответ, который бы хотели получить. Тогда, указывая на отдельные цифры римского числа, спрашивайте: «Что (какое количество) обозначает эта цифра?» Получите ответ: «Десять!» — «А эта цифра?» — «Десять!» — «А эта?» — «Десять» — «Как получается значение данного трехзначного числа?» — «Десять прибавить десять, прибавить десять, получается тридцать!» А теперь переходим к числу 333. Снова задаем вопросы: «Какое количество в записи числа обозначает первая цифра справа?» — «Три единицы!» — «А вторая цифра?» — «Три десятка!» — «А третья цифра?» — «Три сотни!» — «А как получается общее значение числа?» — «К трем единицам прибавить три десятка и прибавить три сотни получится триста тридцать три!»
Из этого диалога следуют все правила, которые учитель должен сообщить ученикам. В римском способе записи чисел значение, которое несет каждая цифра в числе, не зависит от позиции этой цифры. В арабском же способе значение, которое несет каждая цифра в записи числа, зависит не только от того, какая это цифра, но и от позиции, которую она занимает в числе. Сделав ударение на слове «позиция», учитель сообщает, что римский способ записи чисел называется непозиционным, а арабский — позиционным. После этого можно ввести термин «система счисления».
Система счисления — это определенный способ представления чисел и соответствующие ему правила действия над числами.
Римский способ записи чисел является примером непозиционной системы счисления, а арабский — это позиционная система счисления.
Следует подчеркнуть связь между способом записи чисел и приемами арифметических вычислений в соответствующей системе счисления. Предложите ученикам выполнить умножение, например, числа сто тридцать четыре на семьдесят шесть, используя римскую и арабскую системы счислений! С арабскими числами они легко справятся, а также смогут убедиться, что римские цифры — не помощники в вычислениях. В римской системе нет простых и понятных правил выполнения вычислений с многозначными числами. Для арабской системы такие правила известны еще с IX в. В этой теме полезно рассказать ученикам, что правила выполнения вычислений с многозначными числами были разработаны выдающимся математиком средневекового Востока Мухамедом аль-Хорезми и в Европе были названы алгоритмами (от латинского написания имени аль-Хорезми — Algorithm!). Этот факт следует напомнить позже, при изучении алгоритмизации. Итак, именно позиционные системы счисления стали основой современной математики. Далее, как и в математике, в информатике мы будем иметь дело только с числами в позиционных системах счисления.
Теперь нужно дать понять ученикам, что позиционных систем счисления существует множество, и отличаются они друг от друга алфавитом — множеством используемых цифр. Размер алфавита (число цифр) называется основанием системы счисления. Задайте вопрос: «Почему арабская система называется десятичной системой счисления?» Наверняка услышите в ответ про десять цифр в алфавите. Делаем вывод: основание арабской системы счисления равно десяти, поэтому она называется десятичной.
Следует показать алфавиты различных позиционных систем счисления. Системы с основанием не больше 10 используют только арабские цифры. Если же основание больше 10, то в роли цифр выступают латинские буквы в алфавитном порядке. Из таких систем в дальнейшем будет рассматриваться лишь шестнадцатерич-ная система.
Далее нужно научить учеников записывать натуральный ряд чисел в различных позиционных системах. Объяснение следует проводить на примере десятичной системы, для которой вид натурального ряда чисел им хорошо известен:
1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, ..., 19, 20, ..., 99, 100, 101, ...
Принцип построения ряда такой: сначала в порядке возрастания значений записываются все однозначные числа; первое двузначное число — всегда 10 (у многозначных целых чисел 0 впереди не является значащей цифрой и обычно не пишется). Далее следуют все двузначные сочетания единицы с другими цифрами; затем — двузначные числа, начинающиеся с 2, затем — с 3 и т. д. Самое большое двузначное число — 99. Затем идут трехзначные числа, начиная от 100 до 999 и т.д.
По такому же принципу строится натуральный ряд и в других системах счисления. Например, в четверичной системе (с основанием 4):
1, 2, 3, 10, 11, 12, 13, 20, 21, 22, 23, 30, 31, 32, 33, 100,
101, 102, 103, ПО, 111, ..., 333, 1000, ...
Аналогично и для других систем. Наибольший интерес представляет натуральный ряд двоичных чисел. Вот как он выглядит:
1, 10, 11, 100, 101, 110, 111, 1000, 1001, 1010, 1011, 1100,
1101, 1110, 1111, 10000, ...
Сущность позиционного представления чисел отражается в развернутой форме записи чисел. Снова для объяснения привлекаем десятичную систему. Например:
5319,12 = 5000 + 300 + 10 + 9 + 0,1 + 0,02 =
= 5´103 + 3´102 + 1´101 + 9 + 1´10-1 + 2´10-2.
Последнее выражение и называется развернутой формой записи числа. Слагаемые в этом выражении являются произведениями значащих цифр числа на степени десятки (основания системы счисления), зависящие от позиции цифры в числе — разряда. Цифры в целой части умножаются на положительные степени 10, а цифры в дробной части — на отрицательные степени. Показатель степени является номером соответствующего разряда. Аналогично можно получить развернутую форму чисел в других системах счисления. Например, для восьмеричного числа:
17538 = 1´103 + 7´102 + 5´101 + 3.
Здесь 108 = 810.
Следующий вопрос, изучаемый в этом разделе, — способы перевода чисел из одной системы в другую. Основная идея заключается в следующем: перевод чисел неизбежно связан с выполнением вычислений. Поскольку нам хорошо знакома лишь десятичная арифметика, то любой перевод следует свести к выполнению вычислений над десятичными числами.
Объяснение способов перевода следует начать с перевода десятичных чисел в другие системы счисления. Делается это просто: нужно перейти к записи развернутой формы числа в десятичной системе. Вот пример такого перехода для приведенного выше восьмеричного числа:
17538 = (1´103 + 7´102 + 5´101 + 3)8 = (1´83 +7´82 + 5´81+ 3)10.
Теперь нужно вычислить полученное выражение по правилам десятичной арифметики и получить окончательный результат:
17538 = (192 + 448 + 40 + 3)10 = 68310.
Чаще всего развернутую форму числа сразу записывают в десятичной системе. Вот еще пример с двоичным числом:
101101,12 =(1х25 + 0´24 + 1´23 + 1´22 + 0´21 + 1 + 1´2-1)10 = 32 + 8 + 4 + 1 + 0,5 = 45,510
Для вычисления значения числа по его развернутой форме записи существует удобный прием, который называется вычислительной схемой Горнера. Суть его состоит в том, что развернутая запись числа преобразуется в эквивалентную форму с вложенными скобками. Например, для рассмотренного выше восьмеричного числа это выглядит так:
17538 = (1´83 + 7´82 + 5´81 + 3)10 = ((1´8 + 7) ´8 + 5) ´8 + 3.
Нетрудно понять, что если раскрыть скобки, то получится тоже самое выражение. В чем же удобство скобочной структуры? А в том, что ее вычисление производится путем выполнения последовательной цепочки операций умножения и сложения в порядке их записи слева направо. Для этого можно использовать самый простой калькулятор (без памяти), поскольку не требуется сохранять промежуточные результаты. Схема Горнера сводит вычисление таких выражений к минимальному числу операций.
Перевод десятичных чисел в другие системы счисления — задача более сложная. В принципе, все происходит через ту же самую развернутую форму записи числа. Только теперь нужно суметь десятичное число разложить в сумму по степеням нового основания п Ф 10. Например, число 85,0 по степеням двойки раскладывается так:
8510 = 1´26 + 0´25 + 1´24 + 0´23 + 1´22 + 0´2 + 1 = - 10101012.
Однако проделать это в уме довольно сложно. Здесь следует показать формальную процедуру (алгоритм) такого перевода. Описание алгоритма можно прочитать в учебнике [9] или пособии [1]. Там же дается математическое обоснование алгоритма. Разбор этого обоснования требует от учеников определенного уровня математической грамотности и возможен в варианте углубленного изучения базового курса.
В рамках минимального объема базового курса не обязательно изучать приемы перевода дробных десятичных чисел в другие системы счисления. Если ставится цель получения при переводе дробного числа наиболее близкого значения, то, ограничивая число знаков, нужно производить округления. Для этого в процессе перевода следует вычислять на одну цифру больше, а затем, применяя правила округления, сокращать эту цифру. Выполняя округление, нужно соблюдать следующее правило: если первая отбрасываемая цифра больше или равна n/2 (п – основание системы), то к сохраняемому младшему разряду числа прибавляется единица. Например, округление восьмеричного числа 32,324718 до одного знака после запятой даст в результате 32,3; а округление до двух знаков после запятой – 32,33.
Математическая суть отмеченной выше проблемы связана со следующим фактом: многие дробные рациональные десятичные числа в других системах счисления оказываются иррациональными.
Применение двоичной системы счисления в ЭВМ может рассматриваться в двух аспектах: 1) двоичная нумерация; 2) двоичная арифметика, т. е. выполнение арифметических вычислений над двоичными числами. С двоичной нумерацией ученики встретятся в теме «Представление текста в компьютерной памяти». Рассказывая о таблице кодировки ASCII, учитель должен сообщить ученикам, что внутренний двоичный код символа — это его порядковый номер в двоичной системе счисления.
Практическая потребность знакомства с двоичной арифметикой возникает при изучении работы процессора. В этой теме рассказывается, как процессор ЭВМ выполняет арифметические вычисления. Согласно принципу Дж. фон Неймана, компьютер производит вычисления в двоичной системе счисления. В рамках базового курса достаточно ограничиться рассмотрением вычислений с целыми двоичными числами.
Для выполнения вычислений с многозначными числами необходимо знать правила сложения и правила умножения однозначных чисел. Вот эти правила:
0+0=0 0´0=0
1+0=1 1´0=0
1 + 1 = 10 1´1=1
Принцип перестановочности сложения и умножения работает во всех системах счисления. Далее следует сообщить, что приемы выполнения вычислений с многозначными числами в двоичной системе аналогичны десятичной. Иначе говоря, процедуры сложения, вычитания и умножения «столбиком» и деления «уголком» в двоичной системе производятся так же, как и в десятичной.
Рассмотрим правила вычитания и деления двоичных чисел. Операция вычитания является обратной по отношению к сложению. Из приведенной выше таблицы сложения следуют правила вычитания:
0-0=0; 1-0 = 1; 10 - 1 = 1.
Деление — операция обратная умножению. В любой системе счисления делить на 0 нельзя. Результат деления на 1 равен делимому. Деление двоичного числа на 102 ведет к перемещению запятой на один разряд влево, подобно десятичному делению на десять. Например:
10010:10 = 1001; 1011:10 = 101,1; 101100:10 = 10110.
Деление на 100 смещает запятую на 2 разряда влево и т.д. В базовом курсе можно не рассматривать сложные примеры деления многозначных двоичных чисел. Хотя способные ученики могут справиться и с ними, поняв общие принципы.
Представление информации, хранящейся в компьютерной памяти в ее истинном двоичном виде весьма громоздко из-за большого количества цифр. Имеется в виду запись такой информации на бумаге или вывод ее на экран. Для этих целей принято использовать восьмеричную или шестнадцатеричную системы счисления. В современных ПК чаще всего используется шестнадцатеричная система.
Существует простая связь между двоичным и шестнадцатеричным представлением числа. При переводе числа из одной системы в другую, одной шестнадцатеричной цифре соответствует 4-разрядный двоичный код. Это соответствие отражено в двоично-шестнадцатеричной таблице:
Таблица Двоично-шестнадцатеричная таблица
16 |
2 |
16 |
2 |
0 |
0000 |
8 |
1000 |
1 |
0001 |
9 |
1001 |
2 |
0010 |
А |
1010 |
3 |
0011 |
В |
1011 |
4 |
0100 |
С |
1100 |
5 |
0101 |
D |
1101 |
6 |
0110 |
Е |
1110 |
7 |
0111 |
F |
1111 |
Такая связь основана на том, что 16 = 24, и число различных 4-разрядных комбинаций из цифр 0 и 1 равно 16: от 0000 до 1111. Поэтому перевод чисел из «16» в «2» и обратно производится путем формальной перекодировки. Принято считать, что если дано шестнадцатеричное представление внутренней информации, то это равносильно наличию двоичного представления. Преимущество шестнадцатеричного представления состоит в том, что оно в 4 раза короче двоичного. Желательно, чтобы ученики запомнили двоично-шестнадцатеричную таблицу. Тогда действительно для них шестнадцатеричное представление станет эквивалентным двоичному.
В шестнадцатеричном виде записываются адреса оперативной памяти компьютера. Например, для учебного компьютера «Нейман» диапазон адресации байтов памяти от 00 до FF. Значит, в десятичной системе — от 0 до 255. Рассматривая структуру памяти компьютера, принципы адресации байтов памяти, можно обсудить с учениками следующий вопрос: как связан диапазон адресов с разрядностью адреса. В учебном компьютере «Нейман» адреса памяти представляются 8-разрядными двоичными числами (2-разрядными шестнадцатеричными). Поэтому число различных адресов равно 28, а диапазон значений — от 0 до 28 — 1 = 255 (FF16). Если адрес 16-разрядный, что часто имеет место для реальных ЭВМ, то размер адресуемой памяти равен 216 байт = 26 Кбайт = 64 Кбайт. Диапазон шестнадцатеричных адресов в таком случае: от 0000 до FFFF.
В современных компьютерах существуют приемы, позволяющие адресовать гораздо большие размеры памяти без увеличения разрядности адреса. Для этого используется многоуровневая структура организации памяти. Данный вопрос выходит за рамки содержания базового курса. Однако тема «Адресация памяти в современных ЭВМ» может быть предметом реферативной работы учащихся. Материал можно найти в специальной литературе, посвященной архитектуре современных ЭВМ.
Примеры решения задач
Пример 1. Перевести в десятичную систему числа: 2213; Е41А,1216.
Решение: 2213 =(2´3 + 2) ´З + 1 = 25|0;
Е41А,1216 = ((14´16 + 4) ´16 + 1) ´16 + 10 + (2/16 + 1)/16 = 58394 + 0,0703125 = 58394,070312510.
Обратите внимание на то, что дробная часть числа переводится отдельно, и на то, как применение схемы Горнера модифицируется для дробной части: умножение заменяется на деление, а значащие цифры подставляются в обратном порядке — справа налево.
Пример 2. Перевести шестнадцатеричные числа в восьмеричную систему.
Решение. Конечно, такой перевод можно производить и через десятичную систему по схеме 16 Þ 10 Þ 8. Но это долго и неудобно. Лучше выполнять такой перевод по схеме 16 Þ 2 Þ 8. В этом случае ничего не требуется вычислять, все сводится к формальной перекодировке. На втором шаге следует сгруппировать двоичные цифры тройками.
77416 = 0111 0111 01002 Þ 011 101 НО 100 = 35648;
F12,0457I6 = 1111 0001 0010,0000 0100 0101 01112Þ
Þ111 100 010 010, 000 001 000 101 011 100 = 7422,0105348.
Вопросы для самоконтроля:
1. В чем причина проблемы определения понятия «информация»? Какие возможны подходы к определению информации?
2. Как эволюционирует подход к линии информации и информационных процессов со сменой поколений школьных учебников?
3. Как объяснить ученикам разницу между декларативными и процедурными знаниями? Подберите серию примеров, иллюстрирующих эти понятия.
4. Объясните методический смысл введения понятия «информативность сообщения».
5. В чем состоит ограниченность содержательного подхода к определению и измерению информации? На каких примерах можно объяснить этот факт ученикам?
6. Как объяснить ученикам тот факт, что в информационной технике применяется алфавитный подход к измерению информации?
7. Пофантазируйте на тему: к каким последствиям привело бы принятие следующего определения единицы измерения информации: «Сообщение, уменьшающее неопределенность знаний в 10 раз несет единицу информации, которая называется 1 дит».
8. В чем состоят методические проблемы раскрытия учащимся вероятностного подхода к понятию информации? Как их можно преодолеть?
9. Попробуйте на примере школьного урока проиллюстрировать следующие понятия: информационные процессы, носитель информации, хранилище информации, передача информации, шум и защита от шума, обработка информации.
10. Является ли полным перечисленный в подразделе 7.4 список вариантов обработки информации? Попробуйте опровергнуть или подтвердить факт полноты.
Литература :
1. БочкинА.И. Методика преподавания информатики: Учебное пособие. - М.: Высш. шк., 1998.
2. Лапчик М.П., Семакин И., Хеннер Е.К. Методика преподавания информатики: Учеб-ное пособие. - М.: Академия, 2005. 622 с.
Жаңа тұрпатты мұғалімді қалыптастыруда ақпараттық технологияларды қолданудың педагогикалық шарттары
ҮЙДЕ ОҚЫТЫЛАТЫН БАЛАЛАРДЫ ЖАЛПЫ БІЛІМ БЕРУ МЕКТЕБІНІҢ ОҚУ БАҒДАРЛАМАЛАРЫМЕН ОҚЫТУ
Сигнализация және байланыс дистанциясы қызметінің мақсаттары мен міндеттері
Оқу үрдісін жүргізуде MS Excel бағдарламасын қолданудың тиімділігі
Терең тұлға аралық қатынастары
Мемлекет тарихы институты
Тіл мәдениетінің сипаты
ДЕРЕКТЕР ҚОРЫНЫҢ ТЕОРИЯСЫ
Автоматтандырылған оқыту жүйесі
Ақпараттық электрондық өнімдер