Меню

Таблица двоичной системы счисления для информатики 8 класса



Двоичная система счисления

Двоичная система — это один из видов позиционных систем счисления. Основание данной системы равно двум, то есть используется только два символа для записи чисел.

Немного истории

Впервые о данной системе чисел заговорил основоположник математического анализа Г.В. Лейбниц еще в XVII веке. Он доказал, что для данного множества действуют все арифметические операции: сложение, вычитание, умножение и даже деление. Однако вплоть до 30-х годов XX века данную систему не рассматривали всерьез. Но с развитием электронных устройств и ЭВМ, ученые вновь принялись к изучению данной темы, так как двоичная система отлично подходила для программирования и организации хранения данных в памяти компьютеров.

Таблица и алфавит

Алфавит двоичной системы счисления состоит всего из двух знаков: 0 и 1 . Однако это нисколько не усложняет выполнение арифметических действий.

Кроме того, двоичная система является самой удобной для быстрого перевода в другие системы счисления.

Так, чтобы перевести двоичное число в десятичное, необходимо найти значение его развернутой формы . Например:

1001102 = 1 ∙ 2 5 + 0 ∙ 2 4 + 0 ∙ 2 3 + 1 ∙ 2 2 + 1 ∙ 2 2 + 0 ∙ 2 0 = 32 + 0 + 0 + 4 + 2 + 0 = 3810

Чтобы наоборот перевести число в двоичную из десятичной, необходимо выполнить его деление на 2 с остатком, а затем записать все остатки в обратном порядке, начиная с частного:

Делимое 38 19 9 4 2
Делитель 2 2 2 2 2
Частное 19 9 4 2 1
Остаток 1 1

Для перевода в другие системы необходимо:

  • Перевести двоичный код в десятичный.
  • Выполнить деление десятичного числа на основание той системы, в которую требуется перевести.

Однако можно воспользоваться и более быстрым и удобным способом: разделить знаки двоичного числа на условные группы слева на право (для восьмеричной — по 3 знака; для шестнадцатеричной — по 4 знака), а затем воспользоваться таблицей перевода:

Двоичная Восьмеричная Шестнадцатеричная
001 1 1
010 2 2
011 3 3
100 4 4
101 5 5
110 6 6
111 7 7
1000 8
1001 9
1010 A
1011 B
1100 C
1101 D
1110 E
1111 F

110010012 = 11 001 001 = 011 001 001 = 3118

110010012 = 1100 1001 = С916

Представление двоичных чисел

В двоичной системе также существует понятие «отрицательных» чисел. И для того, чтобы провести какую-либо операцию с ними в двоичном коде, необходимо представить его в виде дополнительного кода. Запись положительного числа при этом не меняется ни для одного из кодов.

Чтобы найти дополнительный код отрицательного числа, необходимо воспользоваться его прямым и дополнительным кодами.

Прямой код предполагает приписывание единицы в начале без изменений записи:

A > 0 Aпр = 0A 1010112; Aпр = 01010112
A ≤ 0 Aпр = 1|A| -1010112; Aпр = 11010112

Для записи обратного кода цифры заменяют на противоположное значение, первую единицу от прямого кода оставляют без изменений:

A > 0 Aобр = 0A 1010112; Aобр = 01010112
A ≤ 0 Aобр = 1 A -1010112; Aобр = 10101002

Дополнительный код предполагает использование обратного кода, с той лишь разницей, что к отрицательному числу прибавляют единицу:

A > 0 Aдоп = 0A 1010112; Aдоп = 01010112
A ≤ 0 Aдоп = 1 A + 1 -1010112; Aдоп = 10101012

Применение двоичной системы в информатике

Двоичная система получила особое распространение в программировании цифровых устройств, так как она соответствует требованиям многих технических устройств, поддерживающих два состояния (есть ток, нет тока). Кроме того, является более простой и надежной для кодирования информации. Именно поэтому программный код большей части ЭВМ основан именно на двоичной системе счисления.

Источник

Компьютерная грамотность с Надеждой

Заполняем пробелы – расширяем горизонты!

Двоичное кодирование текстовой информации и таблица кодов ASCII

Минимальные единицы измерения информации – это бит и байт.

Один бит позволяет закодировать 2 значения (0 или 1).

Используя два бита, можно закодировать 4 значения: 00, 01, 10, 11.

Тремя битами кодируются 8 разных значений: 000, 001, 010, 011, 100, 101, 110, 111.

Сколько значений можно закодировать с помощью нуля и единицы

Из приведенных примеров видно, что добавление одного бита увеличивает в 2 раза то количество значений, которое можно закодировать:

1 бит кодирует –> 2 разных значения (2 1 = 2),

2 бита кодируют –> 4 разных значения (2 2 = 4),

3 бита кодируют –> 8 разных значений (2 3 = 8),

4 бита кодируют –> 16 разных значений (2 4 = 16),

5 бит кодируют –> 32 разных значения (2 5 = 32),

6 бит кодируют –> 64 разных значения (2 6 = 64),

7 бит кодируют –> 128 разных значения (2 7 = 128),

8 бит кодируют –> 256 разных значений (2 8 = 256),

9 бит кодируют –> 512 разных значений (2 9 = 512),

10 бит кодируют –> 1024 разных значений (2 10 = 1024).

Мы помним, что в одном байте не 9 и не 10 бит, а всего 8. Следовательно, с помощью одного байта можно закодировать 256 разных символов. Как Вы думаете, много это или мало? Давайте посмотрим на примере кодирования текстовой информации.

Как происходит кодирование текстовой информации

В русском языке 33 буквы и, значит, для их кодирования надо 33 байта. Компьютер различает большие (заглавные) и маленькие (строчные) буквы, только если они кодируются различными кодами. Значит, чтобы закодировать большие и маленькие буквы русского алфавита, потребуется 66 байт.

Для больших и маленьких букв английского алфавита потребуется ещё 52 байта. В итоге получается 66 + 52 = 118 байт. Сюда надо ещё добавить цифры (от 0 до 9), символ «пробел», все знаки препинания: точку, запятую, тире, восклицательный и вопросительный знаки, скобки: круглые, фигурные и квадратные, а также знаки математических операций: +, –, =, / (это деление), * (это умножение). Добавим также специальные символы: %, $, &, @, #, № и др. Все это вместе взятое как раз и составляет около 256 различных символов.

А дальше дело осталось за малым. Надо сделать так, чтобы все люди на Земле договорились между собой о том, какие именно коды (с 0 до 255, т.е. всего 256) присвоить символам. Допустим, все люди договорились, что код 33 означает восклицательный знак (!), а код 63 – вопросительный знак (?). И так же – для всех применяемых символов. Тогда это будет означать, что текст, набранный одним человеком на своем компьютере, всегда можно будет прочитать и распечатать другому человеку на другом компьютере.

Таблица ASCII

Такая всеобщая договоренность об одинаковом использовании чего-либо называется стандартом. В нашем случае стандарт должен представлять из себя таблицу, в которой зафиксировано соответствие кодов (с 0 до 255) и символов. Подобная таблица называется таблицей кодировки.

Но не всё так просто. Ведь символы, которые хороши, например, для Греции, не подойдут для Турции потому, что там используются другие буквы. Аналогично то, что хорошо для США, не подойдет для России, а то, что подойдет для России, не годится для Германии.

Поэтому приняли решение разделить таблицу кодов пополам.

Первые 128 кодов (с 0 до 127) должны быть стандартными и обязательными для всех стран и для всех компьютеров, это – международный стандарт.

А со второй половиной таблицы кодов (с 128 до 255) каждая страна может делать все, что угодно, и создавать в этой половине свой стандарт – национальный.

Первую (международную) половину таблицы кодов называют таблицей ASCII, которую создали в США и приняли во всем мире.

За вторую половину кодовой таблицы (с 128 до 255) стандарт ASCII не отвечает. Разные страны создают здесь свои национальные таблицы кодов.

Может быть и так, что в пределах одной страны действуют разные стандарты, предназначенные для различных компьютерных систем, но только в пределах второй половины таблицы кодов.

Читайте также:  Манго химический состав пищевая ценность

Коды из международной таблицы ASCII

0-31 – Особые символы, которые не распечатываются на экране или на принтере. Они служат для выполнения специальных действий, например, для «перевода каретки» – перехода текста на новую строку, или для «табуляции» – установки курсора на специальные позиции в строке текста и т.п.

32 – Пробел, который является разделителем между словами. Это тоже символ, подлежащий кодировке, хоть он и отображается в виде «пустого места» между словами и символами.

33-47 – Специальные символы (круглые скобки и пр.) и знаки препинания (точка, запятая и пр.).

48-57 – Цифры от 0 до 9.

58-64 – Математические символы: плюс (+), минус (-), умножить (*), разделить (/) и пр., а также знаки препинания: двоеточие, точка с запятой и пр.

65-90 – Заглавные (прописные) английские буквы.

91-96 – Специальные символы (квадратные скобки и пр.).

97-122 – Маленькие (строчные) английские буквы.

123-127 – Специальные символы (фигурные скобки и пр.).

За пределами таблицы ASCII, начиная с цифры 128 по 159, идут заглавные (прописные) русские буквы. А с цифры 160 по 170 и с 224 по 239 – маленькие (строчные) русские буквы.

Кодировка слова МИР

Пользуясь показанной кодировкой, мы можем представить себе, как компьютер кодирует и затем воспроизводит. Например, рассмотрим слово МИР (заглавными буквами). Это слово представляется тремя кодами:
букве М соответствует код 140 (по национальной российской системе кодировки),
для буквы И – это код 136 и
буква Р – это 144.

Но как уже говорилось ранее, компьютер воспринимает информацию только в двоичном виде, т.е. в виде последовательности нулей и единиц. Каждый байт, соответствующий каждой букве слова МИР, содержит последовательность из восьми нулей и единиц. Используя правила перевода десятичной информации в двоичную, можно заменить десятичные значения кодов букв на их двоичные аналоги.

Десятичной цифре 140 соответствует двоичное число 10001100. Это можно проверить, если сделать следующие вычисления: 2 7 + 2 3 +2 2 = 140. Степень, в которую возводится каждая «двойка» – это номер позиции двоичного числа 10001100, в которой стоит «1». Причем позиции нумеруются справа налево, начиная с нулевого номера позиции: 0, 1, 2 и т.д.

Более подробно о переводе чисел из одной системы счисления в другую можно узнать, например, из учебников по информатике или через Интернет.

Аналогичным образом можно убедиться, что цифре 136 соответствует двоичное число 10001000 (проверка: 2 7 + 2 3 = 136). А цифре 144 соответствует двоичное число 10010000 (проверка: 2 7 + 2 4 = 144).

Таким образом, в компьютере слово МИР будет храниться в виде следующей последовательности нулей и единиц (бит): 10001100 10001000 10010000.

Разумеется, что все показанные выше преобразования данных производятся с помощью компьютерных программ, и они не видны пользователям. Они лишь наблюдают результаты работы этих программ, как при вводе информации с помощью клавиатуры, так и при ее выводе на экран монитора или на принтер.

Неужели нужно знать все коды?

Следует отметить, что на уровне изучения компьютерной грамотности пользователям компьютеров не обязательно знать двоичную систему счисления. Достаточно иметь представление о десятичных кодах символов.

Только системные программисты на практике используют двоичную, шестнадцатеричную, восьмеричную и иные системы счисления. Особенно это важно для них, когда компьютеры выводят сообщения об ошибках в программном обеспечении, в которых указываются ошибочные значения без преобразования в десятичную систему.

Упражнения по компьютерной грамотности, позволяющие самостоятельно увидеть и почувствовать описанные системы кодировок, приведены в статье «Проверяем, кодирует ли компьютер текст?»

Источник

Таблица двоичной кодировки чисел

Заполняем пробелы – расширяем горизонты!

Двоичное кодирование текстовой информации и таблица кодов ASCII

Минимальные единицы измерения информации – это бит и байт.

Один бит позволяет закодировать 2 значения (0 или 1).

Используя два бита, можно закодировать 4 значения: 00, 01, 10, 11.

Тремя битами кодируются 8 разных значений: 000, 001, 010, 011, 100, 101, 110, 111.

Сколько значений можно закодировать с помощью нуля и единицы

Из приведенных примеров видно, что добавление одного бита увеличивает в 2 раза то количество значений, которое можно закодировать:

1 бит кодирует –> 2 разных значения (2 1 = 2),

2 бита кодируют –> 4 разных значения (2 2 = 4),

3 бита кодируют –> 8 разных значений (2 3 = 8),

4 бита кодируют –> 16 разных значений (2 4 = 16),

5 бит кодируют –> 32 разных значения (2 5 = 32),

6 бит кодируют –> 64 разных значения (2 6 = 64),

7 бит кодируют –> 128 разных значения (2 7 = 128),

8 бит кодируют –> 256 разных значений (2 8 = 256),

9 бит кодируют –> 512 разных значений (2 9 = 512),

10 бит кодируют –> 1024 разных значений (2 10 = 1024).

Мы помним, что в одном байте не 9 и не 10 бит, а всего 8. Следовательно, с помощью одного байта можно закодировать 256 разных символов. Как Вы думаете, много это или мало? Давайте посмотрим на примере кодирования текстовой информации.

Как происходит кодирование текстовой информации

В русском языке 33 буквы и, значит, для их кодирования надо 33 байта. Компьютер различает большие (заглавные) и маленькие (строчные) буквы, только если они кодируются различными кодами. Значит, чтобы закодировать большие и маленькие буквы русского алфавита, потребуется 66 байт.

Для больших и маленьких букв английского алфавита потребуется ещё 52 байта. В итоге получается 66 + 52 = 118 байт. Сюда надо ещё добавить цифры (от 0 до 9), символ «пробел», все знаки препинания: точку, запятую, тире, восклицательный и вопросительный знаки, скобки: круглые, фигурные и квадратные, а также знаки математических операций: +, –, =, / (это деление), * (это умножение). Добавим также специальные символы: %, $, &, @, #, № и др. Все это вместе взятое как раз и составляет около 256 различных символов.

А дальше дело осталось за малым. Надо сделать так, чтобы все люди на Земле договорились между собой о том, какие именно коды (с 0 до 255, т.е. всего 256) присвоить символам. Допустим, все люди договорились, что код 33 означает восклицательный знак (!), а код 63 – вопросительный знак (?). И так же – для всех применяемых символов. Тогда это будет означать, что текст, набранный одним человеком на своем компьютере, всегда можно будет прочитать и распечатать другому человеку на другом компьютере.

Читайте также:  Таблица синусов косинусов тангенсов котангенсов с корнями

Таблица ASCII

Такая всеобщая договоренность об одинаковом использовании чего-либо называется стандартом. В нашем случае стандарт должен представлять из себя таблицу, в которой зафиксировано соответствие кодов (с 0 до 255) и символов. Подобная таблица называется таблицей кодировки.

Но не всё так просто. Ведь символы, которые хороши, например, для Греции, не подойдут для Турции потому, что там используются другие буквы. Аналогично то, что хорошо для США, не подойдет для России, а то, что подойдет для России, не годится для Германии.

Поэтому приняли решение разделить таблицу кодов пополам.

Первые 128 кодов (с 0 до 127) должны быть стандартными и обязательными для всех стран и для всех компьютеров, это – международный стандарт.

А со второй половиной таблицы кодов (с 128 до 255) каждая страна может делать все, что угодно, и создавать в этой половине свой стандарт – национальный.

Первую (международную) половину таблицы кодов называют таблицей ASCII, которую создали в США и приняли во всем мире.

За вторую половину кодовой таблицы (с 128 до 255) стандарт ASCII не отвечает. Разные страны создают здесь свои национальные таблицы кодов.

Может быть и так, что в пределах одной страны действуют разные стандарты, предназначенные для различных компьютерных систем, но только в пределах второй половины таблицы кодов.

Коды из международной таблицы ASCII

0-31 – Особые символы, которые не распечатываются на экране или на принтере. Они служат для выполнения специальных действий, например, для «перевода каретки» – перехода текста на новую строку, или для «табуляции» – установки курсора на специальные позиции в строке текста и т.п.

32 – Пробел, который является разделителем между словами. Это тоже символ, подлежащий кодировке, хоть он и отображается в виде «пустого места» между словами и символами.

33-47 – Специальные символы (круглые скобки и пр.) и знаки препинания (точка, запятая и пр.).

48-57 – Цифры от 0 до 9.

58-64 – Математические символы: плюс (+), минус (-), умножить (*), разделить (/) и пр., а также знаки препинания: двоеточие, точка с запятой и пр.

65-90 – Заглавные (прописные) английские буквы.

91-96 – Специальные символы (квадратные скобки и пр.).

97-122 – Маленькие (строчные) английские буквы.

123-127 – Специальные символы (фигурные скобки и пр.).

За пределами таблицы ASCII, начиная с цифры 128 по 159, идут заглавные (прописные) русские буквы. А с цифры 160 по 170 и с 224 по 239 – маленькие (строчные) русские буквы.

Кодировка слова МИР

Пользуясь показанной кодировкой, мы можем представить себе, как компьютер кодирует и затем воспроизводит. Например, рассмотрим слово МИР (заглавными буквами). Это слово представляется тремя кодами:
букве М соответствует код 140 (по национальной российской системе кодировки),
для буквы И – это код 136 и
буква Р – это 144.

Но как уже говорилось ранее, компьютер воспринимает информацию только в двоичном виде, т.е. в виде последовательности нулей и единиц. Каждый байт, соответствующий каждой букве слова МИР, содержит последовательность из восьми нулей и единиц. Используя правила перевода десятичной информации в двоичную, можно заменить десятичные значения кодов букв на их двоичные аналоги.

Десятичной цифре 140 соответствует двоичное число 10001100. Это можно проверить, если сделать следующие вычисления: 2 7 + 2 3 +2 2 = 140. Степень, в которую возводится каждая «двойка» – это номер позиции двоичного числа 10001100, в которой стоит «1». Причем позиции нумеруются справа налево, начиная с нулевого номера позиции: 0, 1, 2 и т.д.

Более подробно о переводе чисел из одной системы счисления в другую можно узнать, например, из учебников по информатике или через Интернет.

Аналогичным образом можно убедиться, что цифре 136 соответствует двоичное число 10001000 (проверка: 2 7 + 2 3 = 136). А цифре 144 соответствует двоичное число 10010000 (проверка: 2 7 + 2 4 = 144).

Таким образом, в компьютере слово МИР будет храниться в виде следующей последовательности нулей и единиц (бит): 10001100 10001000 10010000.

Разумеется, что все показанные выше преобразования данных производятся с помощью компьютерных программ, и они не видны пользователям. Они лишь наблюдают результаты работы этих программ, как при вводе информации с помощью клавиатуры, так и при ее выводе на экран монитора или на принтер.

Неужели нужно знать все коды?

Следует отметить, что на уровне изучения компьютерной грамотности пользователям компьютеров не обязательно знать двоичную систему счисления. Достаточно иметь представление о десятичных кодах символов.

Только системные программисты на практике используют двоичную, шестнадцатеричную, восьмеричную и иные системы счисления. Особенно это важно для них, когда компьютеры выводят сообщения об ошибках в программном обеспечении, в которых указываются ошибочные значения без преобразования в десятичную систему.

Упражнения по компьютерной грамотности, позволяющие самостоятельно увидеть и почувствовать описанные системы кодировок, приведены в статье «Проверяем, кодирует ли компьютер текст?»

Источник

Таблица двоичной системы счисления для информатики 8 класса

Урок информатики

Информатика

Конвертация форм представления чисел осуществляется различными способами. Одним из них считается перевод десятичного значения в двоичную систему счисления по таблице. В 8 классе на информатике изучаются специальные методики для работы с величинами, а именно — их преобразование на машинный язык. Для этой цели специалисты разработали специальный алгоритм.

  1. Общие сведения
  2. Разрядная сетка
  3. Классификация систем счисления
  4. Применение двоичного кода
  5. Методика преобразования делением
  6. Алгоритм декодирования степенью

Общие сведения

Двоичная форма представления информации используется для кодирования данных. Ее также называют бинарной. Она связана с историей развития вычислительной техники, когда применялись различные логические элементы с двумя состояниями, а именно: 0 — отсутствие и 1 — наличие. Например, при протекании тока через катушку индуктивности происходит возникновение магнитного поля (оно будет присутствовать в соленоиде), а значит, этот процесс можно декодировать, как «1».

Общие сведения

С изобретением полупроводниковых приборов (транзисторов) габариты вычислительных средств существенно снизились. Значительной минимизации удалось достигнуть благодаря изобретению интегральных микросхем, которые обладали регистрами памяти. В них можно было записывать различную информацию.

Однако двоичная система является только одной из форм представления числовых значений. Специалисты рекомендуют ознакомиться с классификацией систем представления величин, поскольку этот аспект позволит понять саму суть кодирования информации.

Разрядная сетка

Компьютер

Каждое число состоит из цифр, объединенных в разрядную сетку. Последняя состоит из элементов, имеющих определенный весовой коэффициент. Однако не всем такие факты будут понятны. В этом случае специалисты в IT-сфере рекомендуют ознакомиться с числом «8236410». Оно состоит из цифр и является примером значения в десятеричном коде.

Читайте также:  Сравнительная характеристика Данко и Ларры из Старухи Изергиль

Записывается величина в таком формате: [8236410]<10>. Однако для упрощения принято писать просто число без скобок квадратного типа и указания типа системы представления числа, т. е. 8236410. Далее необходимо разложить его на составные элементы в виде такого списка:

  1. Единицы (10 0 ): 0.
  2. Десятки (10 1 ): 1.
  3. Сотни (10 2 ): 4.
  4. Тысячи (10 3 ): 6.
  5. Десятки тысяч (10 4 ): 3.
  6. Сотни тысяч (10 5 ): 2.
  7. Миллионы (10 6 ): 8.

Совокупность всех семи компонентов и называется разрядной сеткой. Если проанализировать все ее элементы, то можно сделать выводы:

  1. Каждый последующий больше предыдущего.
  2. Один разряд может кодироваться только одной цифрой (математическим символом) от 0 до 9.
  3. Основание эквивалентно 10, что соответствует названию системы счисления (десятичная).

Следует отметить, что величину 8236410 возможно представить в таком виде: 0*10^0 + 1*10^1 + 4*10^2 + 6*10^3 + 3*10^4 + 2*10^5 + 8*10^6=0+10+400+6000+30000+200000+6000000=8236410.

Любое число представляется в определенной системе исчисления. Последние делятся на отдельные группы. Далее нужно разобрать их классификацию.

Классификация систем счисления

Системы счисления условно классифицируются на два вида. К ним относятся следующие в зависимости от наличия разрядной сетки и влияния на ее значение:

  1. Влияющие.
  2. Независящие.

Первые называются также позиционными формами представления. Они состоят из четкой разрядной сетки, элементы которой зависят от расположения. Примерами являются следующие: двоичные, восьмеричные и шестнадцатеричные. Положение их компонентов влияет на значение самой величины.

Классификация систем счисления

Для демонстрации зависимости величины от размещения разрядов специалисты рекомендуют разобрать число 134. В последнем необходимо переставить цифры местами. В результате этого получатся такие величины:

  1. 143.
  2. 413.
  3. 431.
  4. 314.
  5. 341.

Доказывать зависимость расположения разряда от значения необходимо от противного, т .е. величины должны быть равны между собой при любой перестановке цифр. Первый шаг заключается в отнимании от исходного значения величины «143». При их равенстве разность должна быть равна нулю. Однако это не так, поскольку при устном счете или использовании калькулятора будет получено число, отличное от 0.

Если выполнить аналогичную операцию для остальных четырех величин, то будут получены также ненулевые числа. Следовательно, утверждение доказано.

Вторым типом представления чисел являются унарные системы счисления. Они не имеют разрядной сетки. В них наблюдается полное соответствие каждого компонента одному значению. Данная форма удобна при подсчете выполненных элементов какой-либо операции. Например, погрузка мешков цемента в машину.

При подсчете количества применяются специальные математические символы в виде палочек, звездочек и т. д. Каждый из элементов соответствует определенному числу. Например, один мешок, погруженный в машину, обозначается палочкой, а десять — звездочкой.

Следует отметить, что на начальной стадии изучения является двоичная система счисления, примером которой считается величина [1100100]<2>. Это значение эквивалентно числу в десятичном формате «100». Далее необходимо разобрать практическое использование двоичного (бинарного) кода в сфере информационных технологий.

Применение двоичного кода

Применение двоичного кода

Бинарный код является базовым. С его помощью можно осуществлять кодирование в другие системы представления, а именно: 8-ричную и 16-ричную. Двоичная система позволяет кодировать незначительные объемы информации, поскольку обладает наименьшей мощностью среди остальных способов декодирования информации.

Кроме того, бинарное счисление применяется при построении различных условий в программировании при написании программных продуктов. Оно очень часто используется в логических конструкциях. Одной из них является «IF-ELSE», в которой переменная или выражение может принимать только значения истины (1) или лжи (0).

При проектировании различных устройств для прошивки микроконтроллера также применяется бинарный код. Например, стиральная машинка-автомат при запуске выполняет определенную программу, записанную в специальной флеш-памяти.

Чтобы повысить возможности той или иной вычислительной системы, необходимо применять 8-ричную и 16-ричную системы счисления. Они позволяют работать с большим массивом данных. Конвертация в них выполняется по определенным этапам:

  1. Декодирование в двоичный код десятеричного представления.
  2. Перевод и искомую систему счисления.

Для таких операций предусмотрены два способа кодирования. Далее нужно разобрать самый простой из них — методику деления столбиком.

Методика преобразования делением

Алгоритм деления в столбик при переводе десятичной формы в двоичную является самым простым. Его суть заключается в делении искомой величины на основание системы, т. е. двойку. Он имеет следующий вид:

  1. Записать значение в десятичной форме представления.
  2. Поделить его на 2. Если величина делится на 2, то записывается единица. В противном случае — нуль. Операция продолжается до тех пор, пока частное не будет эквивалентно делителю или меньше его величины.
  3. Результат записывается снизу вверх.

Для понимания методики необходимо перевести величину 100 в двоичный код. Это выполняется следующим образом:

Методика преобразования делением

  1. Искомая величина: 100.
  2. Деление на 2: 100/2=50 (0).
  3. 50/2=25 (0).
  4. 25/2=12 (1).
  5. 12/2=6 (0).
  6. 6/2=3 (0).
  7. 3/2=1 (1).
  8. Остаток: 3-2=1 (1).
  9. Результат (двоичный код): 1100100.

Операция обратного преобразования является очень простой. Для этого необходимо сложить элементы разрядной сетки с учетом коэффициентов, т. е. 0*2^0+0*2^1+1*2^2+0*2^3+0*2^4+1*2^5+1*2^6. Если подсчитать все элементы числового выражения, то получится значение, равное сотне. Однако это не единственный алгоритм перевода. Далее нужно рассмотреть методику степеней.

Алгоритм декодирования степенью

Методика степеней позволяет решать задачи конвертации десятичной величины в двоичный код при помощи специальной таблицы двоичных чисел. Она может быть представлена и списком. Последний имеет следующий вид:

Алгоритм декодирования степенью

  1. 2^0=1.
  2. 2^1=2.
  3. 2^2=4.
  4. 2^3=8.
  5. 2^4=16.
  6. 2^5=32.
  7. 2^6=64.
  8. 2^7=128.
  9. 2^8=256.
  10. 2^9=512.
  11. 2^10=1024.

Для конвертации применяется определенная методика. Она имеет следующий вид:

  1. Написать величину в десятичной форме.
  2. Определить максимальное значение степени (МАКС).
  3. Отнять величину, полученную во втором пункте, от исходного значения.
  4. Выполнить операции во втором и третьем пунктах до нулевой величины.

Чтобы разобраться в алгоритме, необходимо реализовать его на практическом примере. Конвертация числа десятичного формата в двоичный при помощи степенной методики имеет такой вид:

  1. Записать величину: 100.
  2. Найти максимальную степень (1): 2^6=64, поскольку следующая равна 128, а эта величина превышает искомую.
  3. Разность: 100-2^6=100-64=36.
  4. МАКС(36): 2^5=32 (1).
  5. 36-32=4.
  6. 4=2^2 (1).
  7. Заполнить ряд нулей и записать результат с высшего разряда: [1100100]<2>.

Следует отметить, что проверка правильности решения (обратная операция конвертирования) применяется так, как и в алгоритме конвертации посредством деления в столбик. Кроме того, результат можно проверить также при помощи онлайн-калькулятора, поддерживающего формы представления информации.

Таким образом, двоичный код применяется в вычислительной технике для кодирования информации на машинный язык, а также для преобразования в восьмеричную и шестнадцатеричную формы представления чисел.

Источник