В
Все
М
Математика
А
Английский язык
Х
Химия
Э
Экономика
П
Право
И
Информатика
У
Українська мова
Қ
Қазақ тiлi
О
ОБЖ
Н
Немецкий язык
Б
Беларуская мова
У
Українська література
М
Музыка
П
Психология
А
Алгебра
Л
Литература
Б
Биология
М
МХК
О
Окружающий мир
О
Обществознание
И
История
Г
Геометрия
Ф
Французский язык
Ф
Физика
Д
Другие предметы
Р
Русский язык
Г
География
milisochka1
milisochka1
28.05.2021 15:10 •  Информатика

Клиенту необходимо правильно принять переданное ему сообщение.
сообщение состоит из последовательности, составленной из букв a-p.
при передаче сообщения каждая буква кодируется байтом (последовательностью 8 бит), которые и по каналу.
в процессе передачи и приема в канале могут возникать ошибки.
частота появления ошибок в канале постоянна. ошибкой считается случайное изменение какого-нибудь бита с 0 на 1 или с 1 на 0. таким образом принимается не всегда тот код, который был передан.
при декодировании принятого сигнала выбирается та буква, код которой наиболее близок к принятому коду в смысле расстояния хэмминга.

необходимо написать программу, которая определяет, как изменить шифр так, чтобы максимально повысить его устойчивость к шуму, изменив кодовое представление только одной буквы. на вход программы подается весь шифр, на выходе она выдает значение буквы, и какой код ей должен соответствовать.
в случае, если существует несколько самых эффективных решений следует выдать любое из них.

формат примеров входных файлов
символ код
a 0
b 231
c 15

p 71

Показать ответ
Ответ:
lililobanova20
lililobanova20
16.10.2020 10:36
Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены в двоичном коде, т. е. используется алфавит мощностью два (всего два символа 0 и 1). Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1). Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц - машинным языком. Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255.
0,0(0 оценок)
Ответ:
konkina
konkina
07.08.2021 05:32
var a: array[1..2,1..4] of real;
    b,c: string; 
    d,x,y: real;
    i,j: integer;
begin
   b:='ABCD';  c:='xy';
   writeln('трапеция ABCD');
   for i:=1 to 4 do
   begin
     writeln('координаты точки ',b[i],': ');
     for j:=1 to 2 do
     begin
       write('   ',c[j],i,' = ');
       readln(a[j,i]);
     end;  
   end;  
   x:=(a[1,3]-a[1,2]+a[1,4]-a[1,1])/2;
   y:=(a[2,3]-a[2,2]+a[2,4]-a[2,1])/2;
   d:=sqrt(x*x+y*y);
   writeln('длина средней линии:  ',d:5:2);
end.

ввод - вывод

трапеция ABCD
координаты точки A: 
   x1 = 3
   y1 = 2
координаты точки B: 
   x2 = 5
   y2 = 5
координаты точки C: 
   x3 = 9
   y3 = 5
координаты точки D: 
   x4 = 10
   y4 = 2
длина средней линии:   5.50
0,0(0 оценок)
Популярные вопросы: Информатика
Полный доступ
Позволит учиться лучше и быстрее. Неограниченный доступ к базе и ответам от экспертов и ai-bota Оформи подписку
logo
Начни делиться знаниями
Вход Регистрация
Что ты хочешь узнать?
Спроси ai-бота