Будем переводить скорость передачи в Мбайт/с, поскольку объем файла задан в Мб. Можно также решать задачу, приводя 5 Мб к битам, но так пусть связисты решают, биты - это их хлеб, а в информатике привычнее байты.
1 Мб = 2²⁰ б = 2²⁰×8 бит = 2²³ бит; 5 Мб = 5×2²³ бит 128000 бит/с = 1000×2⁷ бит/с и за 1 минуту с такой скоростью будет передано 60×1000×2⁷ = 60000×2⁷ бит. Тогда время на передачу файла составит (5×2²³) / (60000×2⁷) = 5×2¹⁶/60000 = 5×2⁶×2¹⁰/60000 = 5×64×1024/60000 ≈ 5.46 мин
Если есть калькулятор, можно сразу считать на нем, без степеней. 5 Мб = 5×1024×1024×8 = 41 943 040 бит. За минуту модем передает 128 000×60 = 7 680 000 бит Время передачи файла составит 41 943 040 / 7 680 000 ≈ 5.46 (мин)
Поисковый робот – это программа, которая в автоматическом режиме осуществляет переходы по сайтам через ссылки на них и индексирует содержимое страниц.
Порядок просмотра страниц и регулярность последующих визитов определяется алгоритмами поисковой машины. Используя файл robots.txt, в котором содержатся инструкции для поисковых роботов, владелец сайта может запретить индексирование, как всего сайта, так и некоторых его страниц.
Существуют следующие типы поисковых роботов:
национальный поисковый робот: собирает информацию с одного домена (например, .ru), используется в локальных системах поиска; глобальные поисковые роботы: собирают информацию с различных национальных сайтов, используются в глобальных системах поиска; индексатор картинок: ведет работу по индексации графики; индексатор медиа-файлов: ведет работу по индексации файлов формата аудио и видео; робот-зеркальщик: занимается определением зеркал сайтов; ссылочный робот: подсчитывает количество ссылок на сайте, ТИЦ и др.; робот-оформитель: оформляет результаты, выдаваемые поисковой системой; проверяющий робот: проверяет присутствие ресурса в базе данных и число индексированных документов; робот-стукач (иначе называется дятел): проверяет доступность сайта или документа, на который имеется ссылка; робот-шпион: занимается поиском ссылок на сайты, которые не находятся в базе данных системы; робот-смотритель: перепроверяет полученные результаты; робот-исследователь: занимается отладкой поискового алгоритма или исследованием конкретных сайтов; оперативный робот: определяет время последнего обновления сайтов.
1 Мб = 2²⁰ б = 2²⁰×8 бит = 2²³ бит; 5 Мб = 5×2²³ бит
128000 бит/с = 1000×2⁷ бит/с и за 1 минуту с такой скоростью будет передано 60×1000×2⁷ = 60000×2⁷ бит.
Тогда время на передачу файла составит (5×2²³) / (60000×2⁷) = 5×2¹⁶/60000 = 5×2⁶×2¹⁰/60000 = 5×64×1024/60000 ≈ 5.46 мин
Если есть калькулятор, можно сразу считать на нем, без степеней.
5 Мб = 5×1024×1024×8 = 41 943 040 бит.
За минуту модем передает 128 000×60 = 7 680 000 бит
Время передачи файла составит 41 943 040 / 7 680 000 ≈ 5.46 (мин)
Порядок просмотра страниц и регулярность последующих визитов определяется алгоритмами поисковой машины. Используя файл robots.txt, в котором содержатся инструкции для поисковых роботов, владелец сайта может запретить индексирование, как всего сайта, так и некоторых его страниц.
Существуют следующие типы поисковых роботов:
национальный поисковый робот: собирает информацию с одного домена (например, .ru), используется в локальных системах поиска;
глобальные поисковые роботы: собирают информацию с различных национальных сайтов, используются в глобальных системах поиска;
индексатор картинок: ведет работу по индексации графики;
индексатор медиа-файлов: ведет работу по индексации файлов формата аудио и видео;
робот-зеркальщик: занимается определением зеркал сайтов;
ссылочный робот: подсчитывает количество ссылок на сайте, ТИЦ и др.;
робот-оформитель: оформляет результаты, выдаваемые поисковой системой;
проверяющий робот: проверяет присутствие ресурса в базе данных и число индексированных документов;
робот-стукач (иначе называется дятел): проверяет доступность сайта или документа, на который имеется ссылка;
робот-шпион: занимается поиском ссылок на сайты, которые не находятся в базе данных системы;
робот-смотритель: перепроверяет полученные результаты;
робот-исследователь: занимается отладкой поискового алгоритма или исследованием конкретных сайтов;
оперативный робот: определяет время последнего обновления сайтов.