Меню

Виды парсеров по сферам применения

30+ парсеров для сбора данных с любого сайта

30+ парсеров для сбора данных с любого сайта

Десктопные/облачные, платные/бесплатные, для SEO, для совместных покупок, для наполнения сайтов, для сбора цен… В обилии парсеров можно утонуть.

Мы разложили все по полочкам и собрали самые толковые инструменты парсинга — чтобы вы могли быстро и просто собрать открытую информацию с любого сайта.

Зачем нужны парсеры

Парсер — это программа, сервис или скрипт, который собирает данные с указанных веб-ресурсов, анализирует их и выдает в нужном формате.

С помощью парсеров можно делать много полезных задач:

  • Цены. Актуальная задача для интернет-магазинов. Например, с помощью парсинга вы можете регулярно отслеживать цены конкурентов по тем товарам, которые продаются у вас. Или актуализировать цены на своем сайте в соответствии с ценами поставщика (если у него есть свой сайт).
  • Товарные позиции: названия, артикулы, описания, характеристики и фото. Например, если у вашего поставщика есть сайт с каталогом, но нет выгрузки для вашего магазина, вы можете спарсить все нужные позиции, а не добавлять их вручную. Это экономит время.
  • Метаданные: SEO-специалисты могут парсить содержимое тегов title, description и другие метаданные.
  • Анализ сайта. Так можно быстро находить страницы с ошибкой 404, редиректы, неработающие ссылки и т. д.

Для справки. Есть еще серый парсинг. Сюда относится скачивание контента конкурентов или сайтов целиком. Или сбор контактных данных с агрегаторов и сервисов по типу Яндекс.Карт или 2Гис (для спам-рассылок и звонков). Но мы будем говорить только о белом парсинге, из-за которого у вас не будет проблем.

Где взять парсер под свои задачи

Есть несколько вариантов:

  1. Оптимальный — если в штате есть программист (а еще лучше — несколько программистов). Поставьте задачу, опишите требования и получите готовый инструмент, заточенный конкретно под ваши задачи. Инструмент можно будет донастраивать и улучшать при необходимости.
  2. Воспользоваться готовыми облачными парсерами (есть как бесплатные, так и платные сервисы).
  3. Десктопные парсеры — как правило, программы с мощным функционалом и возможностью гибкой настройки. Но почти все — платные.
  4. Заказать разработку парсера «под себя» у компаний, специализирующихся на разработке (этот вариант явно не для желающих сэкономить).

Первый вариант подойдет далеко не всем, а последний вариант может оказаться слишком дорогим.

Что касается готовых решений, их достаточно много, и если вы раньше не сталкивались с парсингом, может быть сложно выбрать. Чтобы упростить выбор, мы сделали подборку самых популярных и удобных парсеров.

Законно ли парсить данные?

В законодательстве РФ нет запрета на сбор открытой информации в интернете. Право свободно искать и распространять информацию любым законным способом закреплено в четвертом пункте 29 статьи Конституции.

Допустим, вам нужно спарсить цены с сайта конкурента. Эта информация есть в открытом доступе, вы можете сами зайти на сайт, посмотреть и вручную записать цену каждого товара. А с помощью парсинга вы делаете фактически то же самое, только автоматизированно.

Но если вы хотите собрать персональные данные пользователей и использовать их для email-рассылок или таргетированной рекламы, это уже будет незаконно (эти данные защищены законом о персональных данных).

Десктопные и облачные парсеры

Облачные парсеры

Основное преимущество облачных парсеров — не нужно ничего скачивать и устанавливать на компьютер. Вся работа производится «в облаке», а вы только скачиваете результаты работы алгоритмов. У таких парсеров может быть веб-интерфейс и/или API (полезно, если вы хотите автоматизировать парсинг данных и делать его регулярно).

Например, вот англоязычные облачные парсеры:

  • Import.io,
  • Mozenda (доступна также десктопная версия парсера),
  • Octoparce,
  • ParseHub.

Из русскоязычных облачных парсеров можно привести такие:

Любой из сервисов, приведенных выше, можно протестировать в бесплатной версии. Правда, этого достаточно только для того, чтобы оценить базовые возможности и познакомиться с функционалом. В бесплатной версии есть ограничения: либо по объему парсинга данных, либо по времени пользования сервисом.

Десктопные парсеры

Большинство десктопных парсеров разработаны под Windows — на macOS их необходимо запускать с виртуальных машин. Также некоторые парсеры имеют портативные версии — можно запускать с флешки или внешнего накопителя.

Популярные десктопные парсеры:

  • ParserOK,
  • Datacol,
  • Screaming Frog, ComparseR, Netpeak Spider — об этих инструментах чуть позже поговорим подробнее.

Виды парсеров по технологии

Браузерные расширения

Для парсинга данных есть много браузерных расширений, которые собирают нужные данные из исходного кода страниц и позволяют сохранять в удобном формате (например, в XML или XLSX).

Парсеры-расширения — хороший вариант, если вам нужно собирать небольшие объемы данных (с одной или парочки страниц). Вот популярные парсеры для Google Chrome:

Надстройки для Excel

Программное обеспечение в виде надстройки для Microsoft Excel. Например, ParserOK. В подобных парсерах используются макросы — результаты парсинга сразу выгружаются в XLS или CSV.

Google Таблицы

С помощью двух несложных формул и Google Таблицы можно собирать любые данные с сайтов бесплатно.

IMPORTXML

Функция использует язык запросов XPath и позволяет парсить данные с XML-фидов, HTML-страниц и других источников.

Вот так выглядит функция:

Функция принимает два значения:

  • ссылку на страницу или фид, из которого нужно получить данные;
  • второе значение — XPath-запрос (специальный запрос, который указывает, какой именно элемент с данными нужно спарсить).

Хорошая новость в том, что вам не обязательно изучать синтаксис XPath-запросов. Чтобы получить XPath-запрос для элемента с данными, нужно открыть инструменты разработчика в браузере, кликнуть правой кнопкой мыши по нужному элементу и выбрать: Копировать → Копировать XPath.

30+ парсеров для сбора данных с любого сайта

С помощью IMPORTXML можно собирать практически любые данные с html-страниц: заголовки, описания, мета-теги, цены и т.д.

IMPORTHTML

У этой функции меньше возможностей — с ее помощью можно собрать данные из таблиц или списков на странице. Вот пример функции IMPORTHTML:

Читайте также:  Точная таблица роста и веса детей

Она принимает три значения:

  • Ссылку на страницу, с которой необходимо собрать данные.
  • Параметр элемента, который содержит нужные данные. Если хотите собрать информацию из таблицы, укажите «table». Для парсинга списков — параметр «list».
  • Число — порядковый номер элемента в коде страницы.

Виды парсеров по сферам применения

Для организаторов СП (совместных покупок)

Есть специализированные парсеры для организаторов совместных покупок (СП). Их устанавливают на свои сайты производители товаров (например, одежды). И любой желающий может прямо на сайте воспользоваться парсером и выгрузить весь ассортимент.

Чем удобны эти парсеры:

  • интуитивно понятный интерфейс;
  • возможность выгружать отдельные товары, разделы или весь каталог;
  • можно выгружать данные в удобном формате. Например, в Облачном парсере доступно большое количество форматов выгрузки, кроме стандартных XLSX и CSV: адаптированный прайс для Tiu.ru, выгрузка для Яндекс.Маркета и т. д.

Популярные парсеры для СП:

Парсеры цен конкурентов

Инструменты для интернет-магазинов, которые хотят регулярно отслеживать цены конкурентов на аналогичные товары. С помощью таких парсеров вы можете указать ссылки на ресурсы конкурентов, сопоставлять их цены с вашими и корректировать при необходимости.

Вот три таких инструмента:

Парсеры для быстрого наполнения сайтов

Такие сервисы собирают названия товаров, описания, цены, изображения и другие данные с сайтов-доноров. Затем выгружают их в файл или сразу загружают на ваш сайт. Это существенно ускоряет работу по наполнению сайта и экономят массу времени, которое вы потратили бы на ручное наполнение.

В подобных парсерах можно автоматически добавлять свою наценку (например, если вы парсите данные с сайта поставщика с оптовыми ценами). Также можно настраивать автоматический сбор или обновление данных по расписания.

Примеры таких парсеров:

Парсеры для SEO-специалистов

Отдельная категория парсеров — узко- или многофункциональные программы, созданные специально под решение задач SEO-специалистов. Такие парсеры предназначены для упрощения комплексного анализа оптимизации сайта. С их помощью можно:

  • анализировать содержимое robots.txt и sitemap.xml;
  • проверять наличие title и description на страницах сайта, анализировать их длину, собирать заголовки всех уровней (h1-h6);
  • проверять коды ответа страниц;
  • собирать и визуализировать структуру сайта;
  • проверять наличие описаний изображений (атрибут alt);
  • анализировать внутреннюю перелинковку и внешние ссылки;
  • находить неработающие ссылки;
  • и многое другое.

Пройдемся по нескольким популярным парсерам и рассмотрим их основные возможности и функционал.

Парсер метатегов и заголовков PromoPult

Стоимость: первые 500 запросов — бесплатно. Стоимость последующих запросов зависит от количества: до 1000 — 0,04 руб./запрос; от 10000 — 0,01 руб.

Возможности

С помощью парсера метатегов и заголовков можно собирать заголовки h1-h6, а также содержимое тегов title, description и keywords со своего или чужих сайтов.

Инструмент пригодится при оптимизации своего сайта. С его помощью можно обнаружить:

  • страницы с пустыми метатегами;
  • неинформативные заголовки или заголовки с ошибками;
  • дубли метатегов и т.д.

Также парсер полезен при анализе SEO конкурентов. Вы можете проанализировать, под какие ключевые слова конкуренты оптимизируют страницы своих сайтов, что прописывают в title и description, как формируют заголовки.

30+ парсеров для сбора данных с любого сайта

Сервис работает «в облаке». Для начала работы необходимо добавить список URL и указать, какие данные нужно спарсить. URL можно добавить вручную, загрузить XLSX-таблицу со списком адресов страниц, или вставить ссылку на карту сайта (sitemap.xml).

Парсер метатегов и заголовков — не единственный инструмент системы PromoPult для парсинга. В SEO-модуле системы можно бесплатно спарсить ключевые слова, по которым добавленный в систему сайт занимает ТОП-50 в Яндексе/Google.

30+ парсеров для сбора данных с любого сайта

Здесь же на вкладке “Слова ваших конкурентов” вы можете выгрузить ключевые слова конкурентов (до 10 URL за один раз).

30+ парсеров для сбора данных с любого сайта

Подробно о работе с парсингом ключей в SEO-модуле PromoPult читайте здесь.

Netpeak Spider

Стоимость: от 19$ в месяц, есть 14-дневный пробный период.

Парсер для комплексного анализа сайтов. С Netpeak Spider можно:

  • провести технический аудит сайта (обнаружить битые ссылки, проверить коды ответа страниц, найти дубли и т.д.). Парсер позволяет находить более 80 ключевых ошибок внутренней оптимизации;
  • проанализировать основные SEO-параметры (файл robots.txt, проанализировать структуру сайта, проверить редиректы);
  • парсить данные с сайтов с помощью регулярных выражений, XPath-запросов и других методов;
  • также Netpeak Spider может импортировать данные из Google Аналитики, Яндекс.Метрики и Google Search Console.

30+ парсеров для сбора данных с любого сайта

Screaming Frog SEO Spider

Стоимость: лицензия на год — 149 фунтов, есть бесплатная версия.

Многофункциональный инструмент для SEO-специалистов, подходит для решения практически любых SEO-задач:

  • поиск битых ссылок, ошибок и редиректов;
  • анализ мета-тегов страниц;
  • поиск дублей страниц;
  • генерация файлов sitemap.xml;
  • визуализация структуры сайта;
  • и многое другое.

30+ парсеров для сбора данных с любого сайта

В бесплатной версии доступен ограниченный функционал, а также есть лимиты на количество URL для парсинга (можно парсить всего 500 url). В платной версии таких лимитов нет, а также доступно больше возможностей. Например, можно парсить содержимое любых элементов страниц (цены, описания и т.д.).

ComparseR

Стоимость: 2000 рублей за 1 лицензию. Есть демо-версия с ограничениями.

Еще один десктопный парсер. С его помощью можно:

  • проанализировать технические ошибки на сайте (ошибки 404, дубли title, внутренние редиректы, закрытые от индексации страницы и т.д.);
  • узнать, какие страницы видит поисковой робот при сканировании сайта;
  • основная фишка ComparseR — парсинг выдачи Яндекса и Google, позволяет выяснить, какие страницы находятся в индексе, а какие в него не попали.

30+ парсеров для сбора данных с любого сайта

Анализ сайта от PR-CY

Стоимость: платный сервис, минимальный тариф — 990 рублей в месяц. Есть 7-дневная пробная версия с полным доступом к функционалу.

Онлайн-сервис для SEO-анализа сайтов. Сервис анализирует сайт по подробному списку параметров (70+ пунктов) и формирует отчет, в котором указаны:

  • обнаруженные ошибки;
  • варианты исправления ошибок;
  • SEO-чеклист и советы по улучшению оптимизации сайта.
Читайте также:  Как считать подходящие для зачатия или опасные дни

30+ парсеров для сбора данных с любого сайта

Анализ сайта от SE Ranking

Стоимость: платный облачный сервис. Доступно две модели оплаты: ежемесячная подписка или оплата за проверку.

Стоимость минимального тарифа — 7$ в месяц (при оплате годовой подписки).

Возможности:

  • сканирование всех страниц сайта;
  • анализ технических ошибок (настройки редиректов, корректность тегов canonical и hreflang, проверка дублей и т.д.);
  • поиск страниц без мета-тегов title и description, определение страниц со слишком длинными тегами;
  • проверка скорости загрузки страниц;
  • анализ изображений (поиск неработающих картинок, проверка наличия заполненных атрибутов alt, поиск «тяжелых» изображений, которые замедляют загрузку страниц);
  • анализ внутренних ссылок.

Xenu’s Link Sleuth

Стоимость: бесплатно.

Десктопный парсер для Windows. Используется для парсинга все url, которые есть на сайте:

  • ссылки на внешние ресурсы;
  • внутренние ссылки (перелинковка);
  • ссылки на изображения, скрипты и другие внутренние ресурсы.

Часто применяется для поиска неработающих ссылок на сайте.

30+ парсеров для сбора данных с любого сайта

A-Parser

Стоимость: платная программа с пожизненной лицензией. Минимальный тарифный план — 119$, максимальный — 279$. Есть демо-версия.

Многофункциональный SEO-комбайн, объединяющий 70+ разных парсеров, заточенных под различные задачи:

  • парсинг ключевых слов;
  • парсинг данных с Яндекс и Google карт;
  • мониторинг позиций сайтов в поисковых системах;
  • парсинг контента (текст, изображения, видео) и т.д.

Кроме набора готовых инструментов, можно создать собственный парсер с помощью регулярных выражений, языка запросов XPath или Javascript. Есть доступ по API.

30+ парсеров для сбора данных с любого сайта

Чек-лист по выбору парсера

Краткий чек-лист, который поможет выбрать наиболее подходящий инструмент или сервис.

  1. Четко определите, для каких задач вам нужен парсер: анализ SEO конкурентов или мониторинг цен, сбор данных для наполнения каталога, съем позиций и т.д.
  2. Определите, какой объем данных и в каком виде нужно получать.
  3. Определите, как часто вам нужно собирать данные: единоразово или с определенной периодичностью (раз в день/неделю/месяц).
  4. Выберите несколько инструментов, которые подходят для решения ваших задач. Попробуйте демо-версии. Узнайте, предоставляется ли техническая поддержка (желательно даже протестировать ее — задать парочку вопросов и посмотреть, как быстро вы получите ответ и насколько он будет исчерпывающим).
  5. Выберите наиболее подходящий сервис по соотношению цена/качество.

Для крупных проектов, где требуется парсить большие объемы данных и производить сложную обработку, более выгодной может оказаться разработка собственного парсера под конкретные задачи.

Для большинства же проектов достаточно будет стандартных решений (возможно, вам может быть достаточно бесплатной версии любого из парсеров или пробного периода).

Источник

Поиск для интернет-магазина: 24 обязательных элемента, которые помогут покупателям найти нужное и увеличат конверсию

Меня зовут Максим Жуков, я из Kislorod. У агентства узкий фокус — занимаемся разработкой и развитием интернет-магазинов с особым отношением к конверсии.

Эффективность конверсионной воронки сайта во многом зависит от того, насколько хорошо реализован интерфейс и функционал разных этапов воронки с точки зрения удобства для пользователя.

Раньше мы писали об ошибках в корзине и в оформлении заказа, рассказывали о своём взгляде на идеальную карточку товара. В этой статье перечислим основные элементы, которые позволяют нам повышать качество поиска в клиентских проектах.

«Потерявшийся» на сайте покупатель — потерянный покупатель. Если пользователь не найдет нужный товар в интернет-магазине, хотя он есть в наличии, магазин недополучит прибыль. Мало, чтобы функционал поиска присутствовал на сайте — важно, чтобы он действительно помогал находить товары.

По результатам исследований команды Baymard Institute, которые проанализировали 60 прибыльных интернет-магазинов США и Европы, поиск в 61% интернет-магазинов не соответствует ожиданиям пользователей, а на 15% сайтов работает неэффективно. Мы стремимся делать e-commerce лучше, поэтому расскажем, насколько важна функциональность и как организовать поиск по сайту.

Главная задача поиска — помочь пользователю найти нужные товары, поэтому от реализации функциональности сильно зависит конверсия. Во время исследований Baymard Institute, 60% пользователей начинали взаимодействие с сайтом с поиска.

По данным Shopify, пользователи, выполнившие поиск, совершают покупку в 1,8 раза чаще. А если поиск не дал релевантного результата, 80% посетителей покидают сайт.

Грамотная реализация поиска для интернет-магазина обеспечивает:

  • простоту и скорость нахождения товара покупателем;
  • сокращение пути пользователя по воронке продаж;
  • комфорт при покупке, а значит лояльность к интернет-магазину.

Это позволяет вести эффективную работу с самым ценным трафиком — пользователями, которые ищут конкретный товар.

Плохо реализованный поиск раздражает пользователей, снижает конверсию и уровень лояльности.

Если вы продаете те же товары, что и конкуренты, поиск должен уметь обрабатывать скопированное на сайте конкурента название товара. Например, пользователь может скопировать название товара на сайте DNS:

Затем вбить его в поиск на Ситилинк и получить результат:

Как видите, поиск на citilink.ru не только отлично справился с задачей, но и вероятно увёл покупателя у DNS, потому что товар на citilink.ru стоит дешевле:

Карточка искомого товара на citilink.ru

Анализируя поиск, можно получить ценные данные:

об аудитории — пол, возраст, уровень дохода, семейное положение, на каком этапе воронки продаж находится покупатель, индивидуальную информацию (размер одежды или обуви, наличие домашнего питомца, авто или загородного дома).

о товарах — какие ищут чаще, по каким запросам, какие лучше продаются, чего не хватает в ассортименте магазина.

Это позволит корректировать маркетинговые стратегии, создавать специальные и персонализированные предложения, предлагать самые востребованные товары.

Анализ поиска в одном из проектов показал, что пользователи активно ищут товар, который широко представлен в офлайн-рознице, но отсутствует в интернет-магазине. Мы указали клиенту на существующий спрос и предложили добавить категорию товара на сайт. Это позволило увеличить оборот интернет-магазина за счет категории на шестизначную сумму.

В другом проекте мы улучшили функциональность поиска по сайту. Был простой поиск с кнопкой «Найти»:

Мы внедрили улучшенный и многофункциональный внутренний поиск, который:

  • автоматически подгружает список популярных запросов и товаров;
  • сортирует товары в выпадающем меню по популярности на основании количества заказов;
  • учитывает ошибки в раскладке, автоматически переводит раскладки с русского на английский и наоборот;
  • распознает синонимы к поисковым запросам;
  • позволяет настроить SEO-страницы с уникальным ЧПУ и мета-тегами на основе поискового запроса.
Читайте также:  Какие ошибки мы допускаем при покупке джинсов больших размеров

В результате показатель отказов среди пользователей, взаимодействующих с поиском по сайту, уменьшился на 9%:

А глубина просмотра страниц выросла с 7,28 в июле до 8,97 в августе:

В итоге количество транзакций с поиска на смартфонах выросло на 49%.

Мы рекомендуем использовать сервисы интеллектуального поиска для интернет-магазина — например, Elasticsearch, Sphinx или дополнительные модули оптимизации поиска, если сайт на 1С-Битрикс. Современные поисковые движки в связке с сервисами персонализации увеличивают скорость и возможности поиска:

понимают запросы с ошибками и опечатками;

подстраиваются под потребности пользователей;

  • показывают список подходящих категорий;
  • учитывают сезонность и многое другое.
  • Пользователи привыкли к поиску в Яндекс и Google, с их впечатляющими возможностями интерпретации сложных запросов и выдачи релевантных результатов. От поиска в интернет-магазинах ожидают примерно того же.

    Каким должен быть современный поиск внутри сайта:

    Поле поиска не должно быть спрятано за иконкой или в бургере. Оптимально размещать его в шапке сайта, рядом с меню — где пользователи привыкли видеть поисковую строку, и отображать поиск на каждой странице сайта. Пример заметного и правильно оформленного поля поиска для сайта видим на wildberries.ru:

    В одном из наших проектов, конверсия в заказы покупателей, которые воспользовались поиском, составила 3,66%. А среди тех, кто не воспользовался — 1,21%.

    С точки зрения юзабилити важно, чтобы в поле поиска выводилась поисковая подсказка, которая исчезает с началом введения запроса.

    Во время введения запроса функциональность должна предлагать возможные варианты товаров в выпадающем окне для ускорения поиска и сокращения количества ошибок при вводе. Вот так это реализовано на ozon.ru:

    В выпадающем списке поисковых подсказок можно отображать важную информация о наиболее популярных товарах, которые соответствуют запросу пользователя — например, стоимость или ключевые характеристики.

    Окно с поисковыми подсказками должно быть отсортировано так, чтобы наиболее релевантный для конкретного пользователя товар отображается выше. Для этого нужно понимать ключевые факторы, влияющие на решение о заказе в конкретной нише, или выводить наиболее покупаемые товары в соответствующей поиску категории товаров на основе Big Data.

    Для магазинов с недорогими товарами, которые приобретают импульсивно, можно реализовать возможность покупки из выпадающего окна с поисковыми подсказками, там самым сократив путь пользователя по воронке сайта. Пользователь может увидеть заинтересовавший товар и сразу приобрести его, даже не переходя к выдаче.

    Источник

    

    Определение наличия товара на складах магазинов при помощи таблицы Excel

    Для примера представим, что у нас есть 3 магазина со складами. На складах этих магазинов хранится товар в разных количествах, который периодически продается или списывается. Для менеджера по закупке товаров на склады магазинов будет очень тяжело отследить те позиции, которые заканчиваются на складах, когда общий перечень товаров около нескольких тысяч наименований.

    Для облегчения можно применить таблицу Эксель с формулами, отслеживающими уменьшение количества товара на магазинах до определенного критичного количества и оповещающего об этом менеджера.

    Склады магазинов таблица

    Создаем таблицу, в которой первый столбец — номер позиции, второй – наименование товара, следом идут столбцы указывающие количество товара на складах магазинов.

    В конце, собственно, сам столбец с формулой отслеживания количества.

    Шапка таблицы

    Критерием для формулы будет количество товара менее 2 шт., если на складе одного из магазинов осталось менее 2шт. по какой либо позиции формула высветит сообщение: «Необходимо пополнение склада»

    Источник

    Как сделать — Фильтра/поиска таблицы

    Узнать, как создать фильтр таблицы с помощью JavaScript.

    Фильтр таблицы

    Как использовать JavaScript для поиска определенных данных в таблице.

    Имя Страна
    Alfreds Futterkiste Германия
    Berglunds snabbkop Швеция
    Island Trading Великобритания
    Koniglich Essen Германия
    Laughing Bacchus Winecellars Канада
    Magazzini Alimentari Riuniti Италия
    North/South Великобритания
    Paris specialites Франция

    Создание отфильтрованную таблицу

    Шаг 1) Добавить HTML:

    Пример

    Имя Страна
    Alfreds Futterkiste Германия
    Berglunds snabbkop Швеция
    Island Trading Великобритания
    Koniglich Essen Германия
    Шаг 2) Добавить CSS:

    Стиль входного элемента и таблицы:

    Пример

    #myInput <
    background-image: url(‘/css/searchicon.png’); /* Добавить значок поиска для ввода */
    background-position: 10px 12px; /* Расположите значок поиска */
    background-repeat: no-repeat; /* Не повторяйте изображение значка */
    width: 100%; /* Полная ширина */
    font-size: 16px; /* Увеличить размер шрифта */
    padding: 12px 20px 12px 40px; /* Добавить немного отступов */
    border: 1px solid #ddd; /* Добавить серую границу */
    margin-bottom: 12px; /* Добавить некоторое пространство под входом */
    >

    #myTable <
    border-collapse: collapse; /* Свернуть границы */
    width: 100%; /* Полная ширина */
    border: 1px solid #ddd; /* Добавить серую границу */
    font-size: 18px; /* Увеличить размер шрифта */
    >

    #myTable th, #myTable td <
    text-align: left; /* Выравнивание текста по левому краю */
    padding: 12px; /* Добавить отступ */
    >

    #myTable tr <
    /* Добавить нижнюю границу для всех строк таблицы */
    border-bottom: 1px solid #ddd;
    >

    #myTable tr.header, #myTable tr:hover <
    /* Добавить серый цвет фона для заголовка таблицы и при наведении курсора мыши */
    background-color: #f1f1f1;
    >

    Шаг 3) Добавить JavaScript:

    Пример

    Совет: Удалить toUpperCase() если вы хотите выполнить поиск с учетом регистра.

    Совет: Изменить tr[i].getElementsByTagName(‘td’)[0] к [1] если вы хотите найти «Страна» (индекс 1) вместо «имя» (индекс 0).

    Совет:Кроме того, проверить Фильтр списка.

    Источник

    Adblock
    detector