Собираем информацию с любого сайта в Excel таблицу без разработки: No-Code парсер за 15 минут
Vložit
- čas přidán 1. 02. 2023
- Скидка на все курсы нашей школы loftschool.com/courses-map/?p... по промокоду loftblog-youtube
Ты хочешь спарсить сайт интернет-магазина, проводишь исследование или хочешь просто собрать контакты для холодных продаж? В этом видео я научу тебя собирать данные с сайтов в таблицу без необходимости писать код.
Инструмент, которым ты научишься пользоваться, помогает создать парсер бесплатно и быстро. Для этого абсолюно не нужно обладать специальными навыками, а сделать парсер получится абсолютно без знаний программирования.
Ссылки, которые тебе пригодятся:
Бесплатный скрапер (расширение для Chrome) - t.ly/q-cDt
Набор более подробных обучающих роликов (на английском языке) - t.ly/Y0gs
Статья с одним из примеров, как можно обрабатывать подобные данные - t.ly/iAbW
Ты лучший день убил чтобы научить парсить сайт и не пришёл не к чему а нужно было всего 20 минут на твоё видео потратить огромное спасибо
Спасибо! Наконец нашла нечто понятное и доступное! Буду изучать! 🥰
Парень, ты просто золотой. Мне поставили задачу собрать данные с двух сайтов, а там позиций больше 2 тысяч. Я уж думал я с ума сойду пока буду этим заниматься. Но твоё видео меня очень выручило!!! Правда у меня возникла одна проблема: текст не копировался как текст, а только как HTML. Чтобы привести это всё к нормальному виду, пришлось посидеть поизучать часик-другой, как работает RegEx. Но спустя это время, я наконец-то получил то, что мне было нужно!!! Без парсинга сидел бы наверное неделю. И самое главное - это бесплатное и абсолютно безопасное приложение! Вообщем, очень выручил. Всё понятно и доходчиво объяснил, спасибо большое)))
Пожалуста брат!
Плати теперь
Обзор просто Супер! Четко, ясно, по существу. Спасибо.
Спасибо тебе, добрый человек! Сэкономил время и нервы) Огромное спасибо!
Спасибо большое! Редко пишу отзывы, но вы круто все объяснили. Сухо и по делу. Очень полезно! Все работает, протестил
Автор золотой человек! Просто Золотище) И обьясняет хорошо и говорит приятно! СПАСИБО!
😊❤❤❤ Спасибо за отоичный урок! Благодаря вашему видео за полчаса собрала нужные данные.
Спасибо, за обзор! Все доступно, понятно!
Молодец мужик, спасибо большое, очень помог. Успехов во всех начинаниях !
Золотье! И не экаешь. Приятно слушать.
Огромное спасибо за это видео... вы, можно сказать, жизнь мне спасли)))))
Спасибо. То что нужно. Все вечером попробую
Спасибо! Классный урок!🎉🎉
Супер! огромная Вам благодарность, подписываюсь.
Вот жешь...
За полезности рабочие и применяемые - и подписываюсь
Огромное спасибо за ролик!
Это шедеееевр!
Супер, спасибо 🙏
Ни фига не понял, но ты молодец!
Спокойный уверенный голос, сразу видно человек знает о чем говорит))
Спасибо за данное видео.
шикарный обзор. Спасибо!!!
Димон, спс. Зачётный видос!
Респект парень! Помог!
Спасибо за видео !
Просто красавчик 😘
благодарю, все четко
Видео просто супер
Классная штука, спасибо что поделились
МОЛОДЕЦ !!!! 👍👍👍👍👍👍👍👍👍👍👍👍👍👍
Всё работает! ты сделал мой день :)
😆🐹
Класс! Спасибо!!!
Здоровья тебе
Спасибо большое!
Спасибо!
Спасибо Бро!!!
Фига, круто)
огромное спасибо!
Спасибо ❤
Пока не разбирался но тоже спасибо напишу так как видно что это вполне рабочий инструмент!
Огромнейшее спасибо. Сначала пропустил момент, что надо провалится в созданный линк и там уже делать подразделы парсинга. Всё работает в марте 2024г😄😄😄😄😵💫
Блин я тоже это пропустил и не понимал почему не работает всё как надо
Спасибо!!!!
БЛАГОДАРЮ ❤🌷 ты спас меня😅
Уважаемый Дмитрий, этому ролику уже почти год! Но на сколько же он нужный и актуальный даже сейчас! Спасибо Тебе большое! Мне как воздух была важна эта информация! Дай Бог Тебе здоровья крепкого и любовницу красивую и порядочную! Спасибо!!!!!
просто топ!!!!
Спасибо😊
Спасибо)
кайф. Лайчище!
Как вы прекрасно выглялите
это интересно
спасибо большоее
Вроде в метаданных сайтмэпа можно писать в конце сылки к примеру =[1-7] , но зависит от сайта конечно. Это касаемо пагинациию. Но объясняешь прикольно
Круть
Оч полезно, открыл для себя - парсинг, предстоит еще изучить.
А можно по названию нужных мне товаров настроить парсер? чтобы он из моего списка брал названия и искал и собирал данные на сайтах нескольких?
да автор золото!) куда донатить )
Большое спасибо за видео. Подскажите, столкнулся с тем что страница сайта, откуда надо скачать данные, большая и много данных которые прогружаются с прокруткой. Как это можно настроить? потому что следуя по видео получается собрать данные только по тем компаниям которые не требуют дополнительной прокрутки вниз на странице.
Благодарю! Подскажи как установить автообновление допустим в задержку 24ч?
Здравствуйте! Спасибо за контент. Вы занимаетесь разработкой проекта? За оплату конечно. Нужно вытащить в excel заказы выданные на маркетплейсе Казахстана каспи
Супер, спасибо. Подскажите пожалуйста как можно сделать сбор данных с одной и той же страницы при ее обновлении, необходимое мне количество раз. Парсинг с этой страницы я настроил, но на самой странице сайта нет кнопки ее обновления и получается, что данные которые парсятся генерируются только при обновлении этой страницы путем нажатия на кнопку "обновить страницу" в самом браузере, а вот варианта сделать это на самой страницы сайта к сожалению нет. Заранее спасибо за ответ
Ты золото, и я тебя нашел
все цены будут обновляться в таблице иксель автоматически?
спасибо братух, очень полязная инфа! Мне предстояло сделать интернет-магазин. Естественно нужны фотографии товара. А где их взять? У конкурентов. Большее тысячи позиций товара я намеревался копировать и вставлять вручную в exel. Если бы не алгоритмы ютуба так бы и занимался сизофовым трудом
у меня на сайте допустим много данных и я использую multiple чтобы разбить по строкам и столбцам, но они разбиваются не так как я хотел, если убрать по всем multiple но остаются только одни значения, а их у меня 5 строк и 10 столбцов
как собирать e-mail адреса с сайтов ?
Классный инструмент
жаль, что бесполезный почти.
@@cybersystem5137 А какой полезен? С чем сравниваете? 😊
@@Skretch1174 с нормальным парсером.
Поделишься нормальным?
Спасибо за отличное видео и доступное изложение. Правильно ли я понял, что описанным способом парсится информация только с одной страницы сайта? А как быть, если страниц много? Например, несколько категорий товаров, у каждой есть подкатегории.
Нет, послушайте до конца, он красавчик, всё подробно объяснил и в том числе про пагинацию. Можно под себя подстроить все
Здравствуйте,а можно это скрапер приспособить для накрутки ПФ,например на Авито?
Боженька
Супер!
А этой штукой можно грузить свои файлы в инет?
Например: есть сайт с кнопкой "загрузить файл/реестр". У меня есть папка с этими файлами. Эта прога сможет их загрузить?
Спасибо!
есть инфа как сделать автоматический парсинг?
чтобы не заходить на сайт и не скачивать данные
а можно ли сделать так, чтобы данные с сайта автоматически обновлялись и в твоей таблице?
Все круто, но парсит не все товары, так как товары отображаются по мере скролла, можно это как-то доделать?
(Пытался парсить габариты товаров с сайта лента онлайн)
Здравствуйте! А если линки на карточках товара динамические (при наведении на объект) что делать? не получается сайтмап тогда сделать
Очень здорово! Спасибо! Скажите, картинку тоже можно загрузить? и читаю что таблица сама обновляется если сайт будет обновляться это действительно так?
пробовал, получается почему то одну только картинку
А как двигаться по различным категориям каталога сайта? только вручную каждую категорию вбивать каждый раз селекторы? или есть способ попроще?
Подскажи плиз, каким образом можно собрать ссылки на фотки товара в одну ячейку, а не в разные? Когда они в разных, так вроде не получится импортировать в вукомерс
автор, тебе нужно преподавать! :-)
Пожалуйста подскажите, а если хочется также собирать данные только с другой страницы на этом же сайте.
Всё круто но с картинками проблема, одну парсит а если они в галереи (три шт например) нифига не получается
Благодарю!
Там где другие парсеры не работают, этот способ прошел на ура.
только осталась проблема - не забирает картинки, хотя ссылки на картинки рабочие
Еще есть вопрос.
Если у товара несколько картинок. Как их забрать все с размещением в карточке одного товара?
а есль нужно искать по URL шаблоннго типа а не весь сайт как сделать ?
Спасибо за метериал!
Почему-то скачивает только 10 строчек.
В превью отбирается более 80, а вготовый файл собирает только 10.
есть инфа как сделать автоматический парсинг? то есть включить его в тг бот указывая ссылку
чтобы не заходить на сайт и не скачивать данные
А в гугл таблицы можно напрямую выгружать спарсенные данные?
Бро, расскажи как ограничить количество страниц которые пагинатор должен отработать?
Например я хочу только первые 50 страниц отпарсить?
Добрый день. Нужна услуга по парсингу телефонов с сайта. Можете помочь?
Аякс сайты тоже парсит?
Скажите, возможно ли этим парсером решить следующую задачу: есть сайт с 1 млн товаров, моя задача найти по названиям 2000 товаров и забрать цену. адреса страниц не известны, известны назввния товаров. может ли скрапер в строку поиска по сайту подтянуть название из заранее созданного списка? и на следующем этапе сайт отдает либо страницу с результатами (когда 2 и больше товаров полностью содержат запрос) или перенаправляет на страницу, которая единственная отвечает на запрос. Возможно ли разделение алгоритма действий, в зависимости от полученного ответа сайта?
Подскажите, а что делать, если на первом селекторе, ссылка открывает новую вкладку, из-за чего парсер выдает ошибку
Очень полезное видео, спасибо. НО. Я выбираю на сайте банкиру кучу отзывов (около 500) и они видны в дата ревью, но после скрэйпа выдает всего лишь 25 отзывов. Как это исправить?
Имеется ввиду линки на отзывы, так как на странице со всеми отзывами отзыв показан не полностью.
А если нет строки Selector graph ?
не могу понять почему нет
Попробовал на Фикс-прайсе, так-то, вроде, тянет, но у некоторых позиций - пустые цены (( Странно...
А возможно ли сделать так,чтоб с сайта за 24 часа до начала футбольного матча,снималась иныормация?
Спасибо за видео. На тестовом сайте понятно, что всё работает. А вот очень интересует селектор елемент скролл. Не могли бы вы продемонстрировать его на примере сайта вконтакте, как его правильно настроить чтоб собрать ссылки друзей, если друзей от 1000. У меня почему-то елемент скролл до конца окончания списка друзей не прокручивает. Только несколько раз и останавливается. Может что-то в настройках селектора что-то не так. Помогите пожалуйста.
огромное спасибо! Если нет плагиатора страниц 1-2-3.. а нужно скролить? как его научить?
Внимательно пересмотрите, он в конце ролика про скроллинг рассказывает
У меня после того как нажимаешь что бы показать что нужно парсить,просто кружок черный вместо стрелочки и ничего не могу не нажать не выделить
Братан как с карт собрать инфу с привязкой к координатам???
А как сделать несколько категорий, подкатегорий... Жутко интересно. Или под каждую настраивать карту? Да, это будет немного быстрее чем я в ручную забью.
А как собирать вариативность?
Как парсить тултипы?