Я надеюсь, что кто-то может помочь .... У меня есть 8000 значений в таблице Excel, которые мне нужно найти на веб-сайте, а затем записать определенную строку данных с веб-сайта для ввода обратно в ...
Я пытаюсь извлечь содержимое веб-страницы в виде обычного текста - без тегов HTML. Вот пример кода: $ dom = \ Sunra \ PhpSimple \ HtmlDomParser :: file_get_html ($ url); $ result ['body'] = $ dom- > ...
У меня проблемы с настройкой простого поиска всех внешних элементов, соответствующих моему запросу, в HTML-документе. Я спрашиваю здесь с надеждой, что есть простая функция bs4, которая делает это, но это ...
Я хотел бы почистить некоторые цитаты и авторов, но не нашел способ отделить цитату от автора во время очистки. запросы на импорт из bs4 import BeautifulSoup #url = 'https: // www ....
Я получаю пустой CSV, хотя он не показывает каких-либо ошибок в коде. Невозможно просканировать веб-страницу. Это код, который я написал со ссылкой на YouTube: - импортировать scrapy из Example.items ...
Я пытаюсь очистить сайт, созданный с помощью vaadin, используя python. Это код, который я использую: запросы.get ('http://rnb.osim.ro/?pn=') .text, но это результат, который не содержит полезной информации: & ...
Я хотел бы реализовать базовый веб-скребок, используя Node.js, который является настолько универсальным, насколько это возможно. Я хочу, чтобы приложение могло анализировать и возвращать текст из любого HTML, игнорируя любую разметку / CSS / ...
Я разрабатываю проект, для которого я хочу очистить содержание веб-сайта в фоновом режиме и получить некоторое ограниченное содержание от того очищенного веб-сайта. Например, на моей странице у меня есть "идентификатор пользователя" и "...
Ниже представлен раздел моего веб-скребка, который сбрасывает список команд с этого сайта, помещает информацию игрока в массив и экспортирует массивы в столбцы в файле CSV. Мой скребок прекрасно работает, ...
Я пытаюсь создать простой скребок для загрузки адресов местоположения, которые находятся в трех разных областях (в пределах выпадающих значений), затем скопируйте все эти адреса в виде текста. Мне удалось использовать python ...
Я отказываюсь от газеты, чтобы получить тело уведомлений, p> Я беру все теги «& lt; p>», но мне нужно исключить тег «& lt; p> & lt; div class =" L video ">, потому что ...
У кого-либо есть хорошее решение для очистки источника HTML страницы с содержанием (в этом случае, HTML-таблицы) сгенерированный с JavaScript? Смущающе простой, хотя осуществимое решение с помощью Crowbar:...
Я пытался заставить этот кусок кода работать некоторое время. Обнаружены бесчисленные ресурсы, и я боюсь, что у меня не получается попробовать. Я несколько раз пересматривал этот код, и синтаксис выглядит ...
Он отлично работает через HTTP, но когда я пытаюсь использовать источник HTTPS, возникает следующее исключение: 10-12 13: 22: 11.169: WARN / System.err (332) : javax.net.ssl.SSLHandshakeException: java.security ....
Я хотел бы способ загрузить содержание каждой страницы в истории популярной статьи о Википедии. Другими словами, я хочу получить полный контент каждого редактирования для единственной статьи. Как был бы я...
Я создавал веб-скребок для внутреннего приложения с PHP, но одна из страниц имеет вход в систему JavaScript, там какой-либо способ автономного входа в систему очистить данные, как обычно? (Я...
Я фрагментирую данные из веб-сайта с помощью моего JAVA-приложения и хочу отобразить результат после парсинга кода страницы HTML в Текстовой области, сделанной в Swing. Текст как: привет <b> каждый </b> один...
I'm having trouble parsing HTML elements with "class" attribute using Beautifulsoup. The code looks like this soup = BeautifulSoup(sdata)
mydivs = soup.findAll ('div')
for div in mydivs: if (div["...
Я хочу извлечь данные из URL. Я хочу данные в столбце Excel. Название Название (изображения 1 и 2) Улица Адрес АдресЛокальный почтовый индекс Адресрегиона Адрес страны Изображение 1 Изображение 2 Вот мой код ....
Я собираюсь написать сотни пауков для сканирования различных статических веб-страниц, поэтому я выбрал Scrapy, чтобы помочь мне закончить свою работу. Во время работы я нахожу большинство сайтов простыми и не ...
Я написал скрипт на python для анализа содержимого каждого поля, заполняемого после нажатия на некоторые точки, доступные по всей карте. Я хотел бы только получить название различных свойств. mapLink ...
До После (добавлены адреса) У меня есть электронная таблица с названиями мест, и я хотел бы добавить адреса этих мест в следующую ячейку, используя формулу в Google Sheets. Я хотел бы сделать ...
Я пытаюсь очистить некоторые результаты поиска из этого регистра компании, но когда я пытаюсь очистить название компании, мои результаты, кажется, не возвращаются должным образом, как будто пункт названия компании разделен на 2 ...
Я пытаюсь очистить данные с https://www.seethroughny.net/payrolls/110681345, но с таблицей трудно иметь дело. Я перепробовал много вещей. импорт панд как pd импорт ssl импорт csv ssl ....
у всех имен в моей ссылке HTML есть один признак хорошо? (я использую красивый суп) Я хочу вырезать и напечатать все имена с их тегами, если их теги == 'конкретная строка' хорошо? мои классы зовут div мои id имена = '...
Я пытаюсь очистить набор веб-страниц. Когда я соскребаю с одной веб-страницы напрямую, я могу получить доступ к HTML. Однако, когда я перебираю фрейм данных pd, чтобы очистить набор веб-страниц, даже ...
В настоящее время расширение Scrapy Spidermon показывает только пример отправки электронной почты с помощью Amazon Simple Email Service. Возможно ли использовать Mandrill вместо этого? И как?
Использование веб-скребков (bs4, selenium) и выяснение того, существует ли лучший способ обработки исключений, не являющихся фатальными (т.е. продолжайте работу после исключения) В моем коде много исключений try
Пытаясь узнать, как использовать Python для поиска в Интернете, я получил меню ланча с этого http://bramatno8.kvartersmenyn.se/ Страница построена так: < div class = "menu" > < & сильный GT; ...