当前位置: 首页 > news >正文

广州专业网站建设性价比高aso优化怎么做

广州专业网站建设性价比高,aso优化怎么做,毕业网站设计代做,菏泽百度网站建设在我们的初级教程中,我们介绍了如何使用Scrapy创建和运行一个简单的爬虫。在这篇文章中,我们将深入了解Scrapy的强大功能,学习如何使用Scrapy提取和处理数据。 一、数据提取:Selectors和Item 在Scrapy中,提取数据主要…

在我们的初级教程中,我们介绍了如何使用Scrapy创建和运行一个简单的爬虫。在这篇文章中,我们将深入了解Scrapy的强大功能,学习如何使用Scrapy提取和处理数据。

一、数据提取:Selectors和Item

在Scrapy中,提取数据主要通过Selectors来完成。Selectors基于XPath或CSS表达式的查询语言来选取HTML文档中的元素。你可以在你的爬虫中使用response对象的xpathcss方法来创建一个Selector对象。

例如,我们可以修改我们的QuotesSpider爬虫,使用Selectors来提取每个引用的文本和作者:

import scrapyclass QuotesSpider(scrapy.Spider):name = "quotes"start_urls = ['http://quotes.toscrape.com/page/1/',]def parse(self, response):for quote in response.css('div.quote'):text = quote.css('span.text::text').get()author = quote.css('span small::text').get()print(f'Text: {text}, Author: {author}')

此外,Scrapy还提供了Item类,可以定义你想要收集的数据结构。Item类非常适合收集结构化数据,如我们从quotes.toscrape.com中获取的引用:

import scrapyclass QuoteItem(scrapy.Item):text = scrapy.Field()author = scrapy.Field()

然后我们可以修改QuotesSpider爬虫,使其生成和收集QuoteItem对象:

class QuotesSpider(scrapy.Spider):name = "quotes"start_urls = ['http://quotes.toscrape.com/page/1/',]def parse(self, response):for quote in response.css('div.quote'):item = QuoteItem()item['text'] = quote.css('span.text::text').get()item['author'] = quote.css('span small::text').get()yield item

二、数据处理:Pipelines

Scrapy使用数据管道(pipelines)来处理爬虫从网页中抓取的Item。当爬虫生成一个Item,它将被发送到Item Pipeline进行处理。

Item Pipeline是一些按照执行顺序排列的类,每个类都是一个数据处理单元。每个Item Pipeline组件都是一个Python类,必须实现一个process_item方法。这个方法必须返回一个Item对象,或者抛出DropItem异常,被丢弃的item将不会被之后的pipeline组件所处理。

例如,我们可以添加一个Pipeline,将收集的引用保存到JSON文件中:

import jsonclass JsonWriterPipeline(object):def open_spider(self, spider):self.file = open('quotes.jl', 'w')def close_spider(self, spider):self.file.close()def process_item(self, item, spider):line = json.dumps(dict(item)) + "\n"self.file.write(line)return item

然后你需要在项目的设置文件(settings.py)中启用你的Pipeline:

ITEM_PIPELINES = {'tutorial.pipelines.JsonWriterPipeline': 1,
}

在这篇文章中,我们更深入地探讨了Scrapy的功能,包括如何使用Selectors和Item提取数据,如何使用Pipelines处理数据。在下一篇文章中,我们将学习如何使用Scrapy处理更复杂的情况,如登录、cookies、以及如何避免爬虫被网站识别和封锁等问题。

http://www.yidumall.com/news/56739.html

相关文章:

  • 海盐网站设计百度关键词推广2元一天
  • 阿里云oss做网站专业网站建设
  • 企业网站案例2345王牌浏览器
  • 手机网站制作app品牌营销与推广
  • 百度权重划分等级星沙网站优化seo
  • 做死活题网站外链发布工具下载
  • 作业精灵小程序入口网站seo关键词优化排名
  • 网站开发人员介绍惠州seo网站排名
  • 外贸网站建设公司流程销售平台
  • wordpress图片水印插件上海seo网站优化
  • 外贸商城网站建设找片子有什么好的关键词推荐
  • 如何做网站管理bt磁力种子搜索引擎
  • 小组用jsp做的网站论文2021热门网络营销案例
  • 公司网站做二维码网址网络推广企划
  • 响应式酒店网站模板列举网络推广的方式
  • 什么网站做批发零食的很多百度一下官网页
  • 互联网网站样式windows优化大师win10
  • 怎么做sf网站seo和sem的区别
  • 做数据ppt模板下载网站浏览器搜索引擎大全
  • 涟水建设银行网站湖南产品网络推广业务
  • 联享品牌网站建设公司北京网站优化方案
  • mixkitcom素材网站市场营销的八个理论
  • 柒零叁网站建设湖南长沙百度公司
  • 高级采矿平台建立在小行星带南京seo推广优化
  • 深圳网站建设sz886百度运营推广
  • c web网站开发步骤百度账号免费注册
  • 做网站无锡百度总部投诉电话
  • 东莞 营销网站网页免费制作网站
  • 贵州疫情最新消息今天新增了15例遵义北京关键词seo
  • 做论坛网站需要多大空间在哪里可以免费自学seo课程