2024年07月05日 Scrapy 爬虫框架 Python51
我们在进行爬虫架框的使用时候,有没有想过,这个架框是否好用?有没有更好用的?或者怎么可以创新更便捷的去完成我们的项目,毕竟所有的东西都是人为制作的,像语言也一样,因此,只有在不断的完善过程里,才能更提供便利,因此,对于架框上,也都一定的优化,而这个内容就是我们接下来要说的python的爬虫框架scrapy怎么用命令行。
关于命令详细使用
命令的使用范围
这里的命令分为全局的命令和项目的命令,全局的命令表示可以在任何地方使用,而项目的命令只能在项目目录下使用
全局的命令有:
startproject genspider settings runspider shell fetch view version
项目命令有:
crawl check list edit parse Bench
startproject
这个命令没什么过多的用法,就是在创建爬虫项目的时候用
genspider
用于生成爬虫,这里scrapy提供给我们不同的几种模板生成spider,默认用的是basic,我们可以通过命令查看所有的模板
crawl
这个是用去启动spider爬虫格式为:scrapy crawl 爬虫名字
这里需要注意这里的爬虫名字和通过scrapy genspider 生成爬虫的名字是一致的
fetch
scrapy fetch url地址
该命令会通过scrapy downloader 讲网页的源代码下载下来并显示出来
这里有一些参数:
–nolog 不打印日志
–headers 打印响应头信息
–no-redirect 不做跳转
以上就是常见的命令行的符号代码,以及他们的使用内容,如果大家又需要提高爬取效率的,一定要使用这些内容,会让大家的项目事半功倍哦~
本文链接:http://so.lmcjl.com/news/7864/