最新试题
爬虫可以按照一定的规则,手动请求万维网网站的数据。
题型:判断题
Robots.txt协议可以限制爬虫程序采集某些网页的数据。
题型:判断题
待下载网页集合就是()URL 列队中的网页,这些网页即将被爬虫下载。
题型:填空题
当网络爬虫访问网站时,会优先检查该站点的根目录下是否存在()文件。
题型:填空题
如果数据市场上没有需要的数据,那么可以利用()技术抓取网站上的数据。
题型:填空题
如果某个URL 还未抓取过,则这个URL 会放入到待抓取URL 队列中。
题型:判断题
什么是网络爬虫?
题型:问答题
有些网页对于爬虫来说是无法抓取到的,这部分网页构成了可知网页集合。
题型:判断题
网络爬虫的基本流程包括抓取网页数据、()、存储数据。
题型:填空题
任何网站都会定义robots.txt 文件,能够让爬虫了解爬取网站存在着哪些限制。
题型:判断题