先占个位置
1 | import requests |
加油!奋斗!奥里给!
1 | import requests |
在线性回归中,,是用直线去拟合数据,实现最小二乘意义下的最小预测误差。
在逻辑回归中:可以看作是用直线去拟合Logit函数,通过极大似然估计出参数,使得在该参数下,能以最大概率生成当前的样本。
logits函数是一种将取值范围在[0,1]内的概率映射到实数域[-inf,inf]的函数,如果p=0.5,函数值为0;p<0.5,函数值为负;p>0.5,函数值为正。
相对地,softmax和sigmoid则都是将[-inf,inf]映射到[0,1]的函数。
在tensorflow里的”logits”指的其实是,该方法是在logit数值上使用softmax或者sigmoid来进行normalization的,也暗示用户不要将网络输出进行sigmoid或者softmax,这些过程可以在函数内部更高效地计算。
Scrapy是通过Scrapy命令行工具进行控制的,包括创建新的项目,爬虫的启动,相关的设置,Scrapy提供了两种内置的命令,分别是全局命令和项目命令,顾名思义,全局命令就是在任意位置都可以执行的命令,而项目命令只有在你新创建了项目之后,在项目目录中才可以执行的命令。在这里,简单的介绍一些常用的命令。
1 | scrapy startproject <project_name> |
这个命令是scrapy最为常用的命令之一,它将会在当前目录下创建一个名为
1 | <project_name> |
的项目。
1 | scrapy settings [options] |
该命令将会输出Scrapy默认设定,当然如果你在项目中运行这个命令将会输出项目的设定值。
1 | scrapy runspider <spider_file.py> |
在未创建项目的情况下,运行一个编写在Python文件中的spider。
1 | scrapy shell [url] |
以给定的URL(如果给出)或者空(没有给出URL)启动Scrapy shell。
例如,
1 | scrapy shell http://www.baidu.com |
将会打开百度URL,
并且启动交互式命令行,可以用来做一些测试。
1 | scrapy fetch <url> |
使用Scrapy下载器(downloader)下载给定的URL,并将获取到的内容送到标准输出。简单的来说,就是打印url的html代码。
1 | scrapy view <url> |
在你的默认浏览器中打开给定的URL,并以Scrapy spider获取到的形式展现。 有些时候spider获取到的页面和普通用户看到的并不相同,一些动态加载的内容是看不到的, 因此该命令可以用来检查spider所获取到的页面。
1 | scrapy version [-v] |
输出Scrapy版本。配合 -v 运行时,该命令同时输出Python, Twisted以及平台的信息。
1 | scrapy crawl <spider_name> |
使用你项目中的spider进行爬取,即启动你的项目。这个命令将会经常用到,我们会在后面的内容中经常使用。
1 | crapy check [-l] <spider> |
运行contract检查,检查你项目中的错误之处。
1 | scrapy list |
列出当前项目中所有可用的spider。每行输出一个spider。
1 | scrapy genspider [-t template] <name> <domain> |
在当前项目中创建spider。该方法可以使用提前定义好的模板来生成spider。您也可以自己创建spider的源码文件。