nmap -Pn ip_address
通常,Nmap 在扫描之前会发送 ICMP 回显请求(ping)和其他探测包来判断目标主机是否在线。如果目标主机没有响应这些探测包,Nmap 会认为主机不在线,从而跳过扫描。
使用 -Pn 参数后,即使目标主机没有响应探测包,Nmap 也会假定主机在线并继续进行端口扫描。这在以下几种情况下特别有用:
目标主机禁用了 ICMP 响应:有些主机会配置防火...
(一)多层感知机
1.多层感知机介绍
如图是一张单隐藏层的感知机,当有许多层的时候,最后一层看作线性预测器,这种架构就叫做多层感知机(multilayer perceptron 即MLP).
再应用上激活函数σ\sigmaσ就能让多层感知机不再是简单的线性模型从而能够表示任何仿射函数.如下所示:
H=σ(XW(1)+b(1)),O=HW(2)+b(2).\begin{aligned}
...
(一) 图像增广
对图像进行随机变化(翻转和裁剪)能够扩大训练集的规模也能减少模型对某些属性的依赖,提高泛化能力.
torchvision.transforms模块提供了翻转和裁剪的方法
RandomHorizontalFlip()50%几率使得图像向左或向右翻转
RandomVerticalFlip()50%几率使得图像向上或向下翻转
RandomResizedCrop((200, 2...
因为在实际例子中如果想要使用全连接层,如果数据维度比较大要耗费的GPU资源很多,而卷积神经网络(CNN)则能够用较少的参数同时有平移不变性.在图像检测中划分局部区域进行预测.
(一) 卷积神经网络概述
卷积神经网络的设计就是用于探索图像数据,下以图像为例.
将图像划分为若干个区域分别与核函数(向量)相乘得到输出向量.给出一个图就能很直观地明白卷积的过程了:
具体的代码实现也很简单:
12...
(一) 文本预处理
对一段文字进行统计预测,首先得进行处理,将字符串处理为单词、字符等词元.
步骤如下:
1. 读取数据集
简单地将文本的每一行读入,可以使用H.G.Well的"time_machine"数据集:
1234567891011#@saved2l.DATA_HUB['time_machine'] = (d2l.DATA_URL + ...
(一) 自定义层和块
在之前使用Pytorch的API的时候我们通常都是直接使用net = nn.Sequential(nn.Linear(20, 256), nn.ReLU(), nn.Linear(256, 10)) ,实际上这是一个Module类的列表.调用net()其实也是net.__call__().
就我看来这个意义不是很大,实际上就是将一些代码整理为了一个类更方便逻辑理解.比...
之前就对这个知识点比较模糊,今天总结一下。
设时域信号x(t)=α(t)+jβ(t)x(t) = \alpha(t) + j\beta(t)x(t)=α(t)+jβ(t)
则傅里叶变换
X(f)=∫[α(t)+jβ(t)][cos(2πft)−jsin(2πft)]dt=∫[α(t)cos(2πft)+β(t)sin(2πft)]dt‾①式+j∫[β(t)cos(2πft)...
第一讲 杂谈+学前准备
1. 关于深度学习
本人是一名大学生,很不幸运在大学之前对深度学习一无所知。自从ChatGPT爆火全球,我才逐渐关注到原来“智能”与深度学习息息相关。本书《动手学深度学习》其实有另一套理论版《DeepLearning》(书的封面是一片花海故被称作“花书”),也是一套很经典的教程,但是由于整篇比较注重数学的推算可以说是很难啃;而本书由书名就可以知道案例比较丰富...
(一)线性回归
1.模型
线性回归假设输出与各个输入之间是线性关系,下面是一个简单的线性回归模型:
y^=x1w1+x2w2+b\hat{y} = x_1w_1+x_2w_2+b
y^=x1w1+x2w2+b
2.损失函数
索引为i的样本误差:
ℓ(i)(w1,w2,b)=12(y^(i)−y(i))2\ell^{(i)}(w_1,w_2,b)=\frac{1}{2}\Big...
相关知识回顾
1.线性代数
①生成子空间:向量的线性组合 ∑iciv⃗i\sum_{i}c_i\vec{v}_i∑icivi
②列空间:A的列向量的生成子空间→\rightarrow→列空间/值域
如果Ax=bAx=bAx=b对∀b∈Rm∃解,则列空间构成Rm\forall b \in R^{m} \exists 解,则列空间构成R^m∀b∈Rm∃解,则列空间构成Rm
比如:
[1...