Robots协议

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标
准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓
取,哪些页面不能抓取。Robots协议的本质是网站和搜索引擎爬虫的沟通方式,用来指导
搜索引擎更好地抓取网站内容,而不是作为搜索引擎之间互相限制和不正当竞争的工具。
robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,比如Windows系统自带
的Notepad,就可以创建和编辑它[2]。robots.txt是一个协议,而不是一个命令。robots.txt是
搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上
什么文件是可以被查看的。
总之就是看到robot可以尝试一下"/robots.txt"

备份文件

如果网站存在备份文件,常见的备份文件后缀名有:“.git” 、“.svn”、“ .swp”“.~”、“.bak”、“.bash_history”、“.bkf” 尝试在URL后面,依次输入常见的文件备份扩展名。

就比如说 index.php存在一个备份文件 我们就可以一个个试一试 什么index.php.git或者index.php.bak什么的

很香

Cookie

可以用"Fn+F12"键开启开发者工具 里面的"网络"可以看到存在的文件

PHP

考察代码审计

HTML 表单并不传递整数、浮点数或者布尔值,它们只传递字符串。要想检测一个字符串是不是数字,可以使用 is_numeric() 函数。

is_numeric() 函数会判断如果是数字和数字字符串则返回 TRUE,否则返回 FALSE

Ping

ping -c 3 127.0.0.01| ls -lR / 显示所有目录下的文件 不知道为啥ll在这里不管用了

1.1.1.1 | find / -name "要查找的" 用命令拼接的方式会出来路径 这里不能用127.0.0.1,不然出来的是本机的数据,啥也查不到

1.1.1.1+cat+路径 可以查看文件下的内容 flag一般就可以找到了 这里用127.0.0.1又可以了

最后就说记一下"&&"等同于"|" 如"127.0.0.01| ls"等于"127.0.0.01 && ls"