无聊日常——对QQ邮箱盗号邮件的垃圾账号填充

无聊日常——对QQ邮箱盗号邮件的垃圾账号填充本篇关键字:QQ盗号,域名分析,目录扫描,垃圾信息倾倒最近收到一封诡异的邮件,如下图:好奇的我扫码进去看到了qqmail的登录界面,直觉告诉我这是个假粉丝!(重庆腔)咳…是假的网站,进一步发现它的地址为:http://dhdjfekljjf.jcikiybk.lsdhdjeicgj.com.cn/mail1/嗯…下面就开始搞事了。(咦?自动变绿?)首先1、猜它的所有目录首先解析域…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

本篇关键字:
QQ盗号,域名分析,目录扫描,垃圾信息倾倒

最近收到一封诡异的邮件,如下图:
/
好奇的我扫码进去看到了qqmail的登录界面
无聊日常——对QQ邮箱盗号邮件的垃圾账号填充

直觉告诉我…这是个假粉丝!(自带口音+突然大声)咳…对…是假的网站,进一步发现它的地址为:
http://dhdjfekljjf.jcikiybk.lsdhdjeicgj.com.cn/mail1/
发现该页面的以下”特色“:

1、不论输入什么,是否输入完整都可以提交。
2、忘记密码是个摆设,超链接都懒得设置了嘛!?拍桌.jpg
3、修改密码超链接是个假链接,asp有什么效果没去分析

要我说,高仿都算不上…也就是只有一层皮的山寨货而已。

emmm asp分析什么的,以后没事的时候再补更吧…

嗯…下面就开始搞事了。(咦?自动变绿?)

1、猜它的所有目录

我倒要看看葫芦里都有什么药~

解析域名地址 http://dhdjfekljjf.jcikiybk.lsdhdjeicgj.com.cn
结果发现ip在…
无聊日常——对QQ邮箱盗号邮件的垃圾账号填充
美国洛杉矶?好吧…果然是租的服务器。

查询的网站是:http://www.882667.com/
需要的同学留着吧

接着利用wwwscan工具,测试了上千个目录名,最后只发现了…3个存在的目录,如图
无聊日常——对QQ邮箱盗号邮件的垃圾账号填充
wwwscan下载见我的另外一篇博客:
https://blog.csdn.net/JasonRaySHD/article/details/82493776

可以看到,主目录 http://dhdjfekljjf.jcikiybk.lsdhdjeicgj.com.cn是不可访问状态(403),难受…然后专门去看了看admin/下面的文件,直接就跳转到了Login.aspx中,显示的是另一个登陆页面。
无聊日常——对QQ邮箱盗号邮件的垃圾账号填充
分析页面后,发现和模仿QQmail那个网站一样,都是提交账号以后直接提示账号密码错误。我会说我以为自己找到了后门一直试吗?嘁,可笑。

2、“垃圾填埋”

怀着很不爽的心情,我准备写一个python程序正义地惩bao罚fu一下这个网站的设计者,没错,我准备用垃圾数据填充它的服务器!拖慢它以后撞库的时候运行效率~ 正义感爆棚是不是

以后见一个埋一个~
顺便贴一张表情包:骄傲得意脸.jpg

scrapy spider部分程序如下:

# QQ盗号网址
url = "http://dhdjfekljjf.jcikiybk.lsdhdjeicgj.com.cn/mail1"
from scrapy import *
from scrapy.http import Request,FormRequest
import sys
import time
import random
sys.path.append(r'C:\Users\Administrator\PycharmProjects\MyScrapySpiders\scrapytime')
from items import TrashItem

class TrashSpider(Spider):
	name = "trash"
	allowed_domains = ["http://dhdjfekljjf.jcikiybk.lsdhdjeicgj.com.cn/"]
	start_urls = [url]*10000
	# 方法比较原始,不过滤的爬取10000次,捂脸.jpg

	def parse(self, response):
		pass
	
	def start_requests(self):
		for url in self.start_urls:
			yield Request(url,callback=self.dump,dont_filter=True)
			# dont_filter=True 因为要怕10000次同一个网站....嘿嘿 

	def dump(self,response):
		user = ""
		password = ""
		# 随机获取一个10位数的账号,以及5-15位的字母加数字的密码。
		for i in range(10):
			user += str(random.randint(1,9))
		for i in range(random.randint(5,15)):
			password += str(random.randint(0,9))+chr(random.randint(97,122))
		# 97-122表示a-z,A-Z
		formdata = { 
   'u':user,'p':password}
		yield FormRequest.from_response(response,formdata=formdata)
		# 提交数据
	

代码写的不好的见谅~ 有一段时间没碰爬虫了 哎…考研狗真是惨 暴风哭泣.jpg

经历收货(获)

1、简单回顾了一下很久没碰的scrapy框架—— (T T),,每次都容易忘记…

2、学习到了新的目录查找工具:wwwscan。虽然方法比较原始,但也是最简单粗暴的,而且自己可以根据需要修改目录检索范围

3、找的了一个比ip138方便的查域名、ip的网站算吗。。。 嘿嘿

4、emmm…CSDN博客发表的图片格式调整…

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/159482.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号