爬虫工具_应用程序market

爬虫工具_应用程序market一个简单的异步爬虫.私信太多,统一回答一下:关于异步函数的:1.真正派发任务的是consumer这个coroutine,所以也在内部做了并发控制.2.process_content用于获取html及保存到mysql.关于异步相关(asyncio)的:1.await相当于yieldfrom.2.await后面是一个coroutine,…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全家桶1年46,售后保障稳定

一个简单的异步爬虫. 

私信太多,统一回答一下:

关于异步函数的:

1. 真正派发任务的是  consumer 这个coroutine,所以也在内部做了并发控制. 

2. process_content 用于获取html及保存到mysql.

关于异步相关(asyncio)的 :

1.await 相当于 yield from . 

 

2.await 后面是一个coroutine, 普通函数不是coroutine,普通函数也不是通过加一个 async   / asyncio.coroutine,就能真正

成为coroutine的,就算没报错,如果内部加了阻塞函数(time.sleep / read /write ) 还是一个阻塞函数;因此,往往我们自己的

coroutine只是一个中间层的东西,所以需要aiohttp , aiomysql等这个模块来提供支持,就跟tornado的异步框架一样,如果你

在get()/post() 中加了阻塞函数调用,tornado 还是阻塞的.

 

3. 这个问题问的有点多 . 

1. await 后面可以是 Task,Future,async def xxx() ( 自定义函数) ,因此在加入loop 时,将自动封装我们自定义的coroutine成为一个 Task / Future 对象.

* 2. 无论是 await 还是  asyncio.ensure_future/async , 都将把coroutine加入loop中,但是两者有一个差别:

      await 是等待这个coroutine 运行完成, ensure_future/async 不会等待直接仍入循环体中运行. 

      这个就是下面代码中一会用await 一会用ensure_future/async .同样的也是很多人问,

      为什么在控制 coroutine 的时候: async with sem 后面用ensure_future 控制不了的原因

 

3.额外说明一下Future对象. 下面代码中没有自行创建Future对象, 其实也可以用, Future对象与Twisted中的

Defer对象极其类似. 只不过Future 对象一般都是 await Future, 当然也可以使用回调: Future.add_done_callback.

而Defer对象是使用2个回调链的方式.具体可参考我写的:Twisted

这2个对象都在Future.set_result  /  Defered.callbacks  “返回”执行 await Future之后的代码 / Deferred 中的无穷无尽的callbacks.

关于Future对象的运行流程可看官方文档或Tornado中的 AsyncHTTPClient.fetch.

下面给一个Tornado中使用Future对象的案例 :  注意,没有使用过Tornado协程的别看了, Tornado旧版本的协程有些误导 

1.第一个使用Future对象的Tornado案例

class cor(RequestHandler):
   @gen.coroutine  #tornado 装饰器
   def get(self):
        #创建一个异步客户端
        clt = AsyncHTTPClient()
        #fetch 将返回一个Future对象 . yield 这个Future,直到set_result被调用
        res = yield clt.fetch('http://www.baidu.com')
        print('fetch : ' , res)
        self.write(res.body)

Jetbrains全家桶1年46,售后保障稳定

2.这个案例比较容易理解, 使用了新的语法,与下面爬虫的协程语法一致

class cor(RequestHandler):
   async def get(self): #用了新的语法
        clt = AsyncHTTPClient()

        #使用了await Future,直到 Future.set_result 被调用
        res = await clt.fetch('http://www.baidu.com')
        print('fetch : ' , res)
        self.write(res.body)

 

 

分割线:

 

import asyncio
import aiohttp
from lxml import etree
import aiomysql
import re


#一些全局变量
start_url = "http://www.jobbole.com/"
waitting_urls = None
visited_urls = set()
failed_urls = set()
stop_fetch = False
USER_AGENT_LIST = [
    'MSIE (MSIE 6.0; X11; Linux; i686) Opera 7.23',
    'Opera/9.20 (Macintosh; Intel Mac OS X; U; en)',
    'Opera/9.0 (Macintosh; PPC Mac OS X; U; en)',
    'iTunes/9.0.3 (Macintosh; U; Intel Mac OS X 10_6_2; en-ca)',
    'Mozilla/4.76 [en_jp] (X11; U; SunOS 5.8 sun4u)',
    'iTunes/4.2 (Macintosh; U; PPC Mac OS X 10.2)',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:5.0) Gecko/20100101 Firefox/5.0',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:9.0) Gecko/20100101 Firefox/9.0',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.8; rv:16.0) Gecko/20120813 Firefox/16.0',
    'Mozilla/4.77 [en] (X11; I; IRIX;64 6.5 IP30)',
    'Mozilla/4.8 [en] (X11; U; SunOS; 5.7 sun4u)',
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36"
]

import random

#控制corroutine数量
sem = asyncio.Semaphore(4)

#获取html
async def fetch(session, url):
    headers = {'User-Agent' : random.choice(USER_AGENT_LIST)}
    try:
        #单一一个站点用一个会话就行了
        async with session.get(url,headers=headers) as r:
            
            #已经访问过的url
            visited_urls.add(url)
            print("url:{} status:{}".format(url,r.status))
            
            #获取结果,用 await / yield from (如果用asyncio.coroutine)
            text = await r.text(encoding='utf8')
            return text
    except Exception as e:
        print('url:{} failed')
        failed_urls.add(url)
        return None


#获取mysql pool . 自己看文档把,文档里写的很清楚
async def get_mysql_pool(**settings):
    pool = await aiomysql.create_pool(**settings)
    return pool


#获取href属性
def extract_urls(html):
    htmlobj = etree.HTML(html)
    return set(htmlobj.xpath('//a[contains(@href,"http")]/@href'))

#获取标题
def get_title(html):
    htmlobj = etree.HTML(html)
    title = ''.join(htmlobj.xpath('//div[@class="entry-header"]/h1/text()'))
    return title

#处理数据,保存到mysql
async  def process_content(session,url,pool):
    
    #获取html
    html = await fetch(session, url)

    #深度控制,我这就获取一层
    # urls = extract_urls(html) 深度控制,这里不做了
    sql = 'insert into jobbole(title) VALUES(%s)'
    title = get_title(html)

    #获取pool中的连接
    async with pool.acquire() as conn:
        #拿游标
        async with conn.cursor() as cur:
            try:
                await cur.execute(sql,(title))
                await conn.commit()
            except Exception as e:
                await conn.rollback()
                print(e)


#额,这个名字随意取了一个,相当于消费者.申明啊,这个函数我就随意一写,没调式过.
async def consumer(session,pool):

    #只要waitting_urls不为空,就拿出来,去获取内容
    while not stop_fetch:
        while len(waitting_urls) == 0 and not stop_fetch:

            #如果空了,休息一下
            await asyncio.sleep(1)
            continue

        
        if len(waitting_urls) > 0 :
            url = waitting_urls.pop()

            #这里就拿个标题,只要符合的就ok.
            if re.match('https?://.*?jobbole.com/\d+/',url) and url not in visited_urls:

                #做一下控制并发
                async with sem:
        
                    #这行注释掉,否则就别用控制并发了
                    # asyncio.ensure_future(process_content(session,url,pool))
                    await process_content(session,url,pool)

#一开始的准备工作, 我这里只从首页拿所有的url
async def prepare_urls(session):
    global waitting_urls
    html = await fetch(session, start_url)
    urls = extract_urls(html)
    waitting_urls = {url for url in urls}
    print('waitinglist len:' , len(waitting_urls))


#一个检测函数
async def check_tasks():
    while True:
        print('当前运行corotine数量 :' , len(asyncio.Task.all_tasks()))
        await asyncio.sleep(0.5)


async def main(**settings):

    #创建sess
    session = aiohttp.ClientSession()
    
    #创建mysql pool
    pool = await get_mysql_pool(**settings)
    
    #开启检测
    asyncio.ensure_future(check_tasks())

    #准备首页的所有url
    await prepare_urls(session)
    
    #开始运行这个coroutine ,真正干活的
    asyncio.ensure_future(consumer(session,pool))




#关闭用的,这里没用到, 可以自行修改添加
async def close(session,pool):
    await session.close()
    pool.close()
    await pool.wait_closed()

#拿主循环
lp = asyncio.get_event_loop()

#mysql配置
db_mysql_settings = {
    'db' : 'testdb',
    'host' : '127.0.0.1',
    'port' : 3306,
    'user' : 'root',
    'password' : 'fuck',
    'loop' : lp,
    'charset' : 'utf8',
    'maxsize':50
}

#开始运行
asyncio.ensure_future(main(**db_mysql_settings))
lp.run_forever()

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/210149.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号