设为首页收藏本站language→→ 语言切换

鸿鹄论坛

 找回密码
 论坛注册

QQ登录

先注册再绑定QQ

查看: 80|回复: 1
收起左侧

python爬取叮咚买菜评价数据

[复制链接]
发表于 2023-5-22 16:50:31 | 显示全部楼层 |阅读模式
疫情这这几年,线上买菜成了大家日常生活的一部分,出现了叮咚买菜,京东到家,朴朴超市等app,这些买菜app我们可以买到新鲜蔬菜、水果、肉禽蛋、米面粮油、水产海鲜、南北干货、方便速食等等。对上班族来说真的是很方便的软件。
有竞争就有对比,消费者会通过平台直接的各方面进行对比选择更有利的一款app。最近不少川渝地区的叮咚买菜用户表示“叮咚买菜真的要撤出川渝地区了吗”“叮咚买菜要溜了?五折快冲”“传叮咚买菜川渝区域大撤退,29号关闭”,在正式发布通知之前,叮咚买菜撤出川渝的消息就已四散。撤离的消息来得突然,却也可以预料,毕竟当下叮咚买菜的境况并不乐观
QQ图片20230522152151.png
那么我们今天就利用python爬虫技术去了解下大家对这款购菜app的评价吧。数据来源于叮咚买菜app,但是就像美团评价一样,这个网站评论数据的获取也是稍微有点难度的,最直接的就是会遇到网站封IP行为,这样的前提下我们只有先准备好高质量的爬虫代理才能去获取数据了。这里我们使用python通过Keep-Alive保持IP不变,向多个页面发出请求,通过多线程实现并发控制。IP的使用由亿牛云提供的爬虫隧道加强版产品。爬虫数据实现的过程如下所示例:
  1. #! -*- encoding:utf-8 -*-
  2. import requests
  3. import random
  4. import requests.adapters
  5. import threading # 导入threading模块
  6. import time # 导入time模块

  7. # 要访问的目标页面
  8. targetUrlList = [
  9.     "https://httpbin.org/ip",
  10.     "https://httpbin.org/headers",
  11.     "https://httpbin.org/user-agent",
  12. ]

  13. # 代理服务器(产品官网 www.16yun.cn)
  14. proxyHost = "t.16yun.cn"
  15. proxyPort = "31111"

  16. # 代理验证信息
  17. proxyUser = "SWRSED"
  18. proxyPass = "458796"
  19. proxyMeta = f"http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}"

  20. # 设置 http和https访问都是用HTTP代理
  21. proxies = {
  22.     "http": proxyMeta,
  23.     "https": proxyMeta,
  24. }

  25. # 定义一个全局变量,用于记录上一次请求的时间
  26. last_request_time = 0

  27. # 定义一个全局变量,用于创建一个线程锁
  28. lock = threading.Lock()

  29. # 定义一个函数,用于访问一个目标网址
  30. def visit_url(url, i):
  31.     global last_request_time # 声明全局变量
  32.     with requests.session() as s: # 使用with语句管理会话
  33.         with lock: # 使用线程锁
  34.             # 获取当前时间
  35.             current_time = time.time()
  36.             # 计算距离上一次请求的时间差
  37.             delta_time = current_time - last_request_time
  38.             # 如果时间差小于200毫秒,就等待一段时间
  39.             if delta_time < 0.2:
  40.                 time.sleep(0.2 - delta_time)
  41.             # 更新上一次请求的时间
  42.             last_request_time = time.time()
  43.         # 发送请求
  44.         r = s.get(url, proxies=proxies)
  45.         print(f"第{i+1}个网址,结果如下:") # 使用f-string格式化输出
  46.         print(r.text)

  47. # 创建一个空的线程列表
  48. threads = []
  49. for i, url in enumerate(targetUrlList): # 使用enumerate函数遍历列表
  50.     # 创建一个线程,传入目标网址和索引
  51.     t = threading.Thread(target=visit_url, args=(url, i))
  52.     # 将线程添加到线程列表
  53.     threads.append(t)
  54.     # 启动线程
  55.     t.start()
  56. # 等待所有线程结束
  57. for t in threads:
  58.     t.join()
复制代码




发表于 2023-5-26 23:01:26 | 显示全部楼层
最近也在搞爬蟲 感謝分享
沙发 2023-5-26 23:01:26 回复 收起回复
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 论坛注册

本版积分规则

QQ|Archiver|手机版|小黑屋|sitemap|鸿鹄论坛 ( 京ICP备14027439号 )  

GMT+8, 2025-1-26 15:44 , Processed in 0.078423 second(s), 12 queries , Redis On.  

  Powered by Discuz!

  © 2001-2025 HH010.COM

快速回复 返回顶部 返回列表