当前位置: 首页 > news >正文

贵港市城乡住房建设厅网站我赢网客服系统

贵港市城乡住房建设厅网站,我赢网客服系统,手机百度电脑版入口,怎么做一个动态网页python-批量下载某短视频平台音视频标题、评论数、点赞数前言一、获取单个视频信息1、获取视频 url2、发送请求3、数据解析二、批量获取数据1、批量导入地址2、批量导出excel文件3、批量存入mysql数据库三、完整代码前言 1、Cookie中文名称为小型文本文件,指某些网…

python-批量下载某短视频平台音视频标题、评论数、点赞数

  • 前言
  • 一、获取单个视频信息
    • 1、获取视频 url
    • 2、发送请求
    • 3、数据解析
  • 二、批量获取数据
    • 1、批量导入地址
    • 2、批量导出excel文件
    • 3、批量存入mysql数据库
  • 三、完整代码


前言

1、Cookie中文名称为小型文本文件,指某些网站为了辨别用户身份而储存在用户本地终端(Client Side)上的数据(通常经过加密)。

2、有时也用其复数形式Cookies,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)。

3、dy核心的cookies是sessionID值, 可嵌套到接口的headers里的Cookie里进行请求。

一、获取单个视频信息

1、获取视频 url

2、发送请求

接下来就是简单的发送请求,唯一需要注意的一点就是 headers 中除了要配置 User-Agent外,还要配置 cookie 信息,否则拿不到想要的数据,cookie 位置在下图
在这里插入图片描述

配置好 headers 之后,发送 get 请求,拿到页面源码数据

data = requests.get(url=url, headers=headers)
data.encoding = 'utf-8'
data = data.text

3、数据解析

在页面源码数据中有很长一串数据是经过 url 编码的,而我们需要的数据都在这串数据中,因此我们需要拿到这串数据。通过正则表达式定位并取出这串数据,然后调用 requests 模块下的工具包 utils 里的 unquote 方法解码这串数据(得到的是 string 类型的数据),代码如下:

data_en = re.findall('<script id="RENDER_DATA" type="application/json">(.*?)</script></head><body >',data)[0]
data_all = requests.utils.unquote(data_en)

后面就是经典的资源定位了,先在数据中找到该视频的评论数,点赞数
在这里插入图片描述
编写正则表达式将其取出

# 点赞数
diggCount = re.findall('"diggCount":(.*?),"shareCount"', data_all)[0]
# 评价数
commentCount = re.findall('"commentCount":(.*?),', data_all)[0]

标题与点赞数评论数类似,只是位置不同

# 标题
title = re.findall('"desc":"(.*?)","authorUserId"', data_all)[0].replace(' ', '')

二、批量获取数据

1、批量导入地址

excel文件保存需获取的视频地址
在这里插入图片描述

导入excel表格,读取数据

# 导入excel表格
df = pandas.read_excel('文件名.xlsx', header=0)  # 导入URL信息
urls = df.iloc[:, 1]

2、批量导出excel文件

需导出数据存入字典中,根据字典创建DataFrame文件后进行导出

# 导出excel表格
dataframe = pd.DataFrame({'地址': urls, '标题': titleList, '发布时间': createTimeList, '点赞数': diggCountList, '评价数': commentCountList})
with pd.ExcelWriter(str(date.today()) + 'dy.xlsx') as writer:dataframe.to_excel(writer, sheet_name='Sheet1', index=False)

3、批量存入mysql数据库

mysql数据库新建表

CREATE TABLE dy_info (`dy_info_id` BIGINT NOT NULL AUTO_INCREMENT COMMENT '信息ID',`url` VARCHAR(255) NOT NULL DEFAULT "" COMMENT '地址',`title` VARCHAR(100) NOT NULL DEFAULT "" COMMENT '标题',`create_time` VARCHAR(20) NOT NULL DEFAULT "" COMMENT '发布时间',`digg_count` INT NOT NULL DEFAULT 0 COMMENT '点赞数',`comment_count` INT NOT NULL DEFAULT 0 COMMENT '评价数',`create_tm` TIMESTAMP(3) NOT NULL DEFAULT CURRENT_TIMESTAMP(3) COMMENT '创建时间',`update_tm` TIMESTAMP(3) NOT NULL DEFAULT CURRENT_TIMESTAMP(3) ON UPDATE CURRENT_TIMESTAMP(3) COMMENT '更新时间',PRIMARY KEY (`dy_info_id`)
)ENGINE=INNODB COMMENT='信息表';

通过python向mysql插入大量数据时,可以有两种方法:
1、for + cursor.execute(sql),最后集中提交(commit())
2、cursor.executemany(sql,list)
两种方法效率上和功能上有一定差异。26万条数据,使用第一种方法需要约1.5小时,使用第二种方法只需要10几秒。

在这里我们使用第二种方法:

# 批量写入数据库
# 打开数据库连接
conn = pymysql.connect(host='127.0.0.1',port=3306,user='root',passwd='', #填入你的密码db='dy',charset='utf8')sql = 'INSERT INTO `dy_info`(url, title, create_time, digg_count, comment_count) VALUES(%s, %s, %s, %s, %s)'# 使用 cursor() 方法创建一个游标对象 cursor
cursor = conn.cursor()
cursor.executemany(sql, sqlInfo)
conn.commit()  # 提交
cursor.close()
conn.close()

三、完整代码

完整代码实现

http://www.yidumall.com/news/40975.html

相关文章:

  • 网站建设行业赚钱么如何做网页制作
  • 一个空间可以做两个网站吗网站营销
  • 广州市民政局网站建设网站seo重庆
  • 触屏版网站设计站长工具搜索
  • html 网站发布seo网站推广计划
  • 网站app开发seo搜索引擎优化人才
  • 做药品网站有哪些宁波关键词网站排名
  • wordpress中文主程序优化网站seo运营
  • 网站开发培训合肥长沙网站优化
  • 做网站客户最关心哪些问题网站优化网络推广seo
  • 做网站打广告图片素材营销活动方案
  • 合肥网站建设开发电话网站为什么要做seo
  • 移动端网站开发 float微信公众号推广2元一个
  • 网站怎么更新文章网站建设制作公司
  • 大连鼎信网站建设网络推广服务外包
  • wordpress动静分离网站优化建议
  • 在哪个网站可以一对一做汉教百度官网网站
  • 贵港网站制作商务网站如何推广
  • flex网站模板seo点击优化
  • 定制化网站建设怎样免费建立自己的网站
  • 宜兴埠网站建设精准的搜索引擎优化
  • wordpress主题 资源站百度知道网址
  • 自己如何建立一个网站软件定制开发公司
  • 北京哪里能学做网站百度联盟是什么
  • 做网站购买虚拟主机送模板吗百度推广价格表
  • 管理网站怎么做的直播发布会
  • 网站设计素材网站企业qq一年多少费用
  • 重庆整站优化的电话销售网站很卡如何优化
  • wordpress英语怎么读刷seo关键词排名软件
  • 网站源码提取百度网站的网址