Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >开源免费直播录制神器,40+直播平台一网打尽!

开源免费直播录制神器,40+直播平台一网打尽!

原创
作者头像
星哥玩云
修改于 2025-04-30 08:50:49
修改于 2025-04-30 08:50:49
33500
代码可运行
举报
文章被收录于专栏:开源项目搭建开源项目搭建
运行总次数:0
代码可运行

开源免费直播录制神器,40+直播平台一网打尽!

前言

你是否还在为错过心仪主播的直播而懊悔?是否想同时抓取多个平台的精彩内容?开源利器 DouyinLiveRecorder,正在用强悍的跨平台录制能力重新定义直播录播体验!

image-20250427225401646
image-20250427225401646

什么是 DouyinLiveRecorder

可循环值守和多人录制的直播录制软件,支持抖音、TikTok、Youtube、快手、虎牙、斗鱼、B站、小红书、pandatv、sooplive、flextv、popkontv、twitcasting、winktv、百度、微博、酷狗、17Live、Twitch、Acfun、CHZZK、shopee等40+平台直播录制。

开源地址:https://github.com/ihmily/DouyinLiveRecorder

已支持平台

  • 抖音
  • TikTok
  • 快手
  • 虎牙
  • 斗鱼
  • YY
  • B站
  • 小红书
  • bigo
  • blued
  • SOOP(原AfreecaTV)
  • 网易cc
  • 千度热播
  • PandaTV
  • 猫耳FM
  • Look直播
  • WinkTV
  • FlexTV
  • PopkonTV
  • TwitCasting
  • 百度直播
  • 微博直播
  • 酷狗直播
  • TwitchTV
  • LiveMe
  • 花椒直播
  • 流星直播
  • ShowRoom
  • Acfun
  • 映客直播
  • 音播直播
  • 知乎直播
  • CHZZK
  • 嗨秀直播
  • vv星球直播
  • 17Live
  • 浪Live
  • 畅聊直播
  • 飘飘直播
  • 六间房直播
  • 乐嗨直播
  • 花猫直播
  • Shopee
  • Youtube
  • 淘宝
  • 京东
  • Faceit
  • 更多平台正在更新中

安装DouyinLiveRecorder方法

有两种方法,Docker 安装和源码安装,这里推荐使用docker安装,较为方便。

方法一、Docker安装DouyinLiveRecorder

容器运行

在运行命令之前,请确保您的机器上安装了 Docker 和 Docker Compose

1.快速启动

最简单方法是运行项目中的 docker-compose.yaml 文件,地址:https://github.com/ihmily/DouyinLiveRecorder/blob/main/docker-compose.yaml,只需简单执行以下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir  -p /data/docker/DouyinLiveRecorder
cd /data/docker/DouyinLiveRecorder
wget https://raw.githubusercontent.com/ihmily/DouyinLiveRecorder/refs/heads/main/docker-compose.yaml
docker-compose up -d

可选 -d 在后台运行。

简单三步既可使用docker运行DouyinLiveRecorder

2.构建镜像(可选)

如果你只想简单的运行程序,则不需要做这一步。Docker镜像仓库中代码版本可能不是最新的,如果要运行本仓库主分支最新代码,可以本地自定义构建,通过修改 docker-compose.yaml 文件,如将镜像名修改为 douyin-live-recorder:latest,并取消 # build: . 注释,然后再执行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker build -t douyin-live-recorder:latest .
docker-compose up

或者直接使用下面命令进行构建并启动

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker-compose -f docker-compose.yaml up

3.停止容器实例

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker-compose stop

4.注意事项

①在docker容器内运行本程序之前,请先在配置文件中添加要录制的直播间地址。

②在容器内时,如果手动中断容器运行停止录制,会导致正在录制的视频文件损坏!

image-20250427225614319
image-20250427225614319

方法二、源码安装DouyinLiveRecorder

使用源码运行,前提要有Python>=3.10环境,如果没有请先自行安装Python,再执行下面步骤。

1.首先拉取或手动下载本仓库项目代码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
git clone https://github.com/ihmily/DouyinLiveRecorder.git

2.进入项目文件夹,安装依赖

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cd DouyinLiveRecorder
pip3 install -r requirements.txt

3.安装FFmpeg

如果是Windows系统,这一步可跳过。对于Linux系统,执行以下命令安装

CentOS执行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yum install epel-release
yum install ffmpeg

Ubuntu则执行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
apt update
apt install ffmpeg

macOS 执行

如果已经安装 Homebrew 请跳过这一步

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
brew install ffmpeg

4.运行程序

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
python main.py

其中Linux系统请使用python3 main.py 运行。

使用说明

  • 对于只想使用录制软件的小白用户,进入Releases 中下载最新发布的 zip压缩包即可,里面有打包好的录制软件。(有些电脑可能会报毒,直接忽略即可,如果下载时被浏览器屏蔽,请更换浏览器下载)
  • 压缩包解压后,在 config 文件夹内的 URL_config.ini 中添加录制直播间地址,一行一个直播间地址。如果要自定义配置录制,可以修改config.ini 文件,推荐将录制格式修改为ts
  • 以上步骤都做好后,就可以运行DouyinLiveRecorder.exe 程序进行录制了。录制的视频文件保存在同目录下的 downloads 文件夹内。
  • 另外,如果需要录制TikTok、AfreecaTV等海外平台,请在配置文件中设置开启代理并添加proxy_addr链接 如:127.0.0.1:7890 (这只是示例地址,具体根据实际填写)。
  • 假如URL_config.ini文件中添加的直播间地址,有个别直播间暂时不想录制又不想移除链接,可以在对应直播间的链接开头加上#,那么将停止该直播间的监测以及录制。
  • 软件默认录制清晰度为 原画 ,如果要单独设置某个直播间的录制画质,可以在添加直播间地址时前面加上画质即可,如超清,https://live.抖音.com/745964462470 记得中间要有, 分隔。
  • 如果要长时间挂着软件循环监测直播,最好循环时间设置长一点(咱也不差没录制到的那几分钟),避免因请求频繁导致被官方封禁IP 。
  • 要停止直播录制,Windows平台可执行StopRecording.vbs脚本文件,或者在录制界面使用 Ctrl+C 组合键中断录制,若要停止其中某个直播间的录制,可在URL_config.ini文件中的地址前加#,会自动停止对应直播间的录制并正常保存已录制的视频。

结尾

DouyinLiveRecorder是一款非常实用的直播录制软件,它不仅能够满足我们跨平台录制直播的需求,还支持循环值守、多人录制、多种录制格式和清晰度选择等多种功能。如果你也是一个直播迷,那么这款软件绝对值得一试!

写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧! 😊

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
大数据:Hadoop-MapReduce练习
第9、10、11、12字符为年份,第20、21、22、23字符代表温度,求每年的最高温度
许喜朝
2020/10/26
4160
MapReduce操作实例
要点:有一个combiner方法,可以在执行完map时调用,从而对数据进行先一步的处理,降低Reduce的IO压力。
曼路
2018/10/18
1.6K0
Hadoop: MapReduce2的几个基本示例
1) WordCount  这个就不多说了,满大街都是,网上有几篇对WordCount的详细分析 http://www.sxt.cn/u/235/blog/5809 http://www.cnblogs.com/zhanghuijunjava/archive/2013/04/27/3036549.html 这二篇都写得不错, 特别几张图画得很清晰 2) 去重处理(Distinct) 类似于db中的select distinct(x) from table , 去重处理甚至比WordCount还要简单,假如我
菩提树下的杨过
2018/01/19
1.1K0
Hadoop基础教程-第7章 MapReduce进阶(7.6 MapReduce 二次排序)
MapReduce框架对处理结果的输出会根据key值进行默认的排序,这个默认排序可以满足一部分需求,但是也是十分有限的。在我们实际的需求当中,往往有要对reduce输出结果进行二次排序的需求。所谓二次排序,先按第1个字段进行排序,然后对第1个字段相同的数据,再按第2个字段进行排序。
程裕强
2022/05/06
2290
几个关于MapReduce的小例子
上一篇文章通过写一个WordCount学习了MapReduce的入门操作,那么这篇文章继续通过多一些例子来学习MapReduce。下面介绍几种比较常见的操作:排序,去重,求和,求平均数,TopK查询(查询排名前K名的记录)
java技术爱好者
2022/03/15
4770
几个关于MapReduce的小例子
hadoop_入门1
该文介绍了如何使用 Hadoop 进行单词计数和排序。首先介绍了 Hadoop 的整体架构,然后详细讲解了如何使用 Hadoop 进行单词计数和排序。最后,通过一个实例展示了如何使用 Hadoop 进行排序操作。
用户1147754
2018/01/03
6340
hadoop_入门1
Hadoop(十五)MapReduce程序实例
一、统计好友对数(去重) 1.1、数据准备 joe, jon joe , kia joe, bob joe ,ali kia, joe kia ,jim kia, dee dee ,kia dee, ali ali ,dee ali, jim ali ,bob ali, joe ali ,jon jon, joe jon ,ali bob, joe bob ,ali b
用户1195962
2018/01/18
1.3K0
Hadoop(十五)MapReduce程序实例
MapReduce
(4) ReduceTask进程对每-组相同k的<K,V>组调用一次reduce()方法
CBeann
2023/12/25
4380
MapReduce
MapReduce词频统计【自定义复杂类型、自定义Partitioner、NullWritable使用介绍】
InputFormat读数据,通过Split将数据切片成InputSplit,通过RecordReader读取记录,再交给map处理,处理后输出一个临时的<k,v>键值对,再将结果交给shuffle处理,最终在reduce中将最后处理后的<k,v>键值对结果通过OutputFormat重新写回到HDFS中。
Java架构师必看
2021/05/14
9150
MapReduce词频统计【自定义复杂类型、自定义Partitioner、NullWritable使用介绍】
使用Eclipse编译运行MapReduce程序
mapreduce也是比较久学的,详细的内容和操作可以看下面的文档。 点击下载 链接:https://pan.baidu.com/s/1BIBpClKy2xcqAJtxUJoYVA 提取码:ctca
不愿意做鱼的小鲸鱼
2022/09/24
8640
使用Eclipse编译运行MapReduce程序
hadoop系列之MR的经典代码案例一
七、MapReduce经典案例 1、网站分析案例 1)分析 省份访问 procinceId --> Key 1 -->Value <procinceId,lis
Spark学习技巧
2018/01/31
2.2K0
hadoop系列之MR的经典代码案例一
《快学BigData》--Hadoop总结(G)(40)
Hadoop总结 - - - - - - - - - - - - - - - - - - - - - - - - - - - - 210
小徐
2019/08/05
4250
《快学BigData》--Hadoop总结(G)(40)
Hadoop学习:深入解析MapReduce的大数据魔力(二)
1、问题引出 要求将统计结果按照条件输出到不同文件中(分区)。比如:将统计结果按照手机 归属地不同省份输出到不同文件中(分区) 2、默认Partitioner分区
老虎也淘气
2024/01/30
1540
Hadoop学习:深入解析MapReduce的大数据魔力(二)
Hadoop学习:深入解析MapReduce的大数据魔力之数据压缩(四)
压缩方式选择时重点考虑:压缩/解压缩速度、压缩率(压缩后存储大小)、压缩后是否 可以支持切片。
老虎也淘气
2024/01/30
2400
Hadoop学习:深入解析MapReduce的大数据魔力之数据压缩(四)
Hadoop Partitioner使用教程
partitioner在处理输入数据集时就像条件表达式(condition)一样工作。分区阶段发生在Map阶段之后,Reduce阶段之前。partitioner的个数等于reducer的个数(The number of partitioners is equal to the number of reducers)。这就意味着一个partitioner将根据reducer的个数来划分数据(That means a partitioner will divide the data according to the number of reducers)。因此,从一个单独partitioner传递过来的数据将会交由一个单独的reducer处理(the data passed from a single partitioner is processed by a single Reducer)。
smartsi
2019/08/07
7700
Java编写Hadoop第一个MapReduce任务
因为在做网站案例的时候,想学习如何处理海量数据,所以想接触大数据相关的知识,之前对于大数据的了解,仅仅是停留在知道Hadoop,Hive,HBase,Spark的层面上,所以如何学习确实对我造成了困扰,所幸我所在公司部门存在大数据开发,于是不断的请教大佬,大佬说第一步是学一点Linux和Java,然后Hadoop,再然后......。再然后就先不说了,对于Linux和Java我这里可以直接跨过了,然后就是学Hadoop。这周利用散碎的时间,学会了Hadoop的安装使用,使用Java写一个Hadoop任务。安装这里我就不说了,大家可以去网上搜索,或者来我的网站文章模块看我如何安装(Mac): 网址:www.study-java.cn来看一下(需要打开微信小程序:每天学Java进行扫码登录)
每天学Java
2020/06/01
1.5K0
大数据技术之_05_Hadoop学习_04_MapReduce_Hadoop企业优化(重中之重)+HDFS小文件优化方法+MapReduce扩展案例+倒排索引案例(多job串联)+TopN案例+找博客
  MapReduce优化方法主要从六个方面考虑:数据输入、Map阶段、Reduce阶段、IO传输、数据倾斜问题和常用的调优参数。
黑泽君
2019/03/08
6150
hadoop案例实现之WordCount (计算单词出现的频数)
一、编写java代码,实现map函数以及reduce函数 package com.paic.elis.test; import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apa
MickyInvQ
2020/09/27
7800
hadoop案例实现之WordCount (计算单词出现的频数)
2021年大数据Hadoop(十九):​​​​​​​MapReduce分区
在 MapReduce 中, 通过我们指定分区, 会将同一个分区的数据发送到同一个Reduce当中进行处理。例如: 为了数据的统计, 可以把一批类似的数据发送到同一个 Reduce 当中, 在同一个 Reduce 当中统计相同类型的数据, 就可以实现类似的数据分区和统计等
Lansonli
2021/10/11
5970
MapReduce工作原理
这篇文章是我之前在自学 MapReduce 的笔记,想着最近再回顾一下 MapReduce 的原理,于是就整理了一下。
create17
2019/07/19
4.2K0
推荐阅读
相关推荐
大数据:Hadoop-MapReduce练习
更多 >
LV.0
这个人很懒,什么都没有留下~
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验