一、 概述

实现直播过程中共享屏幕分为两个步骤:屏幕数据采集流媒体数据推送。前对于 iOS 来说,屏幕采集需要系统的权限,受制于iOS系统的限制,第三方 app 并没有直接录制屏幕的权限,必须通过系统的功能来实现。

本文将描述iOS系统的屏幕共享的应用、实现、限制、实现细节等方面调研结果。(注:由于iOS 10和之前的系统只支持App内录制屏幕,所以只做简单的介绍,不做详细说明)

二、 应用

屏幕共享早起出现在视频会议当中,后来在一些游戏直播中也出现了大规模应用,Apple早期不支持屏幕共享,但随着直播的盛行,Apple也是根据用户的需求,给予了屏幕共享的支持,推出了 ReplayKit 库来迎合这种场景。

市面上的屏幕共享的场景大致分类如下:

  • 一、:远程操作屏幕 :辅助他人对手机进行操作。如年轻人帮组老年人进行远程设置,客服帮组客户解决软件故障或者使用帮组,有效的解决语言表述低效的问题。
  • 二、:游戏直播:知名游戏主播可以把手机上玩游戏的画面直播给其他人,可以进行游戏教学,游戏解说,让其他人更好的学习游戏技巧。
  • 三、:视频会议,开会房把手机内容给他人观看进行解说,如手机中的邮件内容、图片、文档等,方便参会方快速共享信息,提高沟通效率。

三、 各系统实现屏幕共享

iOS系统上实现屏幕共享的技术,主要在于系统各个版本的差异,下面将针对各个系统版本实现方式和限制性等方面进行比较。
首先,由于需要使用手机的相机和麦克等硬件,无法在模拟器上调试使用。首先我们了解下目前各个版本的覆盖率情况。

系统覆盖率

根据苹果官网的数据显示,截止到2021年6月,iOS系统各个系统版本占有率大致如下图所示,可见,目前iOS13 及以下系统的用户覆盖率不足2%,而iOS14系统的覆盖率约为 90%,iOS13系统的覆盖率约为8 %。顾为了兼顾老版本,目前市面上应用一般会兼容到 iOS 9。

iOS 8

iOS8 以及以前的版本,系统没有提供相应的功能,通过破解系统的功能调用私有的API来实现。由于 iOS8 太过古老而且运行 iOS8 系统的设备也基本上支撑不起来直播的功能,我们这里不做详细讨论,有兴趣的可以研究一下。

iOS 9系统

Apple 在iOS 9 推出了 ReplayKit 框架,提供了录屏功能,但是限制是只能录制本App内的屏幕。录制完成后会生成一个视频文件,只能通过 RPPreviewViewController 来预览,编译生成的文件,录制过程中无法获取数据,只能将最终录制完毕的整个mp4文件提供给开发者,所以实际上并非真正的屏幕的直播共享,无法保证实时性。

iOS 10系统

iOS 10 Apple 推出了 Broadcast Upload Extention 和 Broadcast Setup UI Extention,来解决录屏的问题。

首先介绍一下App Extension,官方文档(Extension的官方文档)。Extension是对 App 的扩展,在一定程度上打破了沙盒的限制,提供了应用间通信的可能。Extension 是一个独立运行的进程,有自己的生命周期。下图所示:

虽然iOS 10 系统解决了之前系统的一系列弊病,但是仍然没能解决只能录制当前app的屏幕内容的问题,这样会限制一些应用的使用场景。

iOS 11系统

iOS 11 的发布正式直播兴盛的年代,为了迎合市场需求,Apple 提供了跨 app 录屏的功能,可以实现录取整个屏幕的功能。 虽然ReplayKit2 已经可以满足开发者的多数需求,但是对于用户来说,这个版本在实现屏幕直播时,需要用户提前在手机设置中配置出屏幕录制的访问控制权限,使屏幕录制按钮显示在系统的上拉管理菜单中,并且在录制时,上拉底部菜单调出快捷管理菜单,并且长按屏幕录制圆形按钮才能开始录制和直播。复杂的操作流程,让用户使用的门槛增高。所以在iOS 11 上屏幕共享功能也显得很单薄。

iOS12系统

iOS 12 在iOS11的基础上进行了优化,并提供了RPSystemBroadcastPickerView,解决了录制屏幕,用户无需在控制中心手动启动。

总结

结合上面iOS各个系统版本对屏幕录制的限制的分析,从版本稳定性和发布可靠性角度来说,我们应该从iOS12系统开始提供屏幕录制功能,而之前的系统版本不做兼容。如果只录制 app 页面进行直播,那么系统可兼容到iOS 9。

四. 屏幕共享注意事项

  • 由于 iOS 手机屏幕分辨率较高,考虑到内存占用和传输效率,需要对采集图像和处理过程进行优化,一般限制分辨率在720P以内。

  • Extension 子进程有50M内存限制,当在该线程内存超过50M会导致程序崩溃,就是由于这个限制,业界相似的处理方案都会限制其视频质量不超过720P,高端机型的视频针数保持在30之内,低端机型视频帧率保持在10之内。

  • 子进程崩溃会导致页面一直弹提示框,用户只能重启手机来解决该问题。

  • 子进程和 host app 通信,需要看传输的内容选择不同的形式:

    1、通过配置app group的方式共享文件或者UserDefault。

    2、进程间通知:CFNotificationCenter,一般开启关闭等可以通过通知实现。

    3、通过Socket传输,像屏幕分享这样的场景比较适合这么做。

五. anyRTC 屏幕共享实现

anyRTC 视频屏幕共享可有两种实现方式:

  • 一种是在Extension 子进程中通过 Socket 传输发送屏幕共享视频数据到 host app 中,host app中以自采集Push的方式向 SDK 塞流,该方式只能传输一路视频流,要么屏幕共享要么摄像头的视频流。

  • 一种是在Extension 子进程中初始化 SDK, 拉流设置为不订阅其他人的音频和视频,只做发送端。该方式实现了一个客户端可以发送自己的摄像头的视频流,也可以发送屏幕共享的流,只是以两个uid进入同一个频道的形式。

本地Socket传输到host app

思路参考:博客

大致的思路是:本地起一个socket,通过tcp的形式传输到host app,复杂的操作在host app 中进行,有效解决Extension 50M的限制问题。

子进程中直接使用SDK

思路:在Extension中直接使用 SDK ,只做发流,不接收流。同时也要注意Extension 50M的问题(1:应用限制横竖屏直播,要么横盘、要么竖屏,应用横竖屏切换容易导致内存突增。2:低性能机器限制视频的帧率(1~10帧))

1.初始化

设置频道属性为直播模式,并设置为主播角色,启用视频模块

  // 实例化 rtc 对象rtcKit = [ARtcEngineKit sharedEngineWithAppId:appId delegate:self];[rtcKit setChannelProfile:ARChannelProfileLiveBroadcasting];[rtcKit setClientRole:ARClientRoleBroadcaster];[rtcKit enableVideo];

2.设置屏幕共享的分辨率

  • 由于子进程中有 50M 限制,为了系统的稳定性建议分辨率不要设置超过720P

  • 根据屏幕的宽高,跟分辨率做换算,计算出最佳的分辨率输出

  • 视频的帧率,如果在低端机型下,建议设置5帧,高端机器不要超过30帧

  • 屏幕共享的清晰度,可以适当调整bitrate,建议不要超过1800

  // 获取当前屏幕的最佳分辨率CGSize screenSize = [[UIScreen mainScreen] currentMode].size;CGSize boundingSize = CGSizeMake(720, 1280);CGFloat mW = boundingSize.width / screenSize.width;CGFloat mH = boundingSize.height / screenSize.height;if( mH < mW ) {boundingSize.width = boundingSize.height / screenSize.height * screenSize.width;}else if( mW < mH ) {boundingSize.height = boundingSize.width / screenSize.width * screenSize.height;}// 视频编码配置ARVideoEncoderConfiguration *config = [[ARVideoEncoderConfiguration alloc] init];config.dimensions = boundingSize;config.bitrate = 1500;config.frameRate = 10;config.orientationMode = ARVideoOutputOrientationModeAdaptative;[rtcKit setVideoEncoderConfiguration:config];

3.设置使用外部音视频源

  • 设置使用外部视频源采集,打开后内部采集自动关停
  • 设置使用外部音频源采集,打开后内部音频采集自动关停
  // 配置外部视频源[rtcKit setExternalVideoSource:YES useTexture:YES pushMode:YES];// 推送外部音频帧[rtcKit enableExternalAudioSourceWithSampleRate:48000 channelsPerFrame:2];

4.禁止接收音视频

作为屏幕共享端只需要发流,不需要接收流

  // 禁止接收所有音视频流[rtcKit muteAllRemoteVideoStreams:YES];[rtcKit muteAllRemoteAudioStreams:YES];

5.加入频道

  • 获取 host app 中的用户Id,在进行一层组装,标记为某个人的辅流
  • 获取 host app 中正在使用的频道Id,开始屏幕共享的时候以该用户的辅流的形式进入频道
  // 获取 host app 中的用户Id,在进行一层组装,标记为某个人的辅流NSString *uid = [NSString stringWithFormat:@"%@_sub",self.userId];// 加入频道[rtcKit joinChannelByToken:nil channelId:self.channelId uid:uid joinSuccess:^(NSString * _Nonnull channel, NSString * _Nonnull uid, NSInteger elapsed) {NSLog(@"joinSuccess");}];

6.发流

  • RPSampleBufferTypeVideo:获取视频数据,并使用外置塞流接口把视频数据发送出去
  • RPSampleBufferTypeAudioApp:获取应用内的声音源,并使用外置塞流接口把音频数据发送出去
  • RPSampleBufferTypeAudioMic:获取麦克风声音源,并使用外置塞流接口把音频数据发送出去
  • 视频塞流,需要对视频数据进行组装,视频类型、时间戳、旋转角度等信息
- (void)processSampleBuffer:(CMSampleBufferRef)sampleBuffer withType:(RPSampleBufferType)sampleBufferType {switch (sampleBufferType) {case RPSampleBufferTypeVideo:{// 处理视频数据CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);if (pixelBuffer) {CMTime timestamp = CMSampleBufferGetPresentationTimeStamp(sampleBuffer);ARVideoFrame *videoFrame = [[ARVideoFrame alloc] init];videoFrame.format = 12;videoFrame.time = timestamp;videoFrame.textureBuf = pixelBuffer;videoFrame.rotation = [self getRotateByBuffer:sampleBuffer];[rtcKit pushExternalVideoFrame:videoFrame];}}break;case RPSampleBufferTypeAudioApp:// 处理音频数据,音频由App产生[rtcKit pushExternalAudioFrameSampleBuffer:sampleBuffer type:ARAudioTypeApp];break;case RPSampleBufferTypeAudioMic:// 处理音频数据,音频由麦克风产生[rtcKit pushExternalAudioFrameSampleBuffer:sampleBuffer type:ARAudioTypeMic];break;default:break;}
}

经过上述步骤,便可实现屏幕共享功能。为了方便开发者更能快速上手,可以参考demo快速上手。

iOS 屏幕共享

Android 屏幕共享

iOS端屏幕录制开发指南相关推荐

  1. iOS端屏幕录制ReplayKit

    ReplayKit是苹果在iOS9上面提供的一个框架. 库的特性说明 目前这个库只支持真机允许,不支持模拟器. 系统版本必须高于iOS9. 不支持录avplayer播放的视频,这个可能是为了保护视频的 ...

  2. app内录屏开发 ios_iOS端屏幕录制Replaykit项目实践

    上一篇阐述了调研结果,而我们常用的应用场景就是录制屏幕内容,然后将内容分享给他人(直播或录播).流程如下: 1.被录制端host app需引入 ReplayKit,以便可以使用其api选择一个app的 ...

  3. 免费好用的PC端屏幕录制软件

    链接:https://pan.baidu.com/s/125bcbo_795zoRnOVoTxm2g  提取码:335f

  4. 【RecordRTC Web端屏幕录制(VUE)方法】

    完整代码如下: button使用了element-ui; <template> <div class="record-page"><div style ...

  5. iOS端使用replaykit录制屏幕的技术细节

    前面两篇文章: iOS端屏幕录制(replaykit)调研 iOS端屏幕录制Replaykit项目实践 已经对iOS端实现屏幕录制的调研结果和简单实践进行了概述,本篇开始将分别对iOS9.iOS10. ...

  6. 《iOS 8开发指南(第2版)》——第1章,第1.3节工欲善其事,必先利其器——搭建开发环境...

    本节书摘来自异步社区<iOS 8开发指南(第2版)>一书中的第1章,第1.1节1.3 工欲善其事,必先利其器--搭建开发环境,作者 管蕾,更多章节内容可以访问云栖社区"异步社区& ...

  7. 《iOS 9 开发指南》——第6章,第6.4节 Interface Builder中的故事板——Storyboarding...

    本节书摘来自异步社区<iOS 9 开发指南>一书中的第6章,第6.4节 Interface Builder中的故事板--Storyboarding,作者 管蕾,更多章节内容可以访问云栖社区 ...

  8. MUI多端发布开发指南(终于把MUI的使用场景说清楚了)

    2019独角兽企业重金招聘Python工程师标准>>> MUI官方给的文档很分散,不系统.遇到问题解决找文档浪费了很多时间,终于弄清楚了,MUI的使用场景和处理方式. http:// ...

  9. iOS端(腾讯Bugly)闪退异常上报扑获日志集成与使用指南

    app已经上架并且有三次更新版本,今天市场部和顾客约谈时,发现顾客的iphone 6 plus iOS 9.0.2上运行app点击登录按钮时直接闪退,无法进入app里,这个问题还是第一次遇到,我下载了 ...

最新文章

  1. 记录一下ui设计中的网站配色
  2. MAVEN集成测试环境搭建
  3. 猴子偷桃php代码,C++实现猴子吃桃的示例代码
  4. Redis的常用功能
  5. k-means k均值聚类的弱点/缺点
  6. python-datetime模块190901
  7. 嵌入式操作系统内核原理和开发(任务创建和堆栈溢出检查)
  8. c++中queue用法
  9. 6 Linux之bash环境配置
  10. 电脑C盘满了如何扩充C盘内存?
  11. “车”的故事,我的信息化建设和管理愚见
  12. 百度地图标注点+搜索
  13. 大数据项目(BP神经网络)
  14. 错误 3002: 映射从第 10323 行开始的片段时有问题:表 T_BillTripDetail 的键(T_BillTripDetail.DetailGUID)具有潜在运行时冲突: 列(T_Bill
  15. 5W1H分析法 什么是5W1H分析法?
  16. 微信企业号开发二:TOKEN缓存处理
  17. Cocos2dx 3.10音频无法正常播放问题的解决之路
  18. 8255典例之打印机(选通信号和置位复位控制字的应用)
  19. 北京信息科技大学第十二届程序设计竞赛暨ACM选拔赛题解
  20. MySql数据库事务隔离级别底层实现原理总结

热门文章

  1. java调用腾讯云的短信接口
  2. 分享到豆瓣/QQ/开心网/人人网/百度/Google等代码
  3. 盘点GRE词汇经常出现的误区
  4. 距2022高考还有10天,让我们一起为届高考生加油吧
  5. 《精益创业》读后思考 2
  6. 全面解锁Kubernetes?百度爱番番技术实践全解析
  7. 带你玩转海外视频营销 + 用品牌思维颠覆亚马逊运营做海外贸易!
  8. 盒子模型(插入图片,外边距,内边距)
  9. 视频直播,手机直播,视频秀的app简介
  10. 案例精选 | 淘宝服务端高并发分布式架构演进之路