我有多个imageview子视图根据我的传入数据进行堆叠.基本上所有这些子视图都是基于我的传入数据设置为图像或视频图层.我遇到的问题是播放视频.我可以在堆叠中播放第一个视频,但每个视频之后只是第一个视频的声音.我如何相应地玩?

通过点击事件(如snapchat)浏览视图.见下文:

@interface SceneImageViewController ()

@property (strong,nonatomic) NSURL *videoUrl;
@property (strong,nonatomic) AVPlayer *avPlayer;
@property (strong,nonatomic) AVPlayerLayer *avPlayerLayer;

@end

@implementation SceneImageViewController

- (void)viewDidLoad {

[super viewDidLoad];

self.mySubviews = [[NSMutableArray alloc] init];
self.videoCounterTags = [[NSMutableArray alloc] init];

int c = (int)[self.scenes count];
c--;
NSLog(@"int c = %d",c);
self.myCounter = [NSNumber numberWithInt:c];


for (int i=0; i<=c; i++) {

    //create imageView
    UIImageView *imageView =[[UIImageView alloc] initWithFrame:CGRectMake(0,self.view.bounds.size.width,self.view.bounds.size.height)];
    [imageView setUserInteractionEnabled:YES]; // <--- This is very important
    imageView.tag = i;                        // <--- Add tag to track this subview in the view stack
    [self.view addSubview:imageView];
    NSLog(@"added image view %d",i);


    //get scene object
    PFObject *sceneObject = self.scenes[i];


    //get the PFFile and filetype
    PFFile *file = [sceneObject objectForKey:@"file"];
    Nsstring *fileType = [sceneObject objectForKey:@"fileType"];



    //check the filetype
    if ([fileType  isEqual: @"image"])
    {
        dispatch_async(dispatch_get_global_queue(disPATCH_QUEUE_PRIORITY_HIGH,0),^{
        //get image
        NSURL *imageFileUrl = [[NSURL alloc] initWithString:file.url];
        NSData *imageData = [NSData dataWithContentsOfURL:imageFileUrl];
            dispatch_async(dispatch_get_main_queue(),^{
        imageView.image = [UIImage imageWithData:imageData];
            });
        });

    }

    //its a video
    else
    {
        // the video player
        NSURL *fileUrl = [NSURL URLWithString:file.url];

        self.avPlayer = [AVPlayer playerWithURL:fileUrl];
        self.avPlayer.actionAtItemEnd = AVPlayerActionAtItemEndNone;

        self.avPlayerLayer = [AVPlayerLayer playerLayerWithPlayer:self.avPlayer];
        //self.avPlayerLayer.videoGravity = AVLayerVideoGravityResizeAspectFill;

        [[NSNotificationCenter defaultCenter] addobserver:self
                                                 selector:@selector(playerItemDidReachEnd:)
                                                     name:AVPlayerItemDidplayToEndTimeNotification
                                                   object:[self.avPlayer currentItem]];

        CGRect screenRect = [[UIScreen mainScreen] bounds];

        self.avPlayerLayer.frame = CGRectMake(0,screenRect.size.width,screenRect.size.height);
        [imageView.layer addSublayer:self.avPlayerLayer];

        NSNumber *tag = [NSNumber numberWithInt:i+1];

        NSLog(@"tag = %@",tag);

        [self.videoCounterTags addobject:tag];

        //[self.avPlayer play];
    }



}



UITapGestureRecognizer *tapGesture = [[UITapGestureRecognizer alloc] initWithTarget:self action:@selector(viewTapped:)];

[self.view bringSubviewToFront:self.screen];

[self.screen addGestureRecognizer:tapGesture];


}


 - (void)viewTapped:(UIGestureRecognizer *)gesture{

NSLog(@"touch!");

[self.avPlayer pause];

int i = [self.myCounter intValue];
NSLog(@"counter = %d",i);



for(UIImageView *subview in [self.view subviews]) {

    if(subview.tag== i) {

        [subview removeFromSuperview];
    }
}

if ([self.videoCounterTags containsObject:self.myCounter]) {
    NSLog(@"play video!!!");
    [self.avPlayer play];
}

if (i == 0) {
    [self.avPlayer pause];
    [self.navigationController popViewControllerAnimated:NO];
}


i--;
self.myCounter = [NSNumber numberWithInt:i];


NSLog(@"counter after = %d",i);





}

解决方法

布鲁克斯·赫内斯说什么是正确的,你不要超越玩家.
这是我建议你做的:

>将点击手势添加到imageView而不是屏幕(或更清洁的方法使用UIButton代替):

UIImageView *imageView =[[UIImageView alloc] initWithFrame:CGRectMake(0,self.view.bounds.size.height)];
[imageView setUserInteractionEnabled:YES]; // <--- This is very important
imageView.tag = i;                        // <--- Add tag to track this subview in the view stack
[self.view addSubview:imageView];
NSLog(@"added image view %d",i);
UITapGestureRecognizer *tapGesture = [[UITapGestureRecognizer alloc] initWithTarget:imageView action:@selector(viewTapped:)];
[imageView addGestureRecognizer:tapGesture];

这样在你的viewTapped方法中,你可以得到如下所示的压缩图像的标签:gesture.view.tag而不是使用myCounter.

>要使视频工作,您可以为每个视频创建一个新的AVPlayer,但这可能会变得相当昂贵的内存明智.更好的方法是使用AVPlayerItem并在更改视频时切换AVPlayer的AVPlayerItem.

所以在for循环中做一些这样的事情,其中​​self.videoFiles是一个NSMutableDictionary属性:

// the video player
            NSNumber *tag = [NSNumber numberWithInt:i+1];
            NSURL *fileUrl = [NSURL URLWithString:file.url];
          //save your video file url paired with the ImageView it belongs to.
           [self.videosFiles setobject:fileUrl forKey:tag];
// you only need to initialize the player once.
            if(self.avPlayer == nil){
                AVAsset *asset = [AVAsset assetWithURL:fileUrl];
                AVPlayerItem *item = [[AVPlayerItem alloc] initWithAsset:asset];
                self.avPlayer = [[AVPlayer alloc] initWithPlayerItem:item];
                self.avPlayer.actionAtItemEnd = AVPlayerActionAtItemEndNone;
                [[NSNotificationCenter defaultCenter] addobserver:self
                    selector:@selector(playerItemDidReachEnd:)
                name:AVPlayerItemDidplayToEndTimeNotification
                object:[self.avPlayer currentItem]];
            }
            // you don't need to keep the layer as a property 
            // (unless you need it for some reason 
            AVPlayerLayer* avPlayerLayer = [AVPlayerLayer playerLayerWithPlayer:self.avPlayer];
            avPlayerLayer.videoGravity = AVLayerVideoGravityResizeAspectFill;

            CGRect screenRect = [[UIScreen mainScreen] bounds];                
            avPlayerLayer.frame = CGRectMake(0,screenRect.size.height);
            [imageView.layer addSublayer:avPlayerLayer];
            NSLog(@"tag = %@",tag);                
            [self.videoCounterTags addobject:tag];

现在在你的看法:

if ([self.videoCounterTags containsObject:gesture.view.tag]) { 

  NSLog(@"play video!!!");
    AVAsset *asset = [AVAsset assetWithURL:[self.videoFiles objectForKey:gesture.view.tag]];
    AVPlayerItem *item = [[AVPlayerItem alloc] initWithAsset:asset];
    self.avPlayer replaceCurrentItemWithPlayerItem: item];
    [self.avLayer play];
}

或者使用self.videoFiles,然后你根本不需要self.videoCounterTags:

NSURL* fileURL = [self.videoFiles objectForKey:gesture.view.tag];
 if (fileURL!=nil) {    
     NSLog(@"play video!!!");
     AVAsset *asset = [AVAsset assetWithURL:fileURL];
     AVPlayerItem *item = [[AVPlayerItem alloc] initWithAsset:asset];
     self.avPlayer replaceCurrentItemWithPlayerItem: item];
     [self.avLayer play];
 }

这是它的要点.

ios – 播放堆叠的视频的更多相关文章

  1. ios – 缓冲后AVPlayer无法恢复

    我还检查了errorLog(),并没有提供除通用互联网连接错误以外的任何相关内容.我尝试通过一个计时器检测这种状态,当它超时时,我检查当前的视频时间和计时器开始的时间,如果它是相同的,我们可以假设视频真的不是当它声称它正在播放时.然后我将其视为不可恢复的状态,并通过创建新的AVPlayerItem重新加载整个流.

  2. iOS AVPlayer未加载大多数HLS流

    解决方法我使用的HTTPURL因此不受保护,它不允许设备或模拟器播放它.我在info.plist中添加了一个异常,允许不安全的协议让iOS顺利地流式传输HLS.

  3. 从AVFullScreenViewController iOS 8获取媒体链接

    我想在某些内容开始播放时尝试获取视频链接.首先我抓住视频开始播放然后延迟尝试获取链接CUViewController,CUPlayerView,CUPlayerController–假的类,它看起来像这样一切都还行,直到这一行球员总是零.也许有更简单的方式来获得媒体链接?

  4. ios – 使用AVPlayer音频播放AVMutableComposition不同步

    解决方法我有同样的问题并通过以下列方式指定时间尺度来修复它,以及许多其他音频和视频内容:之前,我的时间尺度是CMTimeScale.这使得我在以不同的帧速率编写剪辑时感到紧张,加上Eddy在这里提到的音频不同步.尽管看起来像一个幻数,600是24,30,60和120的常见倍数.这些是用于不同目的的通常帧速率.常用的多个避免了在编写多个剪辑时拖动舍入问题.

  5. ios – AVPlayer / AVPlayerItem如何通知我的应用程序无法访问网络故障?

    我正在使用AVPlayer在iOS应用程序中实现自定义视频播放器.要从网络播放视频我分配了一个播放器:创建资产:异步加载可播放键:问题是,当设备没有互联网连接或高丢包时,永远不会调用completionHandler,因此我不知道何时向用户显示加载视频失败的消息.我的问题是:>我错过了什么/有没有更好的方法来处理这个?>我应该滚动自己的超时逻辑,还是应该永远不会异步加载值:当可达性认为网络无法访问时.>有关AVPlayer和网络故障的最佳做法是什么?

  6. 当使用AVPLayer播放视频时,它会停止背景音乐ios

    我正在使用AVPlayer播放视频,它会阻止iPhone的背景音乐.请帮我解决解决方法我的电影是为了动画;他们没有声音.为了让其他声音继续播放,在Swift:感谢marcusAdams的原始答案.

  7. ios – 检测AvPlayer切换比特率的时间

    谢谢.解决方法我最近遇到过类似的问题.解决方案感觉有点hacky,但它在我看到的情况下起作用.首先,我为新的AccessLog通知设置了一个观察者:哪个叫这个功能.它可能可以优化,但这是基本的想法:每次访问日志都有新条目时,它会检查最近一个条目的最后指示比特率.它将此指示的比特率与存储来自最后一次更改的比特率的属性进行比较.

  8. ios – MPNowPlayingInfoCenter nowPlayingInfo通过AirPlay忽略AVPlayer音频

    我已经使用AVPlayer实现音频播放,播放远程mp3网址.我想使用MPNowPlayingInfoCenterNowPlayingInfo方法显示当前正在播放的音频的信息.当我锁定屏幕时,我会看到我设置的图像和标题,所以我知道这种方法是以某种方式注册信息,但是当我将AirPlay切换到AppleTV时,显示器看起来像通用的视频输出,进度条位于底部,但经过时间和持续时间正确显示.如果我设置相同的N

  9. ios – 在302重定向之后,AVPlayer无法为同一个域发送cookie

    有没有办法解决这个问题?请分享你的想法.解决方法制作一个演示该问题的示例,提交错误报告.然后创建一个提到雷达的DTS事件,并且您正在寻找一个解决方案,以便您认为是一个错误.这打开了两种可能性:>工程师可以确认错误–如果不知道他们会修复它,如果它是重复的,您可以请求原始状态信息>DTS具有足够的知识,有能力查询实际的AV工程师如何解决这个问题这样你就可以花更少的时间找到可能不会得到任何其他答案的地方.

  10. ios – 播放堆叠的视频

    我有多个imageview子视图根据我的传入数据进行堆叠.基本上所有这些子视图都是基于我的传入数据设置为图像或视频图层.我遇到的问题是播放视频.我可以在堆叠中播放第一个视频,但每个视频之后只是第一个视频的声音.我如何相应地玩?

随机推荐

  1. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  2. iOS – genstrings:无法连接到输出目录en.lproj

    使用我桌面上的项目文件夹,我启动终端输入:cd然后将我的项目文件夹拖到终端,它给了我路径.然后我将这行代码粘贴到终端中找.-name*.m|xargsgenstrings-oen.lproj我在终端中收到此错误消息:genstrings:无法连接到输出目录en.lproj它多次打印这行,然后说我的项目是一个目录的路径?没有.strings文件.对我做错了什么的想法?

  3. iOS 7 UIButtonBarItem图像没有色调

    如何确保按钮图标采用全局色调?解决方法只是想将其转换为根注释,以便为“回答”复选标记提供更好的上下文,并提供更好的格式.我能想出这个!

  4. ios – 在自定义相机层的AVFoundation中自动对焦和自动曝光

    为AVFoundation定制图层相机创建精确的自动对焦和曝光的最佳方法是什么?

  5. ios – Xcode找不到Alamofire,错误:没有这样的模块’Alamofire’

    我正在尝试按照github(https://github.com/Alamofire/Alamofire#cocoapods)指令将Alamofire包含在我的Swift项目中.我创建了一个新项目,导航到项目目录并运行此命令sudogeminstallcocoapods.然后我面临以下错误:搜索后我设法通过运行此命令安装cocoapodssudogeminstall-n/usr/local/bin

  6. ios – 在没有iPhone6s或更新的情况下测试ARKit

    我在决定下载Xcode9之前.我想玩新的框架–ARKit.我知道要用ARKit运行app我需要一个带有A9芯片或更新版本的设备.不幸的是我有一个较旧的.我的问题是已经下载了新Xcode的人.在我的情况下有可能运行ARKit应用程序吗?那个或其他任何模拟器?任何想法或我将不得不购买新设备?解决方法任何iOS11设备都可以使用ARKit,但是具有高质量AR体验的全球跟踪功能需要使用A9或更高版本处理器的设备.使用iOS11测试版更新您的设备是必要的.

  7. 将iOS应用移植到Android

    我们制作了一个具有2000个目标c类的退出大型iOS应用程序.我想知道有一个最佳实践指南将其移植到Android?此外,由于我们的应用程序大量使用UINavigation和UIView控制器,我想知道在Android上有类似的模型和实现.谢谢到目前为止,guenter解决方法老实说,我认为你正在计划的只是制作难以维护的糟糕代码.我意识到这听起来像很多工作,但从长远来看它会更容易,我只是将应用程序的概念“移植”到android并从头开始编写.

  8. ios – 在Swift中覆盖Objective C类方法

    我是Swift的初学者,我正在尝试在Swift项目中使用JSONModel.我想从JSONModel覆盖方法keyMapper,但我没有找到如何覆盖模型类中的Objective-C类方法.该方法的签名是:我怎样才能做到这一点?解决方法您可以像覆盖实例方法一样执行此操作,但使用class关键字除外:

  9. ios – 在WKWebView中获取链接URL

    我想在WKWebView中获取tapped链接的url.链接采用自定义格式,可触发应用中的某些操作.例如HTTP://我的网站/帮助#深层链接对讲.我这样使用KVO:这在第一次点击链接时效果很好.但是,如果我连续两次点击相同的链接,它将不报告链接点击.是否有解决方法来解决这个问题,以便我可以检测每个点击并获取链接?任何关于这个的指针都会很棒!解决方法像这样更改addobserver在observeValue函数中,您可以获得两个值

  10. ios – 在Swift的UIView中找到UILabel

    我正在尝试在我的UIViewControllers的超级视图中找到我的UILabels.这是我的代码:这是在Objective-C中推荐的方式,但是在Swift中我只得到UIViews和CALayer.我肯定在提供给这个方法的视图中有UILabel.我错过了什么?我的UIViewController中的调用:解决方法使用函数式编程概念可以更轻松地实现这一目标.

返回
顶部