我的目标是使用ARKit在真实环境中呈现2D动画角色.动画角色是视频的一部分,在视频的以下快照中显示:

使用代码完全显示视频本身没有任何问题:

func view(_ view: ARSKView,nodeFor anchor: aranchor) -> SKNode? {
    guard let urlString = Bundle.main.path(forResource: "resourceName",ofType: "mp4") else { return nil }

    let url = URL(fileURLWithPath: urlString)
    let asset = AVAsset(url: url)
    let item = AVPlayerItem(asset: asset)
    let player = AVPlayer(playerItem: item)

    let videoNode = SKVideoNode(avPlayer: player)
    videoNode.size = CGSize(width: 200.0,height: 150.0)
    videoNode.anchorPoint = CGPoint(x: 0.5,y: 0.0)

    return videoNode
}

此代码的结果显示在以下应用程序的屏幕截图中,如预期:

但正如你所看到的,角色的背景并不是很好,所以我需要让它消失,以便创造出实际上站在水平面上的角色的幻觉.
我试图通过对视频产生色度键效果来实现这一点.

>对于那些不熟悉色度键的人来说,这是有时在电视上看到的“绿屏效果”的名称,以使颜色透明.

我对色度键效果的处理方法是创建基于“CIColorCube”CIFilter的自定义滤镜,然后使用AVVideoComposition将滤镜应用于视频.

首先,是创建过滤器的代码:

func RGBtoHSV(r : Float,g : Float,b : Float) -> (h : Float,s : Float,v : Float) {
    var h : CGFloat = 0
    var s : CGFloat = 0
    var v : CGFloat = 0
    let col = UIColor(red: CGFloat(r),green: CGFloat(g),blue: CGFloat(b),alpha: 1.0)
    col.getHue(&h,saturation: &s,brightness: &v,alpha: nil)
    return (Float(h),Float(s),Float(v))
}

func colorCubeFilterForChromakey(hueAngle: Float) -> CIFilter {

    let hueRange: Float = 20 // degrees size pie shape that we want to replace
    let minHueAngle: Float = (hueAngle - hueRange/2.0) / 360
    let maxHueAngle: Float = (hueAngle + hueRange/2.0) / 360

    let size = 64
    var cubedata = [Float](repeating: 0,count: size * size * size * 4)
    var rgb: [Float] = [0,0]
    var hsv: (h : Float,v : Float)
    var offset = 0

    for z in 0 ..< size {
        rgb[2] = Float(z) / Float(size) // blue value
        for y in 0 ..< size {
            rgb[1] = Float(y) / Float(size) // green value
            for x in 0 ..< size {

                rgb[0] = Float(x) / Float(size) // red value
                hsv = RGBtoHSV(r: rgb[0],g: rgb[1],b: rgb[2])
                // Todo: Check if hsv.s > 0.5 is really nesseccary
                let alpha: Float = (hsv.h > minHueAngle && hsv.h < maxHueAngle && hsv.s > 0.5) ? 0 : 1.0

                cubedata[offset] = rgb[0] * alpha
                cubedata[offset + 1] = rgb[1] * alpha
                cubedata[offset + 2] = rgb[2] * alpha
                cubedata[offset + 3] = alpha
                offset += 4
            }
        }
    }
    let b = cubedata.withUnsafeBufferPointer { Data(buffer: $0) }
    let data = b as NSData

    let colorCube = CIFilter(name: "CIColorCube",withInputParameters: [
        "inputCubedimension": size,"inputCubedata": data
        ])
    return colorCube!
}

然后通过修改函数func视图(_ view:ARSKView,nodeFor anchor:aranchor)将视频应用于视频的代码 – > SKNode?我之前写的:

func view(_ view: ARSKView,ofType: "mp4") else { return nil }

    let url = URL(fileURLWithPath: urlString)
    let asset = AVAsset(url: url)

    let filter = colorCubeFilterForChromakey(hueAngle: 38)
    let composition = AVVideoComposition(asset: asset,applyingCIFiltersWithHandler: { request in
        let source = request.sourceImage
        filter.setValue(source,forKey: kCIInputimageKey)
        let output = filter.outputimage

        request.finish(with: output!,context: nil)
    })

    let item = AVPlayerItem(asset: asset)
    item.videoComposition = composition
    let player = AVPlayer(playerItem: item)

    let videoNode = SKVideoNode(avPlayer: player)
    videoNode.size = CGSize(width: 200.0,y: 0.0)

    return videoNode
}

如果像素颜色与背景的色调范围匹配,则代码应该将视频的每个帧的所有像素替换为alpha = 0.0.
但是我没有获得透明像素,而是将这些像素设置为黑色,如下图所示:

现在,虽然这不是想要的效果,但它并不让我感到惊讶,因为我知道这是iOS用alpha通道显示视频的方式.
但这是真正的问题 – 当在AVPlayer中显示普通视频时,可以选择将AVPlayerLayer添加到视图中,并将pixelBufferAttributes设置为它,让玩家层知道我们使用透明像素缓冲区,就像这样:

let playerLayer = AVPlayerLayer(player: player)
playerLayer.bounds = view.bounds
playerLayer.position = view.center
playerLayer.pixelBufferAttributes = [(kCVPixelBufferPixelFormatTypeKey as String): kCVPixelFormatType_32BGRA]
view.layer.addSublayer(playerLayer)

这段代码为我们提供了一个透明背景(GOOD!)但固定大小和位置(不好……)的视频,如您在此屏幕截图中所示:

我想达到相同的效果,但是在SKVideoNode上,而不是在AVPlayerLayer上.但是,我找不到任何方法将pixelBufferAttributes设置为SKVideoNode,并且设置播放器层无法实现ARKit的预期效果,因为它已固定在位.

我的问题是否有任何解决方案,或者是否有其他技术可以达到相同的预期效果?

解决方法

解决方案非常简单!
所有需要做的是将视频添加为SKEffectNode的子节点,并将过滤器应用于SKEffectNode而不是视频本身(不需要AVVideoComposition).
这是我使用的代码:
func view(_ view: ARSKView,nodeFor anchor: aranchor) -> SKNode? {
    // Create and configure a node for the anchor added to the view's session.
    let bialikVideoNode = videoNodeWith(resourceName: "Tsina_05",ofType: "mp4")
    bialikVideoNode.size = CGSize(width: kDizengofVideoWidth,height: kDizengofVideoHeight)
    bialikVideoNode.anchorPoint = CGPoint(x: 0.5,y: 0.0)

    // Make the video background transparent using an SKEffectNode,since chroma-key doesn't work on video
    let effectNode = SKEffectNode()
    effectNode.addChild(bialikVideoNode)
    effectNode.filter = colorCubeFilterForChromakey(hueAngle: 120)

    return effectNode
}

这是根据需要的结果:

ios – ARKit/SpriteKit – 将pixelBufferAttributes设置为SKVideoNode或在视频中制作透明像素(色度键效果)另一种方式的更多相关文章

  1. ios – 在Sprite Kit中播放声音

    我在myScene.h中有以下代码:而这个代码在touchBegin方法中:音频文件位于主文件夹中.当我运行应用程序并触摸应用程序关闭时,我收到以下错误:我认为这是在SpriteKit中播放音频的方法,但我一定是做错了什么..解决方法从项目中删除该文件并再次添加.记得选择并选择您的项目作为目标.

  2. ios – 如何获取通过SpriteKit Editor创建的项目的SKSpriteNode?

    :-O解决方法如果在SpriteKitEditor中设置节点的name属性,则可以在Swift中访问该节点要么在Obj-C.

  3. ios – 无法使用Xcode 8和Swift 3以编程方式在SpriteKit中触发segue

    我正在使用SpriteKit在Xcode8中制作游戏,并且在编程上触发segue时非常困难.我已经进入“Main.storyboard”并在我的“GameViewController”和“MenuViewController”之间创建了一个segue,因为它标识符为“toMenu”.尝试失败#1在我的GameScene.swift文件中,我将以下代码添加到更新功能中.我的目标是每当gameIsRu

  4. ios – ARKit/SpriteKit – 将pixelBufferAttributes设置为SKVideoNode或在视频中制作透明像素(色度键效果)另一种方式

    )的视频,如您在此屏幕截图中所示:我想达到相同的效果,但是在SKVideoNode上,而不是在AVPlayerLayer上.但是,我找不到任何方法将pixelBufferAttributes设置为SKVideoNode,并且设置播放器层无法实现ARKit的预期效果,因为它已固定在位.我的问题是否有任何解决方案,或者是否有其他技术可以达到相同的预期效果?

  5. ios – 检测Sprite Collision而不在SpriteKit中反弹

    我正在使用Xcode6Beta7提前致谢!以下评论中的解决方案;)解决方法spritekit的默认行为是,除非碰撞位掩码更改为0,否则所有内容都会与所有内容发生冲突.在您不希望退回但接收来自它们的通知的所有对象中,将代码中的此值更改为0.这将阻止这些对象相互反弹.

  6. ios – 在SpriteKit中,touchesBegan在与SKScene更新方法相同的线程中运行吗?

    在这里的Apple文档AdvancedSceneProcessing中,它描述了更新方法以及场景的呈现方式,但没有提到何时处理输入.目前尚不清楚它是否与渲染循环位于同一个线程中,或者它是否与它并发.如果我有一个对象,我从SKScene更新方法和touchesBegan方法(在这种情况下是SKSpriteNode)更新,我是否要担心同步对我的对象的两次访问?解决方法所以几天后没有回答我设置了一些实验

  7. ios – SpriteKit在转换到新场景时收到有关UIElements的错误

    代码设置场景加载场景:来自GameScene的代码:解决方法你这样做:一旦URL请求完成,可能会在后台线程上调用myLoadingScene.end().end设置loadCount,它有一个启动新视图的setter,self.view?.presentScene这是需要在主线程上运行的最后一块.假设你有一个方便的函数来在主线程上运行一些东西:然后您可以将场景演示代码更改为应该做的伎俩.

  8. ios – 为什么重复创建和删除SKShapeNode和SKNode导致内存泄漏?

    使用Xcode附带的spritekit模板,我修改场景如下:该应用程序似乎继续使用更多内存,直到它挂起或崩溃.使用泄漏和分配工具,我发现了以下内容:泄漏:分配:从图像中可以看出,存在大量使用内存的Malloc调用.我不直接调用Malloc–似乎这些调用是由SpriteKit完成的.同样,存在许多内存泄漏,这似乎也是由于SKShapeNode,SKNode或其他SpriteKit对象造成的.我如何解决或解决此内存(泄漏)问题?

  9. xcode – 物理模拟的SceneKit更新方法

    我玩过精灵套件,并使用更新方法设置每个时间步骤处理的东西.我正试图学习一些快速的场景套件,似乎无法找到相应的.你能指点一下为SceneKit实现更新方法的例子吗?

  10. ios – 在Swift中对SpriteKit类进行子类化

    解决方法我不确定为什么,但SKLabelNode中隐藏的功能试图调用没有参数的init函数.这似乎有效:

随机推荐

  1. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  2. iOS – genstrings:无法连接到输出目录en.lproj

    使用我桌面上的项目文件夹,我启动终端输入:cd然后将我的项目文件夹拖到终端,它给了我路径.然后我将这行代码粘贴到终端中找.-name*.m|xargsgenstrings-oen.lproj我在终端中收到此错误消息:genstrings:无法连接到输出目录en.lproj它多次打印这行,然后说我的项目是一个目录的路径?没有.strings文件.对我做错了什么的想法?

  3. iOS 7 UIButtonBarItem图像没有色调

    如何确保按钮图标采用全局色调?解决方法只是想将其转换为根注释,以便为“回答”复选标记提供更好的上下文,并提供更好的格式.我能想出这个!

  4. ios – 在自定义相机层的AVFoundation中自动对焦和自动曝光

    为AVFoundation定制图层相机创建精确的自动对焦和曝光的最佳方法是什么?

  5. ios – Xcode找不到Alamofire,错误:没有这样的模块’Alamofire’

    我正在尝试按照github(https://github.com/Alamofire/Alamofire#cocoapods)指令将Alamofire包含在我的Swift项目中.我创建了一个新项目,导航到项目目录并运行此命令sudogeminstallcocoapods.然后我面临以下错误:搜索后我设法通过运行此命令安装cocoapodssudogeminstall-n/usr/local/bin

  6. ios – 在没有iPhone6s或更新的情况下测试ARKit

    我在决定下载Xcode9之前.我想玩新的框架–ARKit.我知道要用ARKit运行app我需要一个带有A9芯片或更新版本的设备.不幸的是我有一个较旧的.我的问题是已经下载了新Xcode的人.在我的情况下有可能运行ARKit应用程序吗?那个或其他任何模拟器?任何想法或我将不得不购买新设备?解决方法任何iOS11设备都可以使用ARKit,但是具有高质量AR体验的全球跟踪功能需要使用A9或更高版本处理器的设备.使用iOS11测试版更新您的设备是必要的.

  7. 将iOS应用移植到Android

    我们制作了一个具有2000个目标c类的退出大型iOS应用程序.我想知道有一个最佳实践指南将其移植到Android?此外,由于我们的应用程序大量使用UINavigation和UIView控制器,我想知道在Android上有类似的模型和实现.谢谢到目前为止,guenter解决方法老实说,我认为你正在计划的只是制作难以维护的糟糕代码.我意识到这听起来像很多工作,但从长远来看它会更容易,我只是将应用程序的概念“移植”到android并从头开始编写.

  8. ios – 在Swift中覆盖Objective C类方法

    我是Swift的初学者,我正在尝试在Swift项目中使用JSONModel.我想从JSONModel覆盖方法keyMapper,但我没有找到如何覆盖模型类中的Objective-C类方法.该方法的签名是:我怎样才能做到这一点?解决方法您可以像覆盖实例方法一样执行此操作,但使用class关键字除外:

  9. ios – 在WKWebView中获取链接URL

    我想在WKWebView中获取tapped链接的url.链接采用自定义格式,可触发应用中的某些操作.例如HTTP://我的网站/帮助#深层链接对讲.我这样使用KVO:这在第一次点击链接时效果很好.但是,如果我连续两次点击相同的链接,它将不报告链接点击.是否有解决方法来解决这个问题,以便我可以检测每个点击并获取链接?任何关于这个的指针都会很棒!解决方法像这样更改addobserver在observeValue函数中,您可以获得两个值

  10. ios – 在Swift的UIView中找到UILabel

    我正在尝试在我的UIViewControllers的超级视图中找到我的UILabels.这是我的代码:这是在Objective-C中推荐的方式,但是在Swift中我只得到UIViews和CALayer.我肯定在提供给这个方法的视图中有UILabel.我错过了什么?我的UIViewController中的调用:解决方法使用函数式编程概念可以更轻松地实现这一目标.

返回
顶部