我正试图通过Apples Multipeer Connectivity框架将音频从麦克风传输到另一部iPhone.要进行音频捕获和回放我正在使用AVAudioEngine(非常感谢 Rhythmic Fistman’s回答 here).

我通过在输入上安装一个麦克风从麦克风接收数据,从中我得到一个AVAudioPCMBuffer然后我转换为一个UInt8数组,然后我流到另一个手机.

但是当我将数组转换回AVAudioPCMBuffer时,我得到一个EXC_BAD_ACCESS异常,编译器指向我再次将字节数组转换为AVAudioPCMBuffer的方法.

这是我正在采取的转换和流输入的代码:

input.installTap(onBus: 0,bufferSize: 2048,format: input.inputFormat(forBus: 0),block: {
                (buffer: AVAudioPCMBuffer!,time: AVAudioTime!) -> Void in

                let audioBuffer = self.typetobinary(buffer)
                stream.write(audioBuffer,maxLength: audioBuffer.count)
            })

我的两个转换数据的功能(取自Martin.R的答案here):

func binarytotype <T> (_ value: [UInt8],_: T.Type) -> T {
    return value.withUnsafeBufferPointer {
        UnsafeRawPointer($0.baseAddress!).load(as: T.self)
    }

}

func typetobinary<T>(_ value: T) -> [UInt8] {
    var data = [UInt8](repeating: 0,count: MemoryLayout<T>.size)
    data.withUnsafeMutableBufferPointer {
        UnsafeMutableRawPointer($0.baseAddress!).storeBytes(of: value,as: T.self)
    }
    return data
}

并在接收端:

func session(_ session: MCSession,didReceive stream: InputStream,withName streamName: String,fromPeer peerID: MCPeerID) {
    if streamName == "voice" {

        stream.schedule(in: RunLoop.current,forMode: .defaultRunLoopMode)
        stream.open()

        var bytes = [UInt8](repeating: 0,count: 8)
        stream.read(&bytes,maxLength: bytes.count)

        let audioBuffer = self.binarytotype(bytes,AVAudioPCMBuffer.self) //Here is where the app crashes

        do {
            try engine.start()

            audioPlayer.scheduleBuffer(audioBuffer,completionHandler: nil)
            audioPlayer.play()
       }catch let error {
            print(error.localizedDescription)

        }
    }
}

问题是我可以来回转换字节数组并在流式传输之前播放声音(在同一部手机中)但不在接收端创建AVAudioPCMBuffer.有谁知道为什么转换在接收端不起作用?这是正确的方法吗?

任何帮助,关于此的想法/意见将非常感激.

您的AVAudioPCMBuffer序列化/反序列化是错误的.

Swift3的演员阵容发生了很大的变化.似乎需要比Swift2更多的复制.

以下是如何在[UInt8]和AVAudioPCMBuffers之间进行转换的方法:

N.B:此代码假设单声道浮点数据为44.1kHz.
您可能想要更改它.

func copyAudioBufferBytes(_ audioBuffer: AVAudioPCMBuffer) -> [UInt8] {
    let srcLeft = audioBuffer.floatChannelData![0]
    let bytesPerFrame = audioBuffer.format.streamDescription.pointee.mBytesPerFrame
    let numBytes = Int(bytesPerFrame * audioBuffer.frameLength)

    // initialize bytes to 0 (how to avoid?)
    var audioByteArray = [UInt8](repeating: 0,count: numBytes)

    // copy data from buffer
    srcLeft.withMemoryRebound(to: UInt8.self,capacity: numBytes) { srcByteData in
        audioByteArray.withUnsafeMutableBufferPointer {
            $0.baseAddress!.initialize(from: srcByteData,count: numBytes)
        }
    }

    return audioByteArray
}

func bytesToAudioBuffer(_ buf: [UInt8]) -> AVAudioPCMBuffer {
    // format assumption! make this part of your protocol?
    let fmt = AVAudioFormat(commonFormat: .pcmFormatFloat32,sampleRate: 44100,channels: 1,interleaved: true)
    let frameLength = UInt32(buf.count) / fmt.streamDescription.pointee.mBytesPerFrame

    let audioBuffer = AVAudioPCMBuffer(pcmFormat: fmt,frameCapacity: frameLength)
    audioBuffer.frameLength = frameLength

    let dstLeft = audioBuffer.floatChannelData![0]
    // for stereo
    // let dstRight = audioBuffer.floatChannelData![1]

    buf.withUnsafeBufferPointer {
        let src = UnsafeRawPointer($0.baseAddress!).bindMemory(to: Float.self,capacity: Int(frameLength))
        dstLeft.initialize(from: src,count: Int(frameLength))
    }

    return audioBuffer
}

swift – 尝试通过多路连接将音频从麦克风传输到另一部手机的更多相关文章

  1. iOS版.使用USB麦克风录制96kHz

    我正在尝试使用我的RDEiXYUSB麦克风以96kHz的速度录制.录音没有错误,当我启动连接麦克风的应用程序时,我看到AVAudioSession以96kHz的采样率成功运行.但是,如果我看一下光谱,很明显除了20kHz以上的重采样噪声之外什么都没有:为了进行比较,这是使用与USB麦克风捆绑的应用程序进行相同录制的频谱:还有什么我必须做的,以原生96kHz录制?或者也许RDERec应用程序通过USB通过一些专有协议与麦克风通信,我在这里运气不好?

  2. 从iOS上的麦克风输入进行语音活动检测

    我正在开发一个基于语音的AI的iOS应用程序;即它意味着从麦克风接收语音输入,将其转换为文本,将其发送到AI代理,然后通过扬声器输出返回的文本.我已经完成了所有工作,但是使用按钮开始和停止录制语音(SpeechKit用于语音识别,API.AI用于AI,亚马逊的Polly用于输出).我需要的是让麦克风始终打开,并在用户开始和结束谈话时自动开始和停止录制用户的声音.这个应用程序正在开发一个非正统的环境

  3. ios – 将音频从麦克风通过蓝牙传输到另一个iPhone

    我正在尝试将传入的麦克风音频传输到另一个iPhone.基本上一个电话,但通过蓝牙.我有音频通过AVAudioRecorder进来:然后我尝试从@martin-r从HERE–StreamReader使用StreamReader使用:然后使用以下方式将数据发送到另一台设备:我将线转换为NSData,然后使用dispatch_after0.5秒不断运行,我通过蓝牙发送到另一个设备.这似乎不起作用,我不认

  4. ios – 强制iPhone麦克风作为音频输入

    我正在开发一个iOS应用程序,需要应用程序只从iPhone内部麦克风录制音频,并在耳机播放.我想知道现在可以使用API吗?如果是这样,有人可以请你说明我该怎么做?

  5. 如何检测用户在iOS上授予麦克风权限?

    所以我需要在用户给出(或拒绝)使用麦克风的权限后调用某个函数.我已经看到了这个:但是,这仅用于检测当前状态.如果当前状态为“no”并且弹出窗口显示且用户提供权限–则不会调用该函数.那是因为在执行此操作的那一刻,权限是“否”,直到我们下次运行代码时才会调用该函数.我想要做的是在用户按下“允许”或“拒绝”后调用一个函数.谁知道怎么做?

  6. xcode – 如何在模拟器上测试iOS麦克风的使用?

    如何在IO模拟器中测试麦克风?我不认为它是通过Mac屏幕顶部的内置音频录制的,我理解.哪些选项有效?

  7. swift – 尝试通过多路连接将音频从麦克风传输到另一部手机

    任何帮助,关于此的想法/意见将非常感激.您的AVAudioPCMBuffer序列化/反序列化是错误的.Swift3的演员阵容发生了很大的变化.似乎需要比Swift2更多的复制.以下是如何在[UInt8]和AVAudioPCMBuffers之间进行转换的方法:N.B:此代码假设单声道浮点数据为44.1kHz.您可能想要更改它.

  8. 如何检测Android中是否存在麦克风?

    ..所以我想在让用户访问语音输入功能之前检测麦克风是否存在.如何检测设备上是否有麦克风.谢谢.解决方法AndroidAPI参考:hasSystemFeature

  9. 如何将麦克风阵列上每个麦克风的音频同时录制到Android中的单独缓冲区?

    许多平板电脑和一些智能手机使用一系列麦克风来解决噪音问题.例如,摩托罗拉DroidX使用三个麦克风阵列,甚至允许您设置“音频场景”.一个exampleisdiscussedhere.我希望能够同时从平板电脑/手机上的所有麦克风录制.我发现使用AudioSource我们可以选择麦克风(我不知道这是哪种麦克风,但它可能是面向用户的麦克风)或麦克风与摄像机的方向相同,但无论如何都无法找到麦克风阵列中的所

  10. android – 如何从头部电话杰克获得电力?

    我的任务是,如果有人知道如何创建一个可以通过设备的耳机插孔发送电费的Android应用程序,就像在这个视频iPocket_LED中一样.视频显示了一个iPhone应用程序,用于控制插入耳机插孔的LED.我想知道如何访问设备发送电子信号.抱歉我的英语,不是我的语言,我希望有人了解我解决方法许多接受外部麦克风的消费者设备将提供“插入式电源”.这是麦克风连接中两个触点上通常为1至5伏的小电压.Apple

随机推荐

  1. Swift UITextField,UITextView,UISegmentedControl,UISwitch

    下面我们通过一个demo来简单的实现下这些控件的功能.首先,我们拖将这几个控件拖到storyboard,并关联上相应的属性和动作.如图:关联上属性和动作后,看看实现的代码:

  2. swift UISlider,UIStepper

    我们用两个label来显示slider和stepper的值.再用张图片来显示改变stepper值的效果.首先,这三个控件需要全局变量声明如下然后,我们对所有的控件做个简单的布局:最后,当slider的值改变时,我们用一个label来显示值的变化,同样,用另一个label来显示stepper值的变化,并改变图片的大小:实现效果如下:

  3. preferredFontForTextStyle字体设置之更改

    即:

  4. Swift没有异常处理,遇到功能性错误怎么办?

    本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请发送邮件至dio@foxmail.com举报,一经查实,本站将立刻删除。

  5. 字典实战和UIKit初探

    ios中数组和字典的应用Applicationschedule类别子项类别名称优先级数据包contactsentertainment接触UIKit学习用Swift调用CocoaTouchimportUIKitletcolors=[]varbackView=UIView(frame:CGRectMake(0.0,0.0,320.0,CGFloat(colors.count*50)))backView

  6. swift语言IOS8开发战记21 Core Data2

    上一话中我们简单地介绍了一些coredata的基本知识,这一话我们通过编程来实现coredata的使用。还记得我们在coredata中定义的那个Model么,上面这段代码会加载这个Model。定义完方法之后,我们对coredata的准备都已经完成了。最后强调一点,coredata并不是数据库,它只是一个框架,协助我们进行数据库操作,它并不关心我们把数据存到哪里。

  7. swift语言IOS8开发战记22 Core Data3

    上一话我们定义了与coredata有关的变量和方法,做足了准备工作,这一话我们来试试能不能成功。首先打开上一话中生成的Info类,在其中引用头文件的地方添加一个@objc,不然后面会报错,我也不知道为什么。

  8. swift实战小程序1天气预报

    在有一定swift基础的情况下,让我们来做一些小程序练练手,今天来试试做一个简单地天气预报。然后在btnpressed方法中依旧增加loadWeather方法.在loadWeather方法中加上信息的显示语句:运行一下看看效果,如图:虽然显示出来了,但是我们的text是可编辑状态的,在storyboard中勾选Editable,再次运行:大功告成,而且现在每次单击按钮,就会重新请求天气情况,大家也来试试吧。

  9. 【iOS学习01】swift ? and !  的学习

    如果不初始化就会报错。

  10. swift语言IOS8开发战记23 Core Data4

    接着我们需要把我们的Rest类变成一个被coredata管理的类,点开Rest类,作如下修改:关键字@NSManaged的作用是与实体中对应的属性通信,BinaryData对应的类型是NSData,CoreData没有布尔属性,只能用0和1来区分。进行如下操作,输入类名:建立好之后因为我们之前写的代码有些地方并不适用于coredata,所以编译器会报错,现在来一一解决。

返回
顶部