IOS音频变成之变声处理

news/2024/11/15 0:50:24/

  • IOS音频编程之变声处理
      • 需求耳塞Mic实时录音变声处理后实时输出
    • 初始化
      • 程序使用44100HZ的频率对原始的音频数据进行采样并在音频输入的回调中处理采样的数据
    • 音频处理
      • 预备知识
      • 音频输入输出回调函数处理

IOS音频编程之变声处理

需求:耳塞Mic实时录音,变声处理后实时输出


初始化

程序使用44100HZ的频率对原始的音频数据进行采样,并在音频输入的回调中处理采样的数据。

1)对AVAudioSession的一些设置

NSError *error;
self.session = [AVAudioSession sharedInstance];
[self.session setCategory:AVAudioSessionCategoryPlayAndRecord error:&error];
handleError(error);
//route变化监听
[[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(audioSessionRouteChangeHandle:) name:AVAudioSessionRouteChangeNotification object:self.session];[self.session setPreferredIOBufferDuration:0.005 error:&error];
handleError(error);
[self.session setPreferredSampleRate:kSmaple error:&error];
handleError(error);[self.session setActive:YES error:&error];
handleError(error);

setPreferredIOBufferDurations文档上解释change to the I/O buffer duration,具体解释参看官方文档。我把它理解为在每次调用输入或输出的回调,能提供多长时间(由设置的这个值决定)的音频数据。但当我用0.005和0.93分别设置它的时候,发现回调中的inNumberFrames的值并未改变,一直是512,相当于每次输入或输出提供了512/44100=0.0116s的数据。(设置有问题?

setPreferredSampleRate设置对音频数据的采样率。

2)获取AudioComponentInstance

//Obtain a RemoteIO unit instance
AudioComponentDescription acd;
acd.componentType = kAudioUnitType_Output;
acd.componentSubType = kAudioUnitSubType_RemoteIO;
acd.componentFlags = 0;
acd.componentFlagsMask = 0;
acd.componentManufacturer = kAudioUnitManufacturer_Apple;
AudioComponent inputComponent = AudioComponentFindNext(NULL, &acd);
AudioComponentInstanceNew(inputComponent, &_toneUnit);

3)对AudioComponentInstance的一些初始化设置


I/O unit

这张图蓝色框中的部分就是一个 I/O Unit( AudioComponentInstance的实例).图中的 Element 0连接 Speaker,也叫 Output Bus; Element 1连接 Mic,也叫 Input Bus.初始化它,就是对再这些Bus上的音频流的格式,设置输入输出的回调函数等。

UInt32 enable = 1;
AudioUnitSetProperty(_toneUnit,kAudioOutputUnitProperty_EnableIO,kAudioUnitScope_Input,kInputBus,&enable,sizeof(enable));
AudioUnitSetProperty(_toneUnit,kAudioOutputUnitProperty_EnableIO,kAudioUnitScope_Output,kOutoutBus, &enable, sizeof(enable));mAudioFormat.mSampleRate         = kSmaple;//采样率
mAudioFormat.mFormatID           = kAudioFormatLinearPCM;//PCM采样
mAudioFormat.mFormatFlags        = kAudioFormatFlagIsSignedInteger | kAudioFormatFlagIsPacked;
mAudioFormat.mFramesPerPacket    = 1;//每个数据包多少帧
mAudioFormat.mChannelsPerFrame   = 1;//1单声道,2立体声
mAudioFormat.mBitsPerChannel     = 16;//语音每采样点占用位数
mAudioFormat.mBytesPerFrame      = mAudioFormat.mBitsPerChannel*mAudioFormat.mChannelsPerFrame/8;//每帧的bytes数
mAudioFormat.mBytesPerPacket     = mAudioFormat.mBytesPerFrame*mAudioFormat.mFramesPerPacket;//每个数据包的bytes总数,每帧的bytes数*每个数据包的帧数
mAudioFormat.mReserved           = 0;CheckError(AudioUnitSetProperty(_toneUnit,kAudioUnitProperty_StreamFormat,kAudioUnitScope_Input, kOutoutBus,&mAudioFormat, sizeof(mAudioFormat)),"couldn't set the remote I/O unit's output client format");
CheckError(AudioUnitSetProperty(_toneUnit,kAudioUnitProperty_StreamFormat,kAudioUnitScope_Output, kInputBus,&mAudioFormat, sizeof(mAudioFormat)),"couldn't set the remote I/O unit's input client format");CheckError(AudioUnitSetProperty(_toneUnit,kAudioOutputUnitProperty_SetInputCallback,kAudioUnitScope_Output,kInputBus,&_inputProc, sizeof(_inputProc)),"couldnt set remote i/o render callback for input");CheckError(AudioUnitSetProperty(_toneUnit,kAudioUnitProperty_SetRenderCallback,kAudioUnitScope_Input,kOutoutBus,&_outputProc, sizeof(_outputProc)),"couldnt set remote i/o render callback for output");CheckError(AudioUnitInitialize(_toneUnit),"couldn't initialize the remote I/O unit");

注意kAudioUnitScope_Output/kAudioUnitScope_InputkOutput/kInput的组合。设置输入输出使能时,Scope_Input下的kInput直接和Mic相连,所以是选用它们两;设置输出使能也类似。而设置音频的格式时,要选用Scope_Input下的kOutput和Scope_OutPut下的kInput,如果组合错误,为会返回-10865的错误码,意思说设置了只读属性,而在官方文档中也有说明,This hardware connection—at the input scope of element 1—is opaque to you. Your first access to audio data entering from the input hardware is at the output scope of element 1, output scope of element 0 is opaque。(疑问?在设置输入输出回调时以及Scope选择Input和Output以及Global都可以,但是官方文档中说Your first access to audio data entering from the input hardware is at the output scope of element 1)

音频处理

预备知识

变声操作实际是对声音信号的频谱进行搬移,在时域中乘以一个三角函数相当于在频域上进行了频谱的搬移。但使得频谱搬移了±��。由下图傅里叶变化公式说明
Fourier
频谱搬移后,要把搬移的F(w-w。)的部分滤除。将声音的原始PCM放到Matlab中分析出频谱,然后进行搬移(实际上,我滤波这一步是失败的,还请小伙伴们告知我应该选一个怎样的滤波器)

1)写一个专门手机原始声音数据的程序,将声音数据保存到模拟上(用模拟器收集的声音,方便直接将写入到沙盒中的文件拷出来)。

2) 将声音数据用matlab读出来(注意模拟器和matlab处理数据时的大小端,专门把数据转换读出来看了,两边都应该是小端模式),并分析和频移其频谱
matlab代码

FID=fopen('record.txt','r');
fseek(FID,0,'eof');
len=ftell(FID);
frewind(FID);
A=fread(FID,len/2,'short');
A=A*1.0-mean(A);
Y=fft(A);
Fs=44100;
f=Fs*(0:length(A)/2 - 1)/length(A);
subplot(211);
plot(f,abs(Y(1:length(A)/2)));
k=0:length(A)-1;
cos_y=cos(2*pi*1000*k/44100);
cos_y=cos_y';
A2=A.*cos_y;
Y2=fft(A2);
subplot(212);
plot(f,abs(Y2(1:length(A)/2)));

FFT

原始信号的频谱从0频开始?频率1000Hz后,虑除的就是小于1000hz的频率?实际在我的程序中对频谱只进行了200hz的搬移,那选一个大于200hz的IIR高通滤波器?

3)用matlab设计滤波器,并得到滤波器参数.我用matlab的fdatool工具设计了一个5阶的IIR高通滤波器,截止频率为200hz。导出参数,用[Bb,Ba]=sos2tf(SOS,G);得出滤波器参数。

4)得到的Bb和Ba参数后,可以直接代入输入输出的差分方程得出滤波器的输出y(n)

音频输入输出回调函数处理

1)输入回调

OSStatus inputRenderTone(void *inRefCon,AudioUnitRenderActionFlags     *ioActionFlags,const AudioTimeStamp       *inTimeStamp,UInt32                         inBusNumber,UInt32                         inNumberFrames,AudioBufferList            *ioData){
ViewController *THIS=(__bridge ViewController*)inRefCon;AudioBufferList bufferList;
bufferList.mNumberBuffers = 1;
bufferList.mBuffers[0].mData = NULL;
bufferList.mBuffers[0].mDataByteSize = 0;
OSStatus status = AudioUnitRender(THIS->_toneUnit,ioActionFlags,inTimeStamp,kInputBus,inNumberFrames,&bufferList);SInt16 *rece = (SInt16 *)bufferList.mBuffers[0].mData;
for (int i = 0; i < inNumberFrames; i++) {rece[i] = rece[i]*THIS->_convertCos[i];//频谱搬移
}RawData *rawData = &THIS->_rawData;
//距离最大位置还有mDataByteSize/2 那就直接memcpy,否则要一个一个字节拷贝
if((rawData->rear+bufferList.mBuffers[0].mDataByteSize/2) <= kRawDataLen){memcpy((uint8_t *)&(rawData->receiveRawData[rawData->rear]), bufferList.mBuffers[0].mData, bufferList.mBuffers[0].mDataByteSize);rawData->rear = (rawData->rear+bufferList.mBuffers[0].mDataByteSize/2);
}else{uint8_t *pIOdata = (uint8_t *)bufferList.mBuffers[0].mData;for (int i = 0; i < rawData->rear+bufferList.mBuffers[0].mDataByteSize; i+=2) {SInt16 data = pIOdata[i] | pIOdata[i+1]<<8;rawData->receiveRawData[rawData->rear] = data;rawData->rear = (rawData->rear+1)%kRawDataLen;}
}
return status;
}

在频移的处理时,本来要对频移后的序列滤波的,但是滤波后,全部是杂音,所以删除掉了这部分代码,在提供的完整代码中有这部分删除掉的代码。存储数据中循环队列来存。

2)输出回调

OSStatus outputRenderTone(void *inRefCon,AudioUnitRenderActionFlags    *ioActionFlags,const AudioTimeStamp      *inTimeStamp,UInt32                        inBusNumber,UInt32                        inNumberFrames,AudioBufferList           *ioData){
ViewController *THIS=(__bridge ViewController*)inRefCon;SInt16 *outSamplesChannelLeft   = (SInt16 *)ioData->mBuffers[0].mData;
RawData *rawData = &THIS->_rawData;
for (UInt32 frameNumber = 0; frameNumber < inNumberFrames; ++frameNumber) {
if (rawData->front != rawData->rear) {outSamplesChannelLeft[frameNumber] = (rawData->receiveRawData[rawData->front]);rawData->front = (rawData->front+1)%kRawDataLen;}
}
return 0;
}

以上实现了对音频的实时录入变声后实时输出。没有滤波,听起来声音有点怪。������大学的时候学的数字信号处理已经还给老师,关于信号处理这部分还请知道的小伙伴指点指点,想实现男女声音转化的效果。

代码下载地址


http://www.ppmy.cn/news/544978.html

相关文章

仿QQ语言变声功能

仿QQ语言变声功能 这次写的是QQ语言变声功能&#xff0c;这个功能想必大家都使用过&#xff0c;那么这个功能是怎么实现的呢&#xff1f; 在开发中一边触及和语音&#xff0c;视频&#xff0c;算法等等都和c/c相关&#xff0c;我们这里也是使用的NDK&#xff0c;链接第三方动…

【有手就行】使用你自己的声音做语音合成

【有手就行】使用你自己的声音做语音合成 厌倦了前篇一律的TTS音色了吗&#xff1f;打开短视频听来听去就是那几个声音&#xff0c;快来试试使用你自己的声音来做语音合成吧&#xff01;本教程非常简单&#xff0c;只需要你能够上传自己的音频数据就可以(建议10句以上&#xf…

仿QQ变声功能的实现

Android ndk开发之QQ变声 要做出QQ变声的效果&#xff0c;用Android系统自带的MediaPlayer是无法实现的&#xff0c;只能另想他法了。听说汤姆猫是用SoundTouch实现的&#xff0c;而QQ是用FMOD实现的&#xff0c;就根据网上的教程&#xff0c;自己捣鼓ndk好几天&#xff0c;终…

java实现变声器--变声萝莉

编写java变声器需要做的前期准备 安装 ffmgeg 下载地址 Releases BtbN/FFmpeg-Builds GitHub win系统下载 ffmpeg-N-103272-g7bba0dd638-win64-gpl.zip 配置环境变量到 bin目录 新建maven程序加入两个引用 <!-- https://mvnrepository.com/artifact/com.github.st-h/…

matlab调制变声,MATLAB变声程序代码

% ct1 clear all,close all, clc; % 定义常数 FL 80; % 帧长 WL 240; % 窗长 P 10; % 预测系数个数 [s,fs] wavread(sunday_2.wav); % 载入语音s s s/max(s); %归一化 L length(s); % 读入语音长度 FN floor(L/FL)-2; % 计算帧数 % 预测和重建滤波器 exc zeros(L,1); %…

Android 端音频变声方案

音频变声实质上是通过调整 PCM 数据的音调、节拍等属性&#xff0c;实现听感上的变化。如果是 mp3、aac 等压缩音频&#xff0c;则需提前解码成 PCM 数据&#xff0c;Android 端可以通过 MediaExtractor 及 MediaCodec 解码得到 PCM&#xff0c;但调整音调、节拍仅靠 Android a…

实时语音变声技术原理解析:“大叔变小萝莉”

游戏社交化是近年来游戏行业发展的重要趋势&#xff0c;如何提高游戏的社交属性已成为各大游戏厂商游戏策划的重要组成部分。游戏中玩家的互动形式也不再止于语音聊天&#xff0c;有了更为高阶的需求&#xff0c;比如&#xff1a;玩家在“吃鸡”的时候&#xff0c;会通过外带的…

MATLAB变声器程序

clear;clc; [s,fs,] audioread(‘61.m4a’); % 载入语音s s(1:3000)s(1:3000)randn(3000,1)*eps; s s/max(s); %归一化 L length(s); % 读入语音长度 figure(1); subplot(211);plot(s);title(‘原始语音信号波形’) subplot(212);plot(abs(s));title(‘原始语音信号频谱’) …