本文接着《音视频入门基础:RTP专题(18)——FFmpeg源码中,获取RTP的音频信息的实现(上)》,继续讲解FFmpeg获取SDP描述的RTP流的音频信息到底是从哪个地方获取的。本文的一级标题从“四”开始。
四、音频采样率
SDP协议中,a=rtpmap属性和a=fmtp属性中的config参数都会包含音频采样率信息。FFmpeg源码中首先会判断config参数中是否存在音频信息,如果存在,那就会从config参数(config是《ISO/IEC 14496-3》中定义的音频对象类型特定解码器配置数据 AudioSpecificConfig)中获取音频采样率;如果不存在,则会从a=rtpmap属性中获取音频采样率:
由《音视频入门基础:AAC专题(11)——AudioSpecificConfig简介》可以知道,AudioSpecificConfig中存在一个占4位的samplingFrequencyIndex属性,表示音频的采样频率:
FFmpeg源码的aac_decode_init函数中,会判断avctx->extradata_size是否大于0(avctx->extradata_size为SDP协议中config参数携带的内容的长度),大于0才表示config参数携带信息,才会执行decode_audio_specific_config函数:
static av_cold int aac_decode_init(AVCodecContext *avctx)
{
//...if (avctx->extradata_size > 0) {if ((ret = decode_audio_specific_config(ac, ac->avctx, &ac->oc[1].m4ac,avctx->extradata,avctx->extradata_size * 8LL,1)) < 0)return ret;}
//...
}
decode_audio_specific_config函数内部会调用decode_audio_specific_config_gb函数:
static int decode_audio_specific_config(AACDecContext *ac,AVCodecContext *avctx,MPEG4AudioConfig *m4ac,const uint8_t *data, int64_t bit_size,int sync_extension)
{
//...return decode_audio_specific_config_gb(ac, avctx, m4ac, &gb, 0,sync_extension);
}
由《音视频入门基础:AAC专题(12)——FFmpeg源码中,解码AudioSpecificConfig的实现》可以知道,
ff_mpeg4audio_get_config_gb函数中,通过语句:c->sample_rate = get_sample_rate(gb, &c->sampling_index)获取AudioSpecificConfig的samplingFrequencyIndex属性。执行decode_audio_specific_config_gb函数后,m4ac指向的变量会得到从AudioSpecificConfig中解码出来的属性:
static inline int get_sample_rate(GetBitContext *gb, int *index)
{*index = get_bits(gb, 4);return *index == 0x0f ? get_bits(gb, 24) :ff_mpeg4audio_sample_rates[*index];
}
然后在decode_audio_specific_config_gb函数外部,通过aac_decode_frame_int函数将上一步得到的samplingFrequencyIndex属性赋值给AVCodecContext的sample_rate:
static int aac_decode_frame_int(AVCodecContext *avctx, AVFrame *frame,int *got_frame_ptr, GetBitContext *gb,const AVPacket *avpkt)
{
//...if (ac->oc[1].status && audio_found) {avctx->sample_rate = ac->oc[1].m4ac.sample_rate << multiplier;avctx->frame_size = samples;ac->oc[1].status = OC_LOCKED;}
//...
}
然后在dump_stream_format函数中,通过avcodec_string函数中的语句:av_bprintf(&bprint, "%d Hz, ", enc->sample_rate)拿到上一步中得到的AVCodecContext的sample_rate。最后再在dump_stream_format函数中将profile打印出来:
void avcodec_string(char *buf, int buf_size, AVCodecContext *enc, int encode)
{
//...switch (enc->codec_type) {case AVMEDIA_TYPE_AUDIO:av_bprintf(&bprint, "%s", separator);if (enc->sample_rate) {av_bprintf(&bprint, "%d Hz, ", enc->sample_rate);}
//...}
//...
}
五、音频声道数
FFmpeg获取SDP描述的RTP流的音频声道数,是从SDP的a=rtpmap属性获取的。比如SDP中某一行的内容为:
a=rtpmap:97 MPEG4-GENERIC/48000/2
该例子中,该行的“48000”后面的那个“2”就是音频声道数,表示是双声道(立体声)。
当识别到上述“a=rtpmap”这个<type>后,sdp_parse_line函数中会调用sdp_parse_rtpmap函数:
else if (av_strstart(p, "rtpmap:", &p) && s->nb_streams > 0) {/* NOTE: rtpmap is only supported AFTER the 'm=' tag */get_word(buf1, sizeof(buf1), &p);payload_type = atoi(buf1);rtsp_st = rt->rtsp_streams[rt->nb_rtsp_streams - 1];if (rtsp_st->stream_index >= 0) {st = s->streams[rtsp_st->stream_index];sdp_parse_rtpmap(s, st, rtsp_st, payload_type, p);}s1->seen_rtpmap = 1;if (s1->seen_fmtp) {parse_fmtp(s, rt, payload_type, s1->delayed_fmtp);}}
sdp_parse_rtpmap函数中会把a=rtpmap属性中的音频通道数提取出来,并通过语句:av_channel_layout_default(&par->ch_layout, i)把音频声道数赋值给par->ch_layout。par->ch_layout为指向一个AVCodecParameters类型变量的指针:
/* parse the rtpmap description: <codec_name>/<clock_rate>[/<other params>] */
static int sdp_parse_rtpmap(AVFormatContext *s,AVStream *st, RTSPStream *rtsp_st,int payload_type, const char *p)
{
//...switch (par->codec_type) {case AVMEDIA_TYPE_AUDIO://...par->ch_layout = (AVChannelLayout)AV_CHANNEL_LAYOUT_MONO;if (i > 0) {par->sample_rate = i;avpriv_set_pts_info(st, 32, 1, par->sample_rate);get_word_sep(buf, sizeof(buf), "/", &p);i = atoi(buf);if (i > 0)av_channel_layout_default(&par->ch_layout, i);}}
//...
}
然后在sdp_parse_rtpmap函数外部,通过avcodec_parameters_to_context函数将AVCodecParameters的ch_layout赋值给AVCodecContext的ch_layout:
int avcodec_parameters_to_context(AVCodecContext *codec,const AVCodecParameters *par)
{
//...switch (par->codec_type) {case AVMEDIA_TYPE_AUDIO:ret = av_channel_layout_copy(&codec->ch_layout, &par->ch_layout);//....break;}
//...
}
然后在dump_stream_format函数中,通过avcodec_string函数中的语句:av_channel_layout_describe_bprint(&enc->ch_layout, &bprint)拿到AVCodecContext的ch_layout对应的音频声道数目。最后再在dump_stream_format函数中将音频声道数目打印出来:
void avcodec_string(char *buf, int buf_size, AVCodecContext *enc, int encode)
{
//...switch (enc->codec_type) {case AVMEDIA_TYPE_AUDIO:av_channel_layout_describe_bprint(&enc->ch_layout, &bprint);//...break;}
//...
}
所以FFmpeg获取SDP描述的RTP流的音频声道数,是从SDP的a=rtpmap属性获取的:
六、Bit depth
如果SDP描述的RTP流的音频压缩编码格式为AAC,FFmpeg会强制把Bit depth设置为fltp。这是因为对于有损压缩编解码器(如MP3和AAC),Bit depth是在编码期间计算的,并且可以因采样而异,Bit depth只对PCM数字信号有意义。具体可以参考:《音视频入门基础:AAC专题(3)——AAC的ADTS格式简介》。
可以看到在aac_decode_init函数中(该函数定义在libavcodec/aacdec_template.c),强制把音频采样格式设置成了AV_SAMPLE_FMT_FLTP:
static av_cold int aac_decode_init(AVCodecContext *avctx)
{
//...avctx->sample_fmt = AV_SAMPLE_FMT_FLTP;
//...
}
所以如果SDP描述的RTP流的音频压缩编码格式为AAC,通过“ffmpeg -protocol_whitelist "file,rtp,udp" -i XXX.sdp命令”获取到的音频采样格式固定为fltp,该值没有意义: