2010-09-22 Chris Rogers <crogers@google.com>
[WebKit-https.git] / WebCore / platform / audio / HRTFKernel.cpp
1 /*
2  * Copyright (C) 2010 Google Inc. All rights reserved.
3  *
4  * Redistribution and use in source and binary forms, with or without
5  * modification, are permitted provided that the following conditions
6  * are met:
7  *
8  * 1.  Redistributions of source code must retain the above copyright
9  *     notice, this list of conditions and the following disclaimer.
10  * 2.  Redistributions in binary form must reproduce the above copyright
11  *     notice, this list of conditions and the following disclaimer in the
12  *     documentation and/or other materials provided with the distribution.
13  * 3.  Neither the name of Apple Computer, Inc. ("Apple") nor the names of
14  *     its contributors may be used to endorse or promote products derived
15  *     from this software without specific prior written permission.
16  *
17  * THIS SOFTWARE IS PROVIDED BY APPLE AND ITS CONTRIBUTORS "AS IS" AND ANY
18  * EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED
19  * WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE
20  * DISCLAIMED. IN NO EVENT SHALL APPLE OR ITS CONTRIBUTORS BE LIABLE FOR ANY
21  * DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES
22  * (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
23  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND
24  * ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
25  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
26  * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
27  */
28
29 #include "config.h"
30
31 #if ENABLE(WEB_AUDIO)
32
33 #include "HRTFKernel.h"
34
35 #include "AudioChannel.h"
36 #include "Biquad.h"
37 #include "FFTFrame.h"
38
39 using namespace std;
40
41 namespace WebCore {
42
43 // Takes the input AudioChannel as an input impulse response and calculates the average group delay.
44 // This represents the initial delay before the most energetic part of the impulse response.
45 // The sample-frame delay is removed from the impulseP impulse response, and this value  is returned.
46 // the length of the passed in AudioChannel must be a power of 2.
47 static double extractAverageGroupDelay(AudioChannel* channel)
48 {
49     ASSERT(channel);
50         
51     float* impulseP = channel->data();
52     size_t length = channel->length();
53     
54     // Check that length is power-of-2;
55     ASSERT(1UL << static_cast<unsigned>(log2(length)) == length);
56
57     FFTFrame estimationFrame(length);
58     estimationFrame.doFFT(impulseP);
59
60     double frameDelay = estimationFrame.extractAverageGroupDelay();
61     estimationFrame.doInverseFFT(impulseP);
62
63     return frameDelay;
64 }
65
66 HRTFKernel::HRTFKernel(AudioChannel* channel, size_t fftSize, double sampleRate, bool bassBoost)
67     : m_frameDelay(0.0)
68     , m_sampleRate(sampleRate)
69 {
70     ASSERT(channel);
71
72     // Determine the leading delay (average group delay) for the response.
73     m_frameDelay = extractAverageGroupDelay(channel);
74
75     float* impulseResponse = channel->data();
76     size_t responseLength = channel->length();
77
78     if (bassBoost) {
79         // Run through some post-processing to boost the bass a little -- the HRTF's seem to be a little bass-deficient.
80         // FIXME: this post-processing should have already been applied to the HRTF file resources.  Once the files are put into this form,
81         // then this code path can be removed along with the bassBoost parameter.
82         Biquad filter;
83         filter.setLowShelfParams(700.0 / nyquist(), 6.0); // boost 6dB at 700Hz
84         filter.process(impulseResponse, impulseResponse, responseLength);
85     }
86
87     // We need to truncate to fit into 1/2 the FFT size (with zero padding) in order to do proper convolution.
88     size_t truncatedResponseLength = min(responseLength, fftSize / 2); // truncate if necessary to max impulse response length allowed by FFT
89
90     // Quick fade-out (apply window) at truncation point
91     unsigned numberOfFadeOutFrames = static_cast<unsigned>(sampleRate / 4410); // 10 sample-frames @44.1KHz sample-rate
92     ASSERT(numberOfFadeOutFrames < truncatedResponseLength);
93     if (numberOfFadeOutFrames < truncatedResponseLength) {
94         for (unsigned i = truncatedResponseLength - numberOfFadeOutFrames; i < truncatedResponseLength; ++i) {
95             float x = 1.0f - static_cast<float>(i - (truncatedResponseLength - numberOfFadeOutFrames)) / numberOfFadeOutFrames;
96             impulseResponse[i] *= x;
97         }
98     }
99
100     m_fftFrame = adoptPtr(new FFTFrame(fftSize));
101     m_fftFrame->doPaddedFFT(impulseResponse, truncatedResponseLength);
102 }
103
104 PassOwnPtr<AudioChannel> HRTFKernel::createImpulseResponse()
105 {
106     OwnPtr<AudioChannel> channel = adoptPtr(new AudioChannel(fftSize()));
107     FFTFrame fftFrame(*m_fftFrame);
108
109     // Add leading delay back in.
110     fftFrame.addConstantGroupDelay(m_frameDelay);
111     fftFrame.doInverseFFT(channel->data());
112
113     return channel.release();
114 }
115
116 // Interpolates two kernels with x: 0 -> 1 and returns the result.
117 PassRefPtr<HRTFKernel> HRTFKernel::createInterpolatedKernel(HRTFKernel* kernel1, HRTFKernel* kernel2, double x)
118 {
119     ASSERT(kernel1 && kernel2);
120     if (!kernel1 || !kernel2)
121         return 0;
122  
123     ASSERT(x >= 0.0 && x < 1.0);
124     x = min(1.0, max(0.0, x));
125     
126     double sampleRate1 = kernel1->sampleRate();
127     double sampleRate2 = kernel2->sampleRate();
128     ASSERT(sampleRate1 == sampleRate2);
129     if (sampleRate1 != sampleRate2)
130         return 0;
131     
132     double frameDelay = (1.0 - x) * kernel1->frameDelay() + x * kernel2->frameDelay();
133     
134     OwnPtr<FFTFrame> interpolatedFrame = FFTFrame::createInterpolatedFrame(*kernel1->fftFrame(), *kernel2->fftFrame(), x);
135     return HRTFKernel::create(interpolatedFrame.release(), frameDelay, sampleRate1);
136 }
137
138 } // namespace WebCore
139
140 #endif // ENABLE(WEB_AUDIO)