延迟输出 0

Delay outputting 0's

本文关键字:输出 延迟      更新时间:2023-10-16

有人可以告诉我这里出了什么问题吗? 延迟有一个带有指针 *p 的缓冲区 (del),但每个样本输出零 (0)。

(固定延迟3秒)

float delay(float *sig, float dtime, float *del, int *p, int vecsize, float sr) {
    int dt;
    float out;
    dt = (int) (dtime*sr);// dtime = 3secs, sr=44100.0
    for(int i=0; i<vecsize; i++){
        out = del[*p]; 
        del[*p] = sig[i];
        sig[i] = out;
        *p = (*p != dt-1 ? *p+1 : 0);
    }
    return *sig;
}

您的delay()函数似乎工作正常,因此错误一定出在您调用它的方式上。 请参阅以下示例程序:

#include <stdio.h>
float delay(float *sig, float dtime, float *del, int *p, int vecsize, float sr)
{
    int dt;
    float out;
    dt = (int) (dtime*sr);// dtime = 3secs, sr=44100.0
    for(int i=0; i<vecsize; i++){
        out = del[*p];
        del[*p] = sig[i];
        sig[i] = out;
        *p = (*p != dt-1 ? *p+1 : 0);
    }
    return *sig;
}
#define DTIME 3
#define SAMPLERATE 44100
#define VECSIZE (10 * SAMPLERATE)
int main()
{
    float del[DTIME * SAMPLERATE] = { 0.0 };
    int del_p = 0;
    float sig[VECSIZE] = { -5.0, -4.0, -3.0, -2.0, -1.0, 0.0, 1.0, 2.0, 3.0, 4.0, 5.0 };
    int i, j;
    delay(sig, DTIME, del, &del_p, VECSIZE, SAMPLERATE);
    for (i = 0; i < VECSIZE && sig[i] == 0.0; i++)
        ;
    for (j = i; j < VECSIZE && j < i + 10; j++)
        printf("sig[%d] = %fn", j, sig[j]);
    return 0;
}

生成的输出符合预期:

sig[132300] = -5.000000
sig[132301] = -4.000000
sig[132302] = -3.000000
sig[132303] = -2.000000
sig[132304] = -1.000000
sig[132305] = 0.000000
sig[132306] = 1.000000
sig[132307] = 2.000000
sig[132308] = 3.000000
sig[132309] = 4.000000

请注意,您实际上应该将dt直接传递给 delay() 函数,而不是根据 srdtime 计算它 - 就 delay() 函数而言,重要的是样本数量的延迟(因此del[]延迟线数组的假定大小)。 无论如何,您必须在调用方中计算该值,以适当调整del[]数组的大小。

你总是*sig回来。 这始终是sig数组的第一个元素。 sig[0]等于del[*p],因为您是第一次通过循环(当i=0时)执行以下操作:

out = del[*p];
del[*p] = sig[0]; // doesn't affect sig
sig[0] = out;

这是sig[0]唯一一次受到影响。 然后当你回来时*sig你回来sig[0].

所以我希望这个函数总是返回del[*p]是什么。