AudioProcessingEvent

Veraltet: Diese Funktion wird nicht mehr empfohlen. Obwohl einige Browser sie möglicherweise noch unterstützen, könnte sie bereits aus den relevanten Webstandards entfernt worden sein, in Kürze entfernt werden oder nur noch aus Kompatibilitätsgründen bestehen. Vermeiden Sie die Verwendung und aktualisieren Sie vorhandenen Code, falls möglich; siehe die Kompatibilitätstabelle am Ende dieser Seite, um Ihre Entscheidung zu unterstützen. Beachten Sie, dass diese Funktion jederzeit aufhören könnte zu funktionieren.

Das AudioProcessingEvent-Interface der Web Audio API stellt Ereignisse dar, die auftreten, wenn ein ScriptProcessorNode-Eingabepuffer zur Verarbeitung bereit ist.

Ein audioprocess-Ereignis mit diesem Interface wird bei einem ScriptProcessorNode ausgelöst, wenn eine Audiobearbeitung erforderlich ist. Während der Audiobearbeitung wird der Eingabepuffer gelesen und verarbeitet, um Ausgabe-Audiodaten zu erzeugen, die dann in den Ausgabepuffer geschrieben werden.

Warnung: Diese Funktion wurde als veraltet erklärt und sollte durch einen AudioWorklet ersetzt werden.

Event AudioProcessingEvent

Konstruktor

AudioProcessingEvent() Veraltet

Erstellt ein neues AudioProcessingEvent-Objekt.

Instanz-Eigenschaften

Implementiert auch die Eigenschaften, die von seinem Eltern-Interface Event geerbt wurden.

playbackTime Schreibgeschützt Veraltet

Ein double-Wert, der die Zeit angibt, wann das Audio abgespielt wird, definiert durch die Zeit von AudioContext.currentTime.

inputBuffer Schreibgeschützt Veraltet

Ein AudioBuffer, der den Puffer mit den zu verarbeitenden Eingabe-Audiodaten enthält. Die Anzahl der Kanäle ist als Parameter numberOfInputChannels der Fabrikmethode AudioContext.createScriptProcessor() definiert. Beachten Sie, dass der zurückgegebene AudioBuffer nur im Kontext des Ereignishandlers gültig ist.

outputBuffer Schreibgeschützt Veraltet

Ein AudioBuffer, der der Puffer ist, in den die Ausgabe-Audiodaten geschrieben werden sollen. Die Anzahl der Kanäle ist als Parameter numberOfOutputChannels der Fabrikmethode AudioContext.createScriptProcessor() definiert. Beachten Sie, dass der zurückgegebene AudioBuffer nur im Kontext des Ereignishandlers gültig ist.

Beispiele

Hinzufügen von Weißem Rauschen mit einem Skriptprozessor

Das folgende Beispiel zeigt, wie ein ScriptProcessorNode verwendet wird, um einen Track, der über AudioContext.decodeAudioData() geladen wurde, zu verarbeiten, indem jedem Audiosample des Eingabetracks (Puffer) ein wenig weißes Rauschen hinzugefügt wird und er über den AudioDestinationNode abgespielt wird. Für jeden Kanal und jeden Sample-Frame nimmt die Funktion scriptNode.onaudioprocess das zugehörige audioProcessingEvent und verwendet es, um durch jeden Kanal des Eingabepuffers zu iterieren, und jedem Sample in jedem Kanal eine kleine Menge weißer Rauschen hinzuzufügen, bevor dieses Ergebnis im Ausgabesample für jeden Fall gesetzt wird.

Hinweis: Für ein vollständiges Arbeitsbeispiel, sehen Sie sich unser script-processor-node-GitHub-Repo an. (Sie können auch den Quellcode aufrufen.)

js
const myScript = document.querySelector("script");
const myPre = document.querySelector("pre");
const playButton = document.querySelector("button");

// Create AudioContext and buffer source
let audioCtx;

async function init() {
  audioCtx = new AudioContext();
  const source = audioCtx.createBufferSource();

  // Create a ScriptProcessorNode with a bufferSize of 4096 and
  // a single input and output channel
  const scriptNode = audioCtx.createScriptProcessor(4096, 1, 1);

  // Load in an audio track using fetch() and decodeAudioData()
  try {
    const response = await fetch("viper.ogg");
    const arrayBuffer = await response.arrayBuffer();
    source.buffer = await audioCtx.decodeAudioData(arrayBuffer);
  } catch (err) {
    console.error(
      `Unable to fetch the audio file: ${name} Error: ${err.message}`,
    );
  }

  // Give the node a function to process audio events
  scriptNode.addEventListener("audioprocess", (audioProcessingEvent) => {
    // The input buffer is the song we loaded earlier
    let inputBuffer = audioProcessingEvent.inputBuffer;

    // The output buffer contains the samples that will be modified
    // and played
    let outputBuffer = audioProcessingEvent.outputBuffer;

    // Loop through the output channels (in this case there is only one)
    for (let channel = 0; channel < outputBuffer.numberOfChannels; channel++) {
      let inputData = inputBuffer.getChannelData(channel);
      let outputData = outputBuffer.getChannelData(channel);

      // Loop through the 4096 samples
      for (let sample = 0; sample < inputBuffer.length; sample++) {
        // make output equal to the same as the input
        outputData[sample] = inputData[sample];

        // add noise to each output sample
        outputData[sample] += (Math.random() * 2 - 1) * 0.1;
      }
    }
  });

  source.connect(scriptNode);
  scriptNode.connect(audioCtx.destination);
  source.start();

  // When the buffer source stops playing, disconnect everything
  source.addEventListener("ended", () => {
    source.disconnect(scriptNode);
    scriptNode.disconnect(audioCtx.destination);
  });
}

// wire up play button
playButton.addEventListener("click", () => {
  if (!audioCtx) {
    init();
  }
});

Browser-Kompatibilität

BCD tables only load in the browser

Siehe auch