Klangqualität in Musikprojekten #188

25. September 2012

Wie gut muss denn eigentlich die Klangqualität der eigenen Musikprojekte sein? Wer braucht Sampleraten von 192 kHz oder Bittiefen von 64 Bit? Das und vieles mehr erwartet dich in der heutigen Folge des delamar Podcasts für Musiker und Musikbegeisterte. Ausgelassene Stimmung und flache Witze ohnehin garantiert.

Viel Spaß und beste Unterhaltung bei der 188. Folge!

Samplerate, Bittiefe & Klangqualität

Vielleicht hat jeder so seine eigene Philosophie oder niemand mag so recht Bescheid wissen, doch das Thema Klangqualität ist nicht nur für Einsteiger spannend. Wie gut müssen denn die eigenen Projekte klingen, um im harten Konkurrenzkampf bestehen zu können? Warum gibt es überhaupt Sampleraten, die bis zu 192 kHz hinauf reichen? Wie viel Bit sollte ich in meiner DAW einstellen? Es gibt so viele Stellen und Unklarheiten, dass wir uns des Themas mal annehmen und dieses besprechen.

Dabei versuchen wir auch die Dinge etwas an den Technikbegrifflichkeiten vorbei zu erklären, um sie leicht verständlich zu halten. Schon die Diskussionen, Fragen und Anregungen im Live-Chat während der Aufzeichnung waren ein klarer Hinweis darauf, dass viel mehr Musiker und Produzenten sich damit auseinandersetzen.

Hier noch einige Punkte aus der Sendung:

  • Wie viel Bit sollte ich aufnehmen?
  • Wie viel Samplerate sollte ich nutzen?
  • Vinyl wird runtergesamplet, CD auch – also wozu?
  • Ergibt das alles überhaupt Sinn, wenn die Kids auf Kopfhörern YouTube hören?
  • Wie wichtig ist die Klangqualität überhaupt?
  • Wen interessiert die Klangqualität?

In den delamar Hörerfragen geht es um einen Marshall JVM410H und die Fernsteuerung mehrerer Effektgeräte mit diesem. Und ja, heute gab es auch wieder einen Kontrapunkt – nämlich der, der thematisch eigentlich in die letzte Show gepasst hätte.

Ich wünsche dir viel Spaß beim Hören der aktuellen Show und zum Ende noch eine kleine Erinnerung: Wir leben auch davon, dass Du uns deinen Freunden und Bekannten weiterempfiehlst auf Facebook, Twitter, YouTube oder sonstwo…Danke.

Antworten

Die Email-Adresse wird nicht veröffentlicht.Benötigte Felder sind mit * markiert

15 Kommentare

bei “Klangqualität in Musikprojekten #188

  1. john-dd Sep 25, 2012

    War wieder eine gute Sendung…..danke nochmal.

    Gewinnspiel: das ist doof….mir fällt nix ein.

    hab ich trotzdem was gewonnen?einen kinderriegel?

  2. Bastaele Sep 25, 2012

    Wie wärs mit Stempel?

  3. Felix the Upright Bassist Sep 25, 2012

    Gewinnspiel:
    Vergesst den alten Krempel
    wir spiel’n jetzt im „Ensembel“! ;-)

    Gruß von Felix, dem aufrechten Standbassisten

    • Felix the Upright Bassist Sep 25, 2012

      Woast wos? —
      I braach‘ doch kanen Bembel,
      jo i hob doch an Psyrembel! ;-)))

      Dialekt-fest bin i fei net, aba wos den Reim betrifft, kimmt des hi, tad i sogn…! ;—-)

      ….dös sogt imma no de Fälix…

      • Felix the Upright Bassist Sep 25, 2012

        (I hob grod gmerkt, dös hoast „Pschyrembel“ — i bin halt ka Medizina!)

  4. John-DD Sep 27, 2012

    Bemebl? ich dachte Bambel….achso…..

    Gewinnspiel:

    „Der Reim hier mit dem Bembel,geht mir tierisch auf den Senkel.
    Drumm lass den Bembel Bembel sein und stimmt mit mir das Liedlein ein.

    Delamar,so wunderbar…am Monatg sind wir wieder da.“

    …bekomm ich jetzt den kinderriegel?

    Gruß John-DD

  5. Alterum Saxum Sep 27, 2012

    Das Nyquist Theorem besagt nur dass man mit doppelter Abtastrate keine sogenannten
    Geisterfrequenzen bekommt. Geisterfrequenzen sind Frequenzen (also Signale) welche
    eigentlich nicht vorhanden sind. Sie sind also systematische Meßfehler.
    Tiefe töne haben das Problem nicht. Sie werden mit vielen Meßpunkten abgebildet. Je höher
    der Ton ist umso weniger samples pro Frequenz bleiben übrig. Bei 44KHz wird das 22KHz Signal
    nur noch mit !!!zwei!!! samples dargestellt. Damit wird im Grunde aus einem Sinus
    eine Art Rechteck. Tatstet man das höher ab wird die
    Frequenz besser abgebildet bzw. auch wiedergegeben. Darum muß 88Khz besser klingen als
    44KHz.
    Auch wenn ich das herunterrechne werden mehrere Quellsignale vorher beim mischen
    besser verrechnet. Nur das Endergebnis wird heruntergerechnet.
    Für z.B. Schwingungüberwachung von Turbosätzen reicht das Nyquist Theorem weil hier nur
    wichtig ist dass das Signal vorhanden und erfasst ist, bei Musik ist das sicher anders.

    Ungradzahliges viellfaches ist sicher auch schlecht weil es nicht so einfach
    heruntergerechnet werden kann. Sicher kennt jeder dies Moire Muster.

    • Carlos Sep 28, 2012

      Hallo Alterum, vielen Dank für deinen Kommentar, Du hast es wirklich schön kompakt und verständlich erklärt. Kommt in die nächste Sendung, ist klar :)

    • Kahlbert Okt 8, 2012

      Kompakt und verständlich, aber trotzdem falsch.

      Bis zur Grenzfrequenz kann das Signal unter den korrekten Bedingungen zu 100 Prozent wiederhergestellt werden, egal „mit wie vielen Samples“ es dargestellt wird. Die sogenannte „Mehrinformation“ bei höheren Sampleraten setzt sich ausschließlich aus den höheren Frequenzen zusammen.

      Ob nun diese Inhalte >20 kHz im Ergebnis einen klanglichen Unterschied machen, ist eine völlig andere Frage, da insbesondere die Qualität von Wandlern und Filtern hier einen signifikanten Einfluss haben können.

      Aber die Gleichung „mehr Samplerate = mehr Information“ ist für den hörbaren Frequenzbereich einfach nur laienhaft zusammengestrickter Unfug. Es empfiehlt sich hier (wie so oft), Fachliteratur zu Rate zu ziehen, wenn man sich für das Thema interessiert.

      Nichts für ungut …

      • Raphael Feb 24, 2013

        …deine Version scheint mir jedoch auch nicht besser zu sein.
        Was wären denn die beschriebenen 100%? Das Signal wird doch in Abhängigkeit zur Zeit abgetastet und da eine Frequenz ebenfalls eine zeitliche Komponente hat, ist die Qualität mit steigender Frequenz abnehmend. Oder?

      • Alterum Saxum Nov 12, 2014

        Naja – es ist halt übel vereinfacht (möglicherweise zu einfach), aber wir schreiben hier auch kein Lehrbuch.

        Mehr Samplerate = mehr Infos stimmt schon bis zu einer gewissen Grenze, denn wir bekommen Verfälschungen weil:

        1)
        wir einen Tiefpass bräuchten welcher perfekt ist (kennst du sowas?) um sicher alle höheren Frequenzen zu eliminieren

        2)
        wir nicht ewig abtasten, aber eine Signal nur dann genau restauriert werden kann wenn man über eine unendliche Zeit misst

        3)
        Das Abtasttheorem nur für Signale stimmt welche nicht einfach periodisch sind sondern einen Rauschanteil haben. Würde man z.B. einen Sinus mit genau der doppelten Frequenz abtasten und diesen immer gerade (so ein Pech) im Nulldurchgang messen, so könnte nichts restauriert werden weil im Grunde nichts (also immer 0) gemessen wurde.

        4)
        Die Hardware nicht perfekt ist und wir sicher gewisse Schwankungen haben, sowohl bei Aufnahme als auch bei der Wiedergabe.

        Aber ich würde sagen spätestens mit 88KHz oder 96KHz ist es aber mehr als genug, alles darüber ist Unsinn und Marketinggeschwätz.

        Viel wichtiger ist sicher 24Bit statt 16Bit um die Auflösung zu erhöhen. 32Bit Float wird meines Erachtens) sicher nicht viel mehr als 24 Bit (Integer) bringen (aber ich lasse mich gerne belehren) weil die Auflösung eines Floats auch nur 24 Bit (Mantisse) hat. Das ist genau so weil es noch ein paar Bit für den Exponenten usw. braucht.
        Hier hat man möglicherweise sogar Probleme mit Auslöschung (ja sowas gibt es bei Floats) oder Denormalisierung des Floats (dann hat er sogar eine Schlechtere Auflösung). Ob das alle Audioprogrammierer überhaupt wissen ist mir nicht klar.

  6. Henry Okt 1, 2012

    Moin moin zusammen,

    ich hab den Podcääst heute erst hören können und finde, dass eine Korrektur notwendig ist, das Thema wurde nie wirklich klar herausgearbeitet :-)

    Die Bittiefe bei Audioaufnahmen hat nicht mit den Bit Angaben der Betriebssysteme zu tun. Sondern beschreibt den maximal möglichen Adressraum des physikalischen Speicher den die CPU in einem Rechner adressieren kann.

    Hier die Erklärung:
    Ein 32 Bit Betriebssystem kann theoretisch maximal 2^32 Speicheradressen á 8 bit – also genau 4 Gigabyte RAM adressieren.
    (2^32 Speicheradressen á 8 bit = 4.294.967.296 Bit = 4 GB)

    Ein 64 Bit Betriebssystem kann theoretisch maximal 2^64 Speicheradressen á 8 bit – also genau 16 Exabyte (Ein Exabyte = 1 Trillion Bytes) RAM adressieren.
    (2^64 Speicheradressen á 8 bit = 1.84467441 × 10^19 Bit = 16 EB)

    Ich weiss, ist sehr trocken und theoretisch, aber fachlich richtig…

    Stellt euch mal die Speicherriegel vor :-)

    Viele Grüsse
    hccress

  7. Thomas "thommytulpe" Nimmesgern Feb 4, 2013

    Hallo!

    Im Podcast wird ja die ganze Zeit von Bit und Sampleraten gesprochen. Vielleicht kennt der ein oder andere nicht die technichen Hintergründe, deswegen sei auf folgendes verwiesen: Im Podcast 78 („Grundlagen der digitalen Musikproduktion“) beschreibt Matthias „das Ö“ Oestreich ausführlich die Begriffe Bittiefe und Abtastrate.
    Bittiefe – das sind die im Podcast oft erwähnten 16, 24 oder 32 Bit; grob gesagt geht’s um die möglichen Lautstärkeunterschiede bei einer Aufnahme. Die Abtastrate (Samplerate) sind die erwähnetn 44,1 kHz (oder auch 88,2 oder 96 kHz) – da geht’s darum, wie oft pro Sekunde der Computer ein Signal aufnimmt beziehungsweise wiedergibt.
    Das ist aber nur seeehr grob – Matthias‘ Podcast beschreibt das viel ausführlicher.

  8. Raphael Feb 24, 2013

    Hallo die Delamaries,

    als ich heute morgen meine kleine Tochter im Kinderwagen durch die Landschaft geschaukelt habe, habe ich mir nebenbei noch euren Poddi reingepfiffen…sehr schön. Wir haben dann spontan entschieden die große Runde zu drehen und noch einen zweiten Poddi anzuhören…here we are!

    Sehr schön und v.a. mal wieder sehr interessant UND wie man sieht auch einer jener Pods, der für mächtig Gesprächsstoff und Diskussionsbedarf sorgt. Daher gebe ich nun auch mal meinen Senf dazu.

    Generell:
    Samplerate und Bit Tiefe ist durchaus eine interessante Sache. Allerdings denke, dass man (@ Carlos) sehr wohl die Mathematik dahinter betrachten sollte, da diese auch diverse Aufschlüsse liefert – zumindest für die theoretische Betrachtung der ganzen Sachlage.

    Zum Dynamikumfang:

    Der Dynamikumfang ergibt sich aus der Anzahl der Bits multipliziert mit 6, d.h. bei 8 Bit wären das dann 48dB, bei 16 Bit 96dB, bei 24 Bit 144dB und bei 32 Bit dann entsprechend 192dB (vgl. Bob Katz – Mastering Audio…).

    Analog zum menschlichen Gehör kann man sich den Dynamikumfang vorstellen als der Abstand zwischen unterer Hörschwelle wo man gerade beginnt ein Geräusch wahrzunehmen und Schmerzgrenze, wo es dann anfängt weh zu tun. Im mittleren Frequenzsspekrum – dem empfindlichsten beim menschlichen Gehör – sind das dann, wenn ich mich recht erinnere, ca. 130 dB.

    Hier könnte man dann ggf. auch mal kritisch anfangen zu fragen wozu man überhaupt einen großen Dynamikumfang in einer Aufnahme benötigt, bzw. auch wenn man bedenkt, dass das was beispielsweise bei 24 Bit abgebildet werden kann mehr ist, als der Mensch ansich wahrnehmen kann. Spontan fallen mir da nun folgende Gründe ein warum der Dynamikumfang wichtig ist:

    – großer oder größerer Rauschabstand
    – bessere Handhabung von dynamischen Signalen
    – Schutz vor Übersteuerung (v.a. in der weiteren Ver-/Bearbeitung

    Wenn man jetzt mal noch weiter herumschaut und auch mal ins 0-8-15 Formatradio (ich lasse mich derzeit morgens immer vin bestimmten Sendern wecken, da man mir verboten hat die U-Boot Alarmglocke oder diese eine Nummer von Badesalz zu nehmen…es ist schlimm was man da so auf Sendern wie SWR 3 an Musik zu hören bekommt!!!) hört und oder sich auch diverse kommerzielle Produktionen anhört, dann muss man sich schon fragen, warum man mit 24 Bit und mehr aufnimmt, wenn das Endresultat dann nur laut und platt und „shite“ klingt und ggf. eine „Dynamik Range“ von weniger als 3dB hat (an dieser Stelle sei auf die Delamar Poddis mit Friedemann Tischmeyer (weiß die Nummer nicht mehr) und auf die Matering Bibel von Bob Katz „Mastering Audio – the Art and the Science“ verwiesen)…
    In der Tat, zur weiteren Bearbeitung ist es nur von Vorteil eine höhere Bit Tiefe zu haben, da bestimmte Effekte auch einen höheren Output bewirken, weshalb dann auch Übersteuerungen vermieden werden. Hier vielleicht auch noch das Stichwort „Vintage“…vielleicht sind manche Gerätschaften älteren Datum auch so begehrt, das sie einen hohen Dynamikumfang verzerrungsfrei abliefern können und deshalb auch diverse Vorteile gegenüber Stangenequipment haben…
    Auch in der Aufnahmesituation bewirkt eine höhere Bit Tiefe auch einen größeren Abstand zum „noise floor“ und sort auch dafür, dass Instrumente mit lauten Peaks „besser“ aufgezeichnet werden…

    Zur Sample Rate:

    Das aufgenommene Audiosignal wird pro Zeiteinheit in einer bestimmten Häufigkeit abgetastet. D.h. bei 44.1 kHz wäre das dann entsprechend 44100 mal pro Sekunde. Ein Audiosignal, das i.d.R. eine Akkumulation verschiedener Frequenzen darstellt ist ebenfalls Zeitabhängig. Die Frequenz ist die Häufigkeit pro Sekunde mit der eine Frequenz schwingt. Bei 440Hz wären das 440 mal pro Sekunde.
    In der Logik heißt das dann, dass bei einer gegebenen Samplerate das Signal mit Zunahme der Frequenz immer „ungenauer“ abgebildet wird, da bei niedrigeren Frequenzen (z.B. 30Hz) die jeweilige Frequenz häufiger abgetastet wird, als beispielsweise bei 12kHz…
    D.h. eine höhere Samplerate müsste sich demnach v.a. in der Auflösung hoher Frequenzen besonders bemerkbar machen.

    Die Frage ist nun – und da fehlt mir der Erfahrungswert, da mir das bisher auch relativ bums war – ob die Unterschiede nun so groß sind und ob es sich nur minimale Quäntchen handelt…vielleicht wäre das ja auch mal ne Idee für einen weiteren Poddi, wo man bestimmte Sachen im A/B Vergleich hören könnte.
    Vielleicht ist es ja wirklich so, dass höhere Sampleraten um einiges besser oder – besser formuliert – präziser klingen (was sie der Logik nach auch müssten). Aber auch hier kann man sich wieder die Frage nach dem WOZU stellen, wenn die Mehrheit der Musikhörer
    – Musik im mp3 Format und
    – billigen Kopfhörer hört (wobei man auch sagen sollte, dass der Preis nicht
    in der globalisierten Wirtschaft kein guter Indikator mehr ist, wo Stückkosten eine geographische Größe sind…) und
    – wo sich der vermeintlich audiophile Musikliebhaber Premium Boxen kauft, aber es dann nicht für notwendigt erachtet jene auch nach akustischen Kriterien im Raum zu platzieren und akustische Maßnahmen etc…zu installieren…

    Des Weiteren fragt man sich auch zurecht, wenn man sich heutige und kommerzielle Produktionen so anhört (Stichwort Dynamik und Loudness War etc…) wozu man in Deluxe Equipment investieren sollte – abgesehen davon, dass es auch edel ausschaut, wenn dem Anschein nach die Mehrheit (wir sind demokratisch) nach dem Motto verfährt „erst kommt das Fressen, dann die Moral“ (Zitat: Berthold Brecht). Pragmatisch gesehen müsste man dann doch zum Schluss gelangen, dass es unterm Strich doch relativ Bums ist, was man so an Equipment benutzt.

    ABER…das sollte bekanntlich nicht der Maßstab sein. Das geschulte Ohr hört das unter Umständen und nimmt auch feine Unterschiede wahr…
    EIne Idee wäre jedoch – ähnlich wie das Friedemann Tischmeyer mal im Poddi formuliert hat – bei der Auswahl der o.g. Parameter zu schauen, was ist eigentlich das Zielmedium. Und da würde ich ihm durchaus zustimmen, wenn er sagt, dass wenn solange der Red Book Standart bei Audio CDs gilt (16 Bit und 44,1kHz), dass man dann nicht zu hoch gehen sollte und auch die benötigte Rechenleistung im Hinterkopf behalten sollte (wäre ja blöd, wenn man alles extrem hochwertig aufnimmt und im Mix scheitert es dann am Hall Plug In…).

    @ Maria:
    In der Photographie beschreiben die Bits die Farbtiefe und sorgen für eine gute Farbwiedergabe. Ich glaube 8 Bit ist bei Spiegelreflex mit jpg Standart, was in etwa dem RGB DIngs entspricht…
    In Analogie wären die Pixel in der Fotographie mehr oder weniger das, was die Samplerate im Audio ist nämlich wie hochauflösend oder pixelig das Bild wird…

    Liebe Grüße vom Rand des verschneiten Schwarzwaldes und weiter so…

  9. Kahlbert Mrz 12, 2013

    Also gut, letzter Versuch an dieser Stelle:

    Allen, die das Thema Digitaltechnik wirklich interessiert und die immer noch kein beliebiges Buch dazu in die Hand nehmen konnten oder wollten, sei das Video unter dem Link youtube.com/watch?feature=player_embedded&v=d7kJdFGH-WI wärmstens ans Herz gelegt. Das ist eine der besten Publikationen, die ich zum Thema kenne – umfassend und auch für Laien einfach nachzuvollziehen, dabei aber wissenschaftlich fundiert und streng an den Fakten orientiert.

    Wer danach immer noch an falschen Vergleichen (Pixel!!) festhalten mag, nur um seine eigenen Theorien zu untermauern, anstatt die seit vielen Jahrzehnten unwidersprochenen Grundlagen der Digitaltechnik einfach zur Kenntnis zu nehmen, dem kann ich dann auch nicht mehr helfen. Ich weigere mich jedenfalls standhaft, hier seitenweise aus Lehrbüchern zu zitieren.

    Digitalisierte Grüße
    Matthias

    P.S.: Sorry, wenn ich hier etwas feindselig rüberkomme – aber ich kann eine bestimmte Art von Unbelehrbarkeit einfach nicht mehr ertragen, die mit einem einzigen Blick in ein Fachbuch auszuräumen wäre. Nichts für ungut, falls sich jemand angesprochen fühlt …

© delamar.FM