Wat een heerlijke livetest weer. We hebben allemaal veel geleerd! De vier pakketten die we hebben getest hebben allemaal hun eigen voor- en nadelen. Foobar is gratis en klinkt goed. Echter blijft het een beetje een gedoe voor de niet-zo-handige gebruiker. Audirvana klinkt fantastisch, maar wilt u alles, dan komt u op een abonnement (Studio). Roon is ongekend prettig in gebruik, ondersteunt bijna alle streamers, maar is prijzig. JRiver heeft zijn eigen handige ASIO-driver en talloze opties om te tweaken. Leuk, maar niet voor iedereen. De software koopt u voor 80 Euro en kunt u voor een gunstige meerprijs upgraden naar volgende versies. Wel een vriendelijk model. Welke is de beste? Dat is smaak. Wij vonden Audirvana het fijnst klinken. En Roon blijft het meest gebruiksvriendelijk. Echter: het pakket moet primair bij u passen als gebruiker.
Indruk: Veel beter dan standaard. Perfecte eerste stap
Prijs: €Gratis
Merk en model: JRIver 30
Bouw: n.v.t
Indruk: Voelt als 'hifi'. Heel erg gefocust op detail.
Prijs: €80
Merk en model: ROON
Bouw: n.v.t
Indruk: Goed, tikkie soft. Super bediening!
Prijs: €vanaf 10 euro per maand
21 REACTIES
Mijn aanname is dat er veel meer geld, tijd en investering zit in Roon dan achter Audirvana. Onbegrijpelijk dat Roon dan niet het audio afspeel niveau op hetzelfde level krijgt. Jammer ook.
Zou die verschillen ook best nog beter willen begrijpen.
Nog een aanvulling: naast losse, bovenstaande afspeel software kan je ook constateren dat de software van audiomerken zelf ook weer anders, veelal beter klinken met de dezelfde bron-streaming-bestanden. Ook weer wonderlijk/interessant.
Ik denk dat iedereen het eens is over de hoorbare verschillen tussen software
je hebt het gehoord (en ik thuis ook)
maar,
is het mogelijk om deze verschillen te meten?
de vraag was: “wat gaan we meten”
kun je de RoonAudirvana-verschillen meten??
en… bedankt voor alles wat je tot nu toe hebt gedaan
bbill
Is er iets mis gegaan met de eerste 5 seconden van WMP-Mammal Hands? Dit klinkt veel luider dan de rest van het nummer, bijna overstuurd en als door een exciter gehaald. Daarna normaliseert het volume maar klinkt het geluid gecomprimeerd. Staat echt alles neutraal in de software? Dit kan niet bitperfect zijn naar mijn mening.
Het volume van de versterker stond hoger omdat de Rachmaninov track veel zachter was. Je hoort dus het effect van een volumeknop die zachter werd gezet op de versterker.
Dat begrijp ik niet, dezelfde track met hetzelfde volume over 4 software pakketten vergelijken behoeft toch geen normalisatie? De tracks hoeven onderling niet genormaliseerd te zijn, je vergelijkt Mammal Hands niet met het 2de pianoconcert van Rachmaninov.
Uiteraard, het punt is dat dezelfde tracks onderling niet genormaliseerd zijn. Analyse RMS in Audacity met wegknippen van de eerste 15 sec, zodat je volumecorrectie op de versterker aan het begin van de wmp file niet meegenomen wordt, geeft een verschil van ca. 1dB en dat is goed hoorbaar. Mammal-wmp L -18.7 R -19.2 stereo -19.0 en mammal-Audirvana L -17.7 R -18.1 stereo -17.9 dB.
Oh, ik zie nu dat de samples een andere lengte hebben. Dan is vergelijken op RMS niet goed mogelijk
Je bent me kwijt 🙂 Voor de goede orde: wij hebben op basis van luisteren en het becommentariëren van wat we horen de verschillen geduid.
Ik denk niet dat je op basis van de samples met software zinnige conclusies kan trekken. We hebben dit al vaak getest: op basis van metingen (in het digitale domein) cancellen al die verschillende software pakketten uit. M.a.w., ze zijn bitperfect. Daar zit het verschil niet. We halen die constatering aan in de livestream. Maar dat is dus ook niet het doel van deze test 🙂
Martijn, bedankt voor je antwoord, het is duidelijk, misschien moet je altijd aangeven wat meetbaar is.. of niet (omdat metingen in de mode zijn op Amerikaanse fora..)
@bbill : als ik in een filosofische bui ben, dan zou ik zeggen dat alles meetbaar is, maar dat we nog niet weten hoe we het moeten meten 🙂
Wat we met streaming al een paar keer geconstateerd hebben is dat hoorbare verschillen niet in het digitale deel zit. De verschillen ontstaan in de overgang van digitaal naar analoog, of in het transport van de stream.
De meeste mensen denken in ‘1’-en en ‘0’-en die stromen, omdat het zo ingestampt is door de industrie. Maar de realiteit is dat het allemaal elektrische stroompjes zijn die een 0 of een 1 voorstellen en dat je chips nodig hebt die de elektronische stroompjes interpreteren als een 0 of een 1. De praktijk is dus niet binair (1 of 0), maar iets continue (voltage). En daar zitten de hoorbare verschillen. Het gaat om zulke kleine waarden dat meten echt lastig is.
Er zullen op ( de zaak ) ongetwijfeld verschillen hoorbaar zijn geweest , maar op de iPad niet of althans zo weinig dat het niet opvalt, en op onze merging -Nadac combi met Roon core ook niet. Het is volgens mij maar net wat je zoekt. Zeg maar zoek de verschillen.
De verschillen zijn groot, dat zie je ook aan de reacties van ons. Ik hoor het op mijn iPad ook duidelijk, maar alleen als ik met een koptelefoon luister.
Ik ben misschien een beetje kritisch, maar begrijp ik het goed dat de tracks opnames zijn met speakers en een microfoon in de keten? Ik hoor in ieder geval commentaar in de opname. Waarom niet direct opnemen met een ADC op de tape out van de versterker en dat live streamen/opnemen? Dat is stukken transparanter, levert veel minder vervorming op en laat de verschillen dus beter uitkomen.
Het is prima om kritisch te zijn. Dat zijn wij tenslotte ook.
Misschien is het goed om even uit te leggen waarom we deze livestreams doen zoals we ze doen. Het idee is ontstaan toen we bedachten hoe mooi het zou zijn als de kijkers/luisteraars dezelfde beleving als wij zouden kunnen meemaken bij het testen van al deze mooie apparatuur. Dit begon in april 2020 met een test van hoofdtelefoons met een dummyhead en twee zeer goede DPA 4061 microfoons waardoor de verschillen goed hoorbaar waren. https://www.alpha-audio.nl/review/live-stream-replay-multitest-hoofdtelefoons/
De volgende stap is om speakers, electronica en misschien zelfs kabel-testen met de kijker te delen. Omdat de geluidskwaliteit voor een belangrijk deel wordt bepaald door de akoestiek en reflecties in onze luisterruimte zou u als kijker maar een deel van de ervaring meekrijgen als we het lijnsignaal zouden gebruiken.
We hebben intensieve testen gedaan met microfoonopstellingen (soorten microfoons, voorversterking, AD-conversie etc etc) en we hebben ons laten adviseren door experts tot we de opstelling hebben die we op dit moment hebben. Met hoofdtelefoon op is het, zoals collega Martijn schrijft, ook met een iPad of smartphone goed te volgen wat de verschillen zijn.
We proberen elke keer met een dB-meter hetzelfde volume te bereiken omdat we heel goed snappen dat het volume ertoe doet bij een beoordeling. En we merken ook dat dit niet het hele verhaal is want de overall kwaliteit openbaart zich ook bij geringe volumeverschillen. In deze test was het voor twee reviewers (Martijn en ondergetekende) niet zichtbaar welke software draaide. Deze blindtests zijn eerder (met kabels) erg inzichtelijk gebleken. Het is echt anders luisteren als je merk, prijs en reputatie niet laat meetellen in de beoordeling.
Met andere woorden; we willen met deze test u laten meegenieten met wat wij horen. Dat is het doel. Als u er minder van kunt genieten dan wij dan vind ik dat oprecht jammer. Het heeft naar mijn mening geen zin om dB-getallen uit te wisselen tenzij u daarmee iets beoogt aan te tonen waar ik nog niet achter ben in uw reacties. Dat kan uiteraard aan mij liggen. Kortom, ik ben benieuwd naar de vraag achter uw vraag.
Bedankt voor je uitgebreide antwoord. Mijn opmerkingen waren ingegeven vanuit de overtuiging dat de gekozen opnameketen en mogelijke volumeverschillen een goede beoordeling van de tracks in de weg staan. Na jullie uitleg snap ik wel dat deze aanpak ook zijn merites heeft, zeker bij het beluisteren via een hoofdtelefoon.
Klopt: je krijgt nu het totaalplaatje te horen; inclusief de reactie op onze akoestiek. Daarom is een hoofdtelefoon wel aan te raden. Via speakers kán wel, maar dan heb je wel dubbele akoestiek.
Collega Yung heeft al uitgebreid geantwoord. Dus het stuk waarom we zo samplen laat ik nu even weg. Wel vul ik even aan waarom we op deze manier samplen…
Natuurlijk kunnen we via de output naar een A/D gaan. Alle apparatuur en kabels liggen er. En het zou ons 4500 Euro aan microfoons en 5500 euro aan microfoonversterking schelen. Het punt is: je krijgt veel minder het totaalplaatje mee. En daar gaat het om… alles telt mee namelijk. Minder ‘noise’ in de streamer heeft ook invloed op de dac. En dat uit zich weer in – ik zeg maar wat – stereo-imaging. Dat kunnen we alleen maar in het totaalplaatje laten horen.
Daarnaast willen we ook gewoon een ‘bij ons op de bank’ effect creeëren. Dat werkt zo veel beter dan via een ‘droge output’ van een apparaat.
Mee eens, je wilt een dubbele akoestiek vermijden en daarom werkt het het beste om met een hoofdtelefoon de opnames te beluisteren. Is het dan geen idee om met een dummy head en binaurale microfoons te werken?
Mijn aanname is dat er veel meer geld, tijd en investering zit in Roon dan achter Audirvana. Onbegrijpelijk dat Roon dan niet het audio afspeel niveau op hetzelfde level krijgt. Jammer ook.
Zou die verschillen ook best nog beter willen begrijpen.
Nog een aanvulling: naast losse, bovenstaande afspeel software kan je ook constateren dat de software van audiomerken zelf ook weer anders, veelal beter klinken met de dezelfde bron-streaming-bestanden. Ook weer wonderlijk/interessant.
een vraag voor Jaap :
Ik denk dat iedereen het eens is over de hoorbare verschillen tussen software
je hebt het gehoord (en ik thuis ook)
maar,
is het mogelijk om deze verschillen te meten?
de vraag was: “wat gaan we meten”
kun je de RoonAudirvana-verschillen meten??
en… bedankt voor alles wat je tot nu toe hebt gedaan
bbill
Is er iets mis gegaan met de eerste 5 seconden van WMP-Mammal Hands? Dit klinkt veel luider dan de rest van het nummer, bijna overstuurd en als door een exciter gehaald. Daarna normaliseert het volume maar klinkt het geluid gecomprimeerd. Staat echt alles neutraal in de software? Dit kan niet bitperfect zijn naar mijn mening.
Het volume van de versterker stond hoger omdat de Rachmaninov track veel zachter was. Je hoort dus het effect van een volumeknop die zachter werd gezet op de versterker.
Jammer, voor een goede vergelijking van de tracks is het van groot belang dat ze binnen 0,5dB zijn genormaliseerd.
Dat begrijp ik niet, dezelfde track met hetzelfde volume over 4 software pakketten vergelijken behoeft toch geen normalisatie? De tracks hoeven onderling niet genormaliseerd te zijn, je vergelijkt Mammal Hands niet met het 2de pianoconcert van Rachmaninov.
Uiteraard, het punt is dat dezelfde tracks onderling niet genormaliseerd zijn. Analyse RMS in Audacity met wegknippen van de eerste 15 sec, zodat je volumecorrectie op de versterker aan het begin van de wmp file niet meegenomen wordt, geeft een verschil van ca. 1dB en dat is goed hoorbaar. Mammal-wmp L -18.7 R -19.2 stereo -19.0 en mammal-Audirvana L -17.7 R -18.1 stereo -17.9 dB.
Oh, ik zie nu dat de samples een andere lengte hebben. Dan is vergelijken op RMS niet goed mogelijk
Je bent me kwijt 🙂 Voor de goede orde: wij hebben op basis van luisteren en het becommentariëren van wat we horen de verschillen geduid.
Ik denk niet dat je op basis van de samples met software zinnige conclusies kan trekken. We hebben dit al vaak getest: op basis van metingen (in het digitale domein) cancellen al die verschillende software pakketten uit. M.a.w., ze zijn bitperfect. Daar zit het verschil niet. We halen die constatering aan in de livestream. Maar dat is dus ook niet het doel van deze test 🙂
Martijn, bedankt voor je antwoord, het is duidelijk, misschien moet je altijd aangeven wat meetbaar is.. of niet (omdat metingen in de mode zijn op Amerikaanse fora..)
@bbill : als ik in een filosofische bui ben, dan zou ik zeggen dat alles meetbaar is, maar dat we nog niet weten hoe we het moeten meten 🙂
Wat we met streaming al een paar keer geconstateerd hebben is dat hoorbare verschillen niet in het digitale deel zit. De verschillen ontstaan in de overgang van digitaal naar analoog, of in het transport van de stream.
De meeste mensen denken in ‘1’-en en ‘0’-en die stromen, omdat het zo ingestampt is door de industrie. Maar de realiteit is dat het allemaal elektrische stroompjes zijn die een 0 of een 1 voorstellen en dat je chips nodig hebt die de elektronische stroompjes interpreteren als een 0 of een 1. De praktijk is dus niet binair (1 of 0), maar iets continue (voltage). En daar zitten de hoorbare verschillen. Het gaat om zulke kleine waarden dat meten echt lastig is.
Er zullen op ( de zaak ) ongetwijfeld verschillen hoorbaar zijn geweest , maar op de iPad niet of althans zo weinig dat het niet opvalt, en op onze merging -Nadac combi met Roon core ook niet. Het is volgens mij maar net wat je zoekt. Zeg maar zoek de verschillen.
De verschillen zijn groot, dat zie je ook aan de reacties van ons. Ik hoor het op mijn iPad ook duidelijk, maar alleen als ik met een koptelefoon luister.
De verschillen waren echt gemakkelijk hoorbaar. WMP of Audirvana moet toch wel hoorbaar zijn. Zeker op een Merging-dac.
Ik ben misschien een beetje kritisch, maar begrijp ik het goed dat de tracks opnames zijn met speakers en een microfoon in de keten? Ik hoor in ieder geval commentaar in de opname. Waarom niet direct opnemen met een ADC op de tape out van de versterker en dat live streamen/opnemen? Dat is stukken transparanter, levert veel minder vervorming op en laat de verschillen dus beter uitkomen.
Goedemiddag,
Het is prima om kritisch te zijn. Dat zijn wij tenslotte ook.
Misschien is het goed om even uit te leggen waarom we deze livestreams doen zoals we ze doen. Het idee is ontstaan toen we bedachten hoe mooi het zou zijn als de kijkers/luisteraars dezelfde beleving als wij zouden kunnen meemaken bij het testen van al deze mooie apparatuur. Dit begon in april 2020 met een test van hoofdtelefoons met een dummyhead en twee zeer goede DPA 4061 microfoons waardoor de verschillen goed hoorbaar waren. https://www.alpha-audio.nl/review/live-stream-replay-multitest-hoofdtelefoons/
De volgende stap is om speakers, electronica en misschien zelfs kabel-testen met de kijker te delen. Omdat de geluidskwaliteit voor een belangrijk deel wordt bepaald door de akoestiek en reflecties in onze luisterruimte zou u als kijker maar een deel van de ervaring meekrijgen als we het lijnsignaal zouden gebruiken.
We hebben intensieve testen gedaan met microfoonopstellingen (soorten microfoons, voorversterking, AD-conversie etc etc) en we hebben ons laten adviseren door experts tot we de opstelling hebben die we op dit moment hebben. Met hoofdtelefoon op is het, zoals collega Martijn schrijft, ook met een iPad of smartphone goed te volgen wat de verschillen zijn.
We willen dus met u delen wat wij horen. Meten doen we ook maar dat doen we met meetapparatuur. Hier een artikel over ons testbeleid en de daarbij gebruikte meetapparatuur: https://www.alpha-audio.nl/achtergrond/het-testbeleid-van-alpha-audio-2022-update/
We proberen elke keer met een dB-meter hetzelfde volume te bereiken omdat we heel goed snappen dat het volume ertoe doet bij een beoordeling. En we merken ook dat dit niet het hele verhaal is want de overall kwaliteit openbaart zich ook bij geringe volumeverschillen. In deze test was het voor twee reviewers (Martijn en ondergetekende) niet zichtbaar welke software draaide. Deze blindtests zijn eerder (met kabels) erg inzichtelijk gebleken. Het is echt anders luisteren als je merk, prijs en reputatie niet laat meetellen in de beoordeling.
Met andere woorden; we willen met deze test u laten meegenieten met wat wij horen. Dat is het doel. Als u er minder van kunt genieten dan wij dan vind ik dat oprecht jammer. Het heeft naar mijn mening geen zin om dB-getallen uit te wisselen tenzij u daarmee iets beoogt aan te tonen waar ik nog niet achter ben in uw reacties. Dat kan uiteraard aan mij liggen. Kortom, ik ben benieuwd naar de vraag achter uw vraag.
Bedankt voor je uitgebreide antwoord. Mijn opmerkingen waren ingegeven vanuit de overtuiging dat de gekozen opnameketen en mogelijke volumeverschillen een goede beoordeling van de tracks in de weg staan. Na jullie uitleg snap ik wel dat deze aanpak ook zijn merites heeft, zeker bij het beluisteren via een hoofdtelefoon.
Klopt: je krijgt nu het totaalplaatje te horen; inclusief de reactie op onze akoestiek. Daarom is een hoofdtelefoon wel aan te raden. Via speakers kán wel, maar dan heb je wel dubbele akoestiek.
Collega Yung heeft al uitgebreid geantwoord. Dus het stuk waarom we zo samplen laat ik nu even weg. Wel vul ik even aan waarom we op deze manier samplen…
Natuurlijk kunnen we via de output naar een A/D gaan. Alle apparatuur en kabels liggen er. En het zou ons 4500 Euro aan microfoons en 5500 euro aan microfoonversterking schelen. Het punt is: je krijgt veel minder het totaalplaatje mee. En daar gaat het om… alles telt mee namelijk. Minder ‘noise’ in de streamer heeft ook invloed op de dac. En dat uit zich weer in – ik zeg maar wat – stereo-imaging. Dat kunnen we alleen maar in het totaalplaatje laten horen.
Daarnaast willen we ook gewoon een ‘bij ons op de bank’ effect creeëren. Dat werkt zo veel beter dan via een ‘droge output’ van een apparaat.
Mee eens, je wilt een dubbele akoestiek vermijden en daarom werkt het het beste om met een hoofdtelefoon de opnames te beluisteren. Is het dan geen idee om met een dummy head en binaurale microfoons te werken?