<div dir="ltr">How does the compromise between bitrate, latency and quality work out?<div><br></div><div>Assuming a capacity to deliver a high bitrate, is it possible to achieve EXACTLY the same level of quality at 5 ms as with 20 ms latency? If so, what would be the resulting bitrate?</div><div><br></div><div>How can I work out the relation between those 3 parameters?</div><div><br></div><div>I am currently working on an application where lowest latency is necessary, while keeping the highest level of quality. Streaming HD audio (at least audio quality), with a quality almost like uncompressed, but at lowest latency possible. Bitrate is not a big concern (as long as under 500 kbps).</div></div>