Een beperking van de huidige generatie VGA kaarten voor de computer is dat ze maar 8 bits per kleur kunnen afbeelden: 256 nuances van iedere grondkleur dus.
In computertermen wordt dan gesproken van 24-bit color (er is ook 32-bit, maar dat is eigenlijk 24-bit plus een 8-bits "alpha" kanaal, welke doorzichtigheid van een pixel bepaalt)
Nu bestaan er kaarten die 10 bits per kanaal kunnen weergeven...
http://tweakers.net/nieuws/21809/?hi...arhelia+10bits
Met een scherm die het aan kan (bijvoorbeeld LCD TV's met HDMI ingang, of een zeer goede CRT, DVI kan het niet... ) kan je nu dus een veel groter kleurbereik halen op de PC.
Dit wordt vast een topper in de fotografie/nabewerking!
Het vreemde is, dat dit nieuws al van 2003 is, en nog steeds zie je die true-color kaarten maar amper op de markt... ook vele LCD schermen kunnen de input wel aan, maar geven belange na deze bit diepte niet werkelijk weer.
In computertermen wordt dan gesproken van 24-bit color (er is ook 32-bit, maar dat is eigenlijk 24-bit plus een 8-bits "alpha" kanaal, welke doorzichtigheid van een pixel bepaalt)
Nu bestaan er kaarten die 10 bits per kanaal kunnen weergeven...
http://tweakers.net/nieuws/21809/?hi...arhelia+10bits
Met een scherm die het aan kan (bijvoorbeeld LCD TV's met HDMI ingang, of een zeer goede CRT, DVI kan het niet... ) kan je nu dus een veel groter kleurbereik halen op de PC.
Dit wordt vast een topper in de fotografie/nabewerking!
Het vreemde is, dat dit nieuws al van 2003 is, en nog steeds zie je die true-color kaarten maar amper op de markt... ook vele LCD schermen kunnen de input wel aan, maar geven belange na deze bit diepte niet werkelijk weer.
Comment