UID223334
威望0
金钱58505
交易诚信度0
主题1
帖子607
注册时间2006-1-20
QQ
最后登录2016-6-6
禁止发言
交易诚信度0
注册时间2006-1-20
|
原帖由 AIF824 于 2006-8-9 14:50 发表
这个讨论很有意思....
我在HTPC上进行DVD播放--DVI(8BIT色深输出)--投影(具备10BIT处理能力)出来的效果好于CRT(也是DVI输出,这台CRT档次低,本身可能不具备10BIT转换能力),明显的表现就是色块比CRT少或者没有.当然对比度上就不讨论.
相同的,如果我用支持色差输出的显卡(10BIT)2在HTPC上进行DVD播放--色差(10BIT)---投影(是否会饶过投影的10BIT处理?)
这两种方案哪个更好呢?(仅仅针对色深数在显示终端的效果上来说)
而且DVD本身编码为8BIT,就算上10BIT显卡,也不过是对其插值以达到10BIT.是否这对显卡本身的能力是个考验?
而连接DVI的方式,用8BIT显卡,8BIT原生输出,喂到投影上用其本身的10BIT处理是否更好呢?
第一 CRT接的是模拟输出,内部电路也是模拟电路。不能处理10位的原因只可能是因为你的显卡不支持
第二 色差只在非常少的特例下面有优势
条件如下
1)显示设备是模拟的,比如CRT 三枪
而诸如DLP投影 LCD投影 PDP LCD这些显示器。只要有DVID HDMI接口 肯定超过色差
2)显卡的VGA输出等级比较烂,
3)显卡的色彩空间转换处理能力比较烂
其他条件下面使用色差,只能是更加差的效果!
关于10位的讨论,我很快会有总结性的文章。
简单点说,如果认为10位处理无用的(理由是原始编码数据是8位)
请先BS EIZO的多款高端LCD
然后BS 多款天龙的高端DVD
上面那些设备内部处理的流程都有共同的特点:
输入的原始数据都是8位
输出的数据也都是8位
处理过程都使用了超过8位的精度。 |
|