为什么屏幕分辨率不同,他们是根据什么确定的.

发布网友 发布时间:2022-03-24 17:34

我来回答

1个回答

热心网友 时间:2022-03-24 19:03

分辨率就是计算机屏幕上显示的像素的个数,在Windows95环境下,屏幕分辨率通常为0×480,即能显示0×480个象素,现在的计算机一般都支持800×600、1024×768,甚至1600×1200的分辨率。

当你的电脑的分辨率设置得很高时,在同样大小的屏幕上就显示了更多的象素,由于我们的显示器大小是不会变的,所以每个象素都变小了,整个图形也随着变小,但是同一屏幕上显示的内容却大大增多了。分辨率是800×600的屏幕,它虽然字体变得比较小,但屏幕上可以显示更多的东西。

1、用于量度位图图像内数据量多少的一个参数。通常表示成ppi(每英寸像素)。包含的数据越多,图形文件的长度就越大,也能表现更丰富的细节。但更大的文件也需要耗用更多的计算机资源,更多的ram,更大的硬盘空间等等。在另一方面,假如图像包含的数据不够充分(图形分辨率较低),就会显得相当粗糙,特别是把图像放大为一个较大尺寸观看的时候。所以在图片创建期间,我们必须根据图像最终的用途决定正确的分辨率。这里的技巧是要首先保证图像包含足够多的数据,能满足最终输出的需要。同时也要适量,尽量少占用一些

计算机的资源。

通常,“分辨率”被表示成每一个方向上的像素数量,比如0x480等。而在某些情况下,它也可以同时表示成“每英寸像素”(ppi)以及图形的长度和宽度。比如72ppi,和8x6英寸。

2、所有的位图都包含象素的概念。就象公斤和公尺一样,象素也是一个度量单位,只不过它是用来度量计算机中你心爱MM的相片的单位。 ;>象素、点、样点是计算机上对不同阶段的图像进行度量的手段(某人:“报告编辑,这句话是他看书抄的!”午木:“看我的天聋八式!我让你说!”惨叫不绝于耳~)。现在我再说说样点,我们在设置扫描仪的分辨率时。这一分辨率决定了扫描仪从源图像每英寸中取多少个点,这个时候,扫描仪就把源图像分成有大量的网格组成,再在每一个网格里取出一个点来代表这一网格里所包涵的颜色,这个点就是样点。至于点的概念,大家就根据它字本身的意思来理解就可以了。不过这里说句题外话。有些人也把扫描仪的分辨率单位叫做dpi ,就是每英寸多少个点。这个大家应该知道这个dpi与打印机的dpi是不一样的,扫描仪的每英寸多少个点应该叫做样点。俺再来看看象素。象素是在显示器上的光的单元,而每英寸的象素数则是用来衡量图像显示的分辨率

参考资料:http://zhidao.baidu.com/question/1131018.html

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com