Stromverbrauch aufgrund der Auflösung - Warum?

Rookie19

Rookie19

Stammgast
141
Eine allgemeine Frage, daher im Allgemeines Thread:

Wieso hängt der Stromverbrauch von der eingestellten Auflösung ab? Es gibt meiner Ansicht nach 2 Szenarien:

Display hat physisch 1920x1080
Eingestellt sind 1920x1080
Hier werden alle Bildpunkte 1:1 verarbeitet.

Display hat physisch 1920x1080
Eingestellt sind 1480x720
Das Display hat physisch immer noch FullHD, also werden hier die Berührungspunkte nicht 1:1 umgesetzt, sondern müssen noch extra umgerechnet werden.

Letzteres müsste meiner Logik nach ja sogar MEHR Strom verbrauchen? Ich meine, ALLE sagen, dass eine niedrigere Auflösung weniger Strom frisst, also wird's wohl stimmen. Die Frage ist nur, wieso? Was übersehe ich?
 
hm gute Frage, mein Gedanke wäre:
weil nicht alle Pixel einzeln angesprochen werden, sondern sich einige den selben Inhalt teilen
also von den 2.773.600 Pixeln nur 1.065.600 verschiedene angesprochen/berechnet werden müssen, was sie anzeigen sollen
<- und man sieht es an den beiden Zahlen, dass wir hier trotz nichtmal halbierter Endpixelmaßzahlen bereits mehr als die Hälfte einsparen...

aber....nur mein Gedanke dazu, keine Ahnung obs annährend stimmt.....
finde da Thema interessant.
 
Dieser Logik nach würde also die Berührungsmatrix dieser Pixel deaktiviert? Klingt eigentlich logisch.
 
denke ich mal, ja
ich meine aber nicht nur die Berührungsmatrix die "zur hälfte" nicht "aggieren" muss sondern auch die Darstellung softwareseitig dem Display zu kontaktieren, dass jetzt weniger Pixel angesprochen werden müssen 2 Pixel = gleiche Farbe anstatt jedem Pixel ne andere Farbe zu senden bzw ausrechnen und zuweiosen lassen zu müssen
 
Naja, letzteres ist ja die Richtung vom Chip zum Bildschirm. Da braucht es eigentlich keine Umrechnung. Umrechnungen braucht es nur, bei der Eingabe auf dem Bildschirm, SOFERN nicht einfach Pixel "abgedreht" werden.
 
hm....wohl war...

vielleicht vielleicht meldet sich ja noch einer hier aus ner Displayherstellung oder jemand der technisch elektrisch mehr Ahnung hat :)
 
Rookie19 schrieb:
sondern müssen noch extra umgerechnet werden.
Jein, du musst dir die Frage stellen was gerechnet werden muss: Der Grafikchip muss mehr Bildpixel rendern - also mehr Leistung, mehr Verbrauch (kennt man ja auch von PC-Grafikkarten). Das aufskalieren ist meist kein Problem dagegen - sieht man ja auch daran das Upscaling wirklich jedes billige Gerät beherrscht (also z.B. FullHD zu 4K, aber nativ 4K geht nicht).
Rookie19 schrieb:
niedrigere Auflösung weniger Strom
Wenn man auch noch eine Änderung an der nativen Auflösung des Displays hat, dann dürfte sich der Effekt sogar verschräfen, weil das Display dann auch deutlich mehr verbraucht
 

Ähnliche Themen

S
Antworten
13
Aufrufe
600
heinzl
heinzl
susisunny
Antworten
16
Aufrufe
948
DOT2010
DOT2010
A
Antworten
17
Aufrufe
1.050
anna2
A
Zurück
Oben Unten