Umfrage was fürn Fernseher benutzt ihr

  • Thread-Ersteller Thread-Ersteller marius
  • Erstellungsdatum Erstellungsdatum

Welchen Fernseher benutzt ihr

  • normaler Fernseher

    Stimmen: 24 21,8%
  • Hd ready

    Stimmen: 43 39,1%
  • Full HD

    Stimmen: 28 25,5%
  • werde mir noch einenHD zulegen

    Stimmen: 15 13,6%

  • Stimmen insgesamt
    110
Status
Nicht offen für weitere Antworten.
Ich hab n PANASONIC Viera TH-42PV71F (42" Plasma). Ist kein FullHD, würd ich mir auch nicht holen, weil ich ein paar Meter vom TV wegsitz und man so den Unterschied eh nicht sieht. Bin zufrieden :)
 
Mein gestern angekommener 720p TV kann 1080i(und p?) unskaliert darstellen.
Zwar schneidet er etwas von bild oben, unten und seitlich weg, aber dafür ist die aüflösung in der mitte 1080i(p) - like. :-D

ist natürlich nur ne optionale einstellung, aber bei GTHD und NGS stört es kaum. :-)

Toshiba 32wlg66
 
Zuletzt bearbeitet:
FullHD ist überbewertet :-P Warum disst ihr euch immer so?
 
So, hier ist mein Fernseher:

Toshiba 32wlg66 720p 50/60hz
http://img401.imageshack.us/img401/7303/pa130325ac9.jpg
pa130323sl4.jpg


:-D

btw,finde auch das 1080p überwbewertet ist. :-P
720p ist im gegensatz zu pal eine gewaltige steigerung, doch 1080p nutzen kaum spiele, und hochskalierte 720p bilder (und 1080i) sehen eben schlechter aus als auf einem 720p TV. :-)
 
Zuletzt bearbeitet:
So, hier ist mein Fernseher:

Toshiba 32wlg66 720p 50/60hz
:-D

btw,finde auch das 1080p überwbewertet ist. :-P
720p ist im gegensatz zu pal eine gewaltige steigerung, doch 1080p nutzen kaum spiele, und hochskalierte 720p bilder (und 1080i) sehen eben schlechter aus als auf einem 720p TV. :-)

warum soll 720p auf einem 40" 1080p schlechter aussehen als 720p auf einem 40" 720p HDTV?
 
warum soll 720p auf einem 40" 1080p schlechter aussehen als 720p auf einem 40" 720p HDTV?


nimm mal einen PC monitor mit 1024*786 und einen mit 1280*1024.
Beide 17".
Dann stell beide auf 1024*786.

Der eine wird ein brilliantscharfes bild liefern, weil die eingestelte auflösung seiner nativen auflösung entspricht, der andere wird ein etwas unscharfes bild liefern, weil es hochskaliert wird.

so ist zumindest meine theorie. :-P
 
nimm mal einen PC monitor mit 1024*786 und einen mit 1280*1024.
Beide 17".
Dann stell beide auf 1024*786.

Der eine wird ein brilliantscharfes bild liefern, weil die eingestelte auflösung seiner nativen auflösung entspricht, der andere wird ein etwas unscharfes bild liefern, weil es hochskaliert wird.

so ist zumindest meine theorie. :-P

schöne theorie du vergisst dabei nur das wichtigste... da das verhältnis von 1024*786 und 1280*1024 nicht das selbe ist ist es logisch das das bild auf dem einem anders aussieht!
bei 1920x1080 und 1280x720 ist das verhältnis exakt das selbe!
wenn du also 1:1 pixelmapping hast und der 1080p TV nicht selber pixel hinzuberechnet (skaliert) dann hast du ein kleines 720p bild am TV... streckst du jetzt das bild auf die vollen 40" hast du einen identes bild zum 720p TV da einfach mehrere bildpunkte des 1080p TVs die selbe farbe haben.... ein schlechters bild könnte entstehen wenn der TV durch interpolation von pixeln versucht das bild auf 1080p zu bringen (unschärfe)
anders ist es zum beispiel im fall von ratchet... ratchet hat eine auflösung von 704p auf einem 720p TV mit 1:1 pixelmapping hat man oben und unten einen schwarzen balken von je 8pixel breite (kaum sichtbar am TV) speist man das signal jetzt jedoch in einen 1080p TV ein hat dieser die krumme auflösung von 1280x704 und zerrt diese auf 1920x1080 hoch was ein schlechteres bild gibt!
 
Zuletzt bearbeitet:
und das ist eben völliger unsinn... da das verhältnis von 1024*786 und 1280*1024 nicht das selbe ist ist es logisch das das bild auf dem einem anders aussieht!
bei 1920x1080 und 1280x720 ist das verhältnis exakt das selbe! wenn du also 1:1 pixelmapping hast und der 1080p TV nicht selber pixel hinzuberechnet (skaliert) dann hast du exakt das selbe bild!

aber eigentlich wäre 720p auf einem 1080p tv ja nur ein ausschnitt, da nicht alle pixel "belegt" wären.
Also muss doch hockskaliert/langezogen o.ä. werden?!

sonst würde das bild eines 32" pal TV im 4:3 modus bei einem 32" HDTV ja auch genau gleich aussehen.
 
aber eigentlich wäre 720p auf einem 1080p tv ja nur ein ausschnitt, da nicht alle pixel "belegt" wären.
Also muss doch hockskaliert/langezogen o.ä. werden?!

wenn das bild einfach gestreckt wird MUSS es 1:1 aussehen wenn die auflösung wirklich 720p ist!

um mich mal selbst zu zitieren:
wenn ich ein bild habe mit 2x2 pixel und dieses eine diagonale von 5cm also zum beispeil rot weis rot weis also schräg damit man genau diese 4 pixel sieht...
würde ich nun diese "bild" auf einem diplay mit einer auflösung von 20x20 darstellen welches auch eine 5cm diagonale hat würde jeder pixel einfach mit einer auflösung von 10x10 dargestellt (also immer 100 rote pixel hundert weiße etc. da es keine zusätzliche bildinformation beim skalieren gibt)
und welchen unterschied würde ich nun erkennen? genau keinen!

EDIT:

habs schnell mal im paint gezeichnet...
45985880fa6.jpg
23582603ee7.jpg

das funktioniert natürlich nur wenn ich exakt das selbe verhältnis habe so wie es eben bei 720 und 1080 der fall ist!
da bei vielen spielen aber geschummelt wird fällt der fehler natürlich auf einem 1080p TV mehr auf als auf einem 720p TV

sonst würde das bild eines 32" pal TV im 4:3 modus bei einem 32" HDTV ja auch genau gleich aussehen.

weis nicht genau was du meinst.... PAL auflösung ist 768x576 und wird auf eine HD auflsöung hochskaliert was ein schlechteres bild gibt weil das verhältnis wieder nicht das selbe ist... bei PAL widescreen 1024x576 müsste das bild wieder 1:1 aussehen!
hierbei ist aber zu bedenken das nicht allein die auflösung schuld am schlechteren bild auf dem HDTV ist sondern auch die darstellung der pixel! auf dem HDTV sind sie 100% eckig auf der röhre nicht!
 
wenn das bild einfach gestreckt wird MUSS es 1:1 aussehen wenn die auflösung wirklich 720p ist!

um mich mal selbst zu zitieren:
wenn ich ein bild habe mit 2x2 pixel und dieses eine diagonale von 5cm also zum beispeil rot weis rot weis also schräg damit man genau diese 4 pixel sieht...
würde ich nun diese "bild" auf einem diplay mit einer auflösung von 20x20 darstellen welches auch eine 5cm diagonale hat würde jeder pixel einfach mit einer auflösung von 10x10 dargestellt (also immer 100 rote pixel hundert weiße etc. da es keine zusätzliche bildinformation beim skalieren gibt)
und welchen unterschied würde ich nun erkennen? genau keinen!

EDIT:

habs schnell mal im paint gezeichnet...
45985880fa6.jpg
23582603ee7.jpg

das funktioniert natürlich nur wenn ich exakt das selbe verhältnis habe so wie es eben bei 720 und 1080 der fall ist!
da bei vielen spielen aber geschummelt wird fällt der fehler natürlich auf einem 1080p TV mehr auf als auf einem 720p TV



weis nicht genau was du meinst.... PAL auflösung ist 768x576 und wird auf eine HD auflsöung hochskaliert was ein schlechteres bild gibt weil das verhältnis wieder nicht das selbe ist... bei PAL widescreen 1024x576 müsste das bild wieder 1:1 aussehen!
hierbei ist aber zu bedenken das nicht allein die auflösung schuld am schlechteren bild auf dem HDTV ist sondern auch die darstellung der pixel! auf dem HDTV sind sie 100% eckig auf der röhre nicht!

Danke für die erklärung, das bild hats mir gezeigt, jetzt hab ichs verstanden! :-)
 
Danke für die erklärung, das bild hats mir gezeigt, jetzt hab ichs verstanden! :-)

das funktioniert natürlich nur bei exakt gleichen seitenverhältnisen wie es eben bei 720 und 1080 der fall ist...
leider wird derzeit bei spielen noch viel zu viel geschummelt und dadurch kommt es zu schlechteren bildern auf 720 bzw 1080 geräten aber die technik bleibt nicht stehen und man wird auch hier noch eine lösung finden um immer ein ideales bild zu bekommen!
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom