Vorheriges Thema anzeigen :: Nächstes Thema anzeigen |
Autor |
Nachricht |
DV User 

Anmeldungsdatum: 19.07.2001 Beiträge: 4084 Wohnort: Penzberg
|
Beitrag 20 - Verfasst am: Di Feb 03, 2004 20:28 Titel: |
 |
|
BOP, wir sind vermutlich beide blind Wobei es bei meiner aktuellen Verkabelung hier auch kein Wunder ist, wenn mir das noch nicht aufgefallen ist.
Wie man das testet bzw. wo und wann das am ehesten auffällt würde mich auch interessieren.
Zitat: | Soweit ich es bisher verstanden habe, gibt es keine Synchronisation zwischen Monitor-Scan und Timing des Videodatenstroms. Das heißt, die interne Bereitstellung der Bildinformation ist nicht starr an das auf den (PC-)Bildschirm geschriebene Bild gekoppelt. Es gibt nur einige Hilfsprogramme, die die Frequenzen recht gut aneinander anpassen (Powerstrip). Auch hier lasse ich mich gerne belehren. | Das ganze hängt stark vom verwendeten Chipsatz ab. Die modernen, die TV und Monitor unabhängig von einander bedienen können, haben keine Synchronisation. Und da geht dann vermutlich das Problem mit der Videowiedergabe per SW los. Das einzige, was man im Videoplayer abfragen kann, ist der Strahlrücklauf. Mehr liefert DX wohl leider immer noch nicht zurück. Da der Strahlrücklauf aber (vermutlich) der des Monitors sein wird gibt es bei der TV-Ausgabe dann natürlich Probleme.
Bei älteren Grafikkarten, die nur das Clonig beherrschten, hatte man dieses Problem nicht. Dafür lief der Monitor dann mit 768x576 ud 50 Hz. Aber man (bzw. ich) wollte ja schließlich das Video am Fernseher sehen und nicht parallel am PC arbeiten.
Genau mit so einer Karte (GeForce 2 GTS mit TV-Out Modul) habe ich das oben beschriebene für menen Eindruck hervorragende TV-Out hinbekommen. Und zwar ruckelfrei (zumindest bis zu den getesteten 20 Minuten oder so), interlaced per DV-AVI.
Zitat: | Das größte Problem ist das Deinterlacen von Kameraaufzeichnungen. | Warum willst Du denn überhaupt deinterlacen? Wenn ein Beamer angeschlossen ist, dann sehe ich das natürlich ein. Wenn ich aber einen ganz normalen Fernseher an die Grafikkarte hänge, dann ist Deinterlacing das letzte, was ich haben will.
Zitat: | Offenbar wird die ursprüngliche MPEG-Information zunächst einmal in das Grafikformat der Karte gewandelt. Anschließend wandelt die Karte es wieder in S-Video. | Was sollte da auch anders passieren? Egal ob H+, per Grafikkarte unterstütztes MPEG-Decoding oder AVI-Playback. Alle dekodieren das Video in (irgendeine Form von) YUV-Daten, welche dann in einen Speicher geschrieben werden (bei der H+ ist es eigener Speicher, bei den Grafikkarten halt irgendein nicht für die normle Anzeige verwendeter Bereich des Grafikkartenspeichers), und dort wird er vom D/A-Wandler dann wieder ausgelesen und in das analoge Signal umgesetzt.
Gruß DV User |
|
 |
Der Karl  V.I.P. Mitglied
Anmeldungsdatum: 15.02.2002 Beiträge: 1416
|
Beitrag 21 - Verfasst am: Di Feb 03, 2004 22:03 Titel: |
 |
|
Moin,
Zitat: | Warum willst Du denn überhaupt deinterlacen? Wenn ein Beamer angeschlossen ist, dann sehe ich das natürlich ein. |
Nee - auch wenn ein Projektor angeschlossen ist, ist das Qualitativ Mist.
Hier sollte das die Playersoft (Bob) oder der Proki selbst machen - die können das viel besser als jeder Deinterlacer!
Gruß Karl |
|
 |
TheGenesis 
Anmeldungsdatum: 10.12.2002 Beiträge: 58
|
Beitrag 22 - Verfasst am: Mi Feb 04, 2004 11:09 Titel: |
 |
|
Zitat: | Nee - auch wenn ein Projektor angeschlossen ist, ist das Qualitativ Mist. |
Grins ... das hat er doch geschrieben
@DV User
Yepp ... Ja ... und genau ... völlig richtige Argumentation ... wollte gestern das gleiche von mir geben ... da warste wohl schneller.
Gruß
Thom |
|
 |
LoreenMcKenn 
Anmeldungsdatum: 26.07.2002 Beiträge: 71
|
Beitrag 23 - Verfasst am: Mi Feb 04, 2004 18:16 Titel: |
 |
|
auch wenn die Diskussion in eine andere Richtung geht:
ich habe inzwischen den Theatermodus mit der Radeon 8500 vernünftig zum Laufen bekommen und mit dem sehr performanten MPC habe ich ja nahezu erstaunlich zu nennende Ergebnisse bekommen. Ich denke schon, daß meine Theorie stimmt: Wenn das Video direkt an den TV-out gesendet werden kann, dann gibts auch ein ordentliches Bild, auch wenn das Video interlaced ist. Ich werde demnächst mal in Ruhe und voller Länge mir etwas ansehen und dann die Ergebnisse noch einmal posten. Aber speziell über den S-VHS-Eingang kann ich jetzt wirklich keinen Unterschied mehr zu meinem, zugegebenermassen nicht besonders hochwertigen, DVD-Player feststellen.
McKenn
 |
|
 |
RoBernd 

Anmeldungsdatum: 27.01.2003 Beiträge: 331 Wohnort: Windach/Bayern
|
Beitrag 24 - Verfasst am: Do Feb 05, 2004 12:46 Titel: |
 |
|
Hi,
wird denn das Bild direkt an den TV-Out gesendet?
Zitat: | Warum willst Du denn überhaupt deinterlacen? | Richtig, wenn ein normaler TV angeschlossen ist, sollte man davon die Finger lassen.
Jetzt habe ich (leider) Video-Out und Darstellung auf dem PC-Bildschirm vermengt. Ein normaler TV flimmert mir zuviel, speziell, wenn ich mit HDTV-Aufzeichnungen übe. Da wäre ein gutes Deinterlacing gefordert, aber kaum zu haben.
Falls zunächst das Monitorbild augebaut wird, aus dem später TV-Out erzeugt wird, liefert natürlich auch ein angeschlossener Normal-TV Interlacing-Fehler.
Zitat: | Wie testen man das denn am besten? |
Die unerwünschte Bewegung von Bildbereichen bei der Hollywood+ hatte ich weder erwartet noch gesucht. Ich habe aus einer DVB-Aufzeichnung eine DVD gemacht, diesen Effekt bei der Test-Wiedergabe bemerkt und erst einmal Bearbeitungsfehler gesucht (Was stimmt denn jetzt schon wieder nicht?). Das hätte ich mir sparen können. Die Wiedergabe durch einen Wohnzimmer-DVD-Player war fehlerfrei.
Inzwischen habe ich gelernt, dass schlechte MPEG-Decoder das verursachen können. http://212.105.197.43/vbporta....d=41976 _________________ Gruß RoBernd |
|
 |
LoreenMcKenn 
Anmeldungsdatum: 26.07.2002 Beiträge: 71
|
Beitrag 25 - Verfasst am: Mo Feb 09, 2004 17:07 Titel: |
 |
|
@ RoBernd
wird denn das Bild direkt an den TV-Out gesendet?
keine Ahnung, ob es tatsächlich so ist, aber ich bekomme ja bildschirmfüllend nur das Video-Bild zu sehen und kann auch kein GUI oder ähnliches einblenden.
Optisch jedenfalls macht es den Eindruck.
Übrigens habe ich inzwischen festgestellt, daß auch der PowerDVD-Player mit der Einstellung: deinterlace: auto und aktivierter HardwareDVD-Entschlüsselung (also kein CLV) ein sehr gutes TV-Bild zeigt.
Nur habe ich jetzt festgestellt, dass ich im Radeon-Theatermodus die Bildwerte (also Helligkeit und Kontrast) nicht ändern kann. Das ist nun wieder nervig, weil das Bild etwas zu hell ist. Die Einstellungen der jeweiligen Player-SW werden entweder erst gar nicht angezeigt oder zeigen nur Wirkung auf dem PC-Monitor. Bei den Einstellungen in den Grafikeigenschaften ist es identisch. Was kann man tun ?
McKenn |
|
 |
LoreenMcKenn 
Anmeldungsdatum: 26.07.2002 Beiträge: 71
|
Beitrag 26 - Verfasst am: Mi Feb 11, 2004 14:39 Titel: |
 |
|
mit der Software powerstrip habe ich jetzt das Thema Helligkeit und Kontrast beim TV-out hinbekommen, schon komisch, daß man für jede kleine Einstellung eine andere Software benötigt.
Meine DVB-streams von der dbox sehen mit PowerDVD gut aus (wie oben beschrieben: kein interlace-effekt).
Die gecaptureten Aufnahmen (via WinTV) sind nicht so dolle (da gibts Störbilder)... da muss ich weiterhin auf winDVD zurückgreifen.
Aber so langsam kommen wir zum Ende....
McKenn |
|
 |
|