Latenz bei Vorsatzgeräten

Registriert
23 Jun 2020
Beiträge
342
Zur Beurteilung würde aber eine Angabe von der Gesamt-Latenz (k.A. in welchen Einheiten) reichen. Ähnlich anderer Werte (NETD) die ja auch Dinge zusammen fassen.

Die ganze Diskussion erinnert mich an das Interview mit Christ Balke auf Youtube wo er sagt wir Jäger haben es ja in der Hand das Wild nicht auszurotten wenn wir z.B. nur ein Stück aus der Rotte erlegen und nicht dann noch 1-2 der flüchtigen Sauen beschießen. Da bekommt das Thema mit dem Flüchtigen beschießen eine neue Dimension.
Hallo Carpenter.

Naja, das Problem mit dem NETD, das uns von Gehäuseherstellern angeboten wird, ist vergleichbar mit der Aussage:

“Hallo Chef, ich habe 1 Liter Regenwasser gesammelt.”

Schön, aber in welcher Zeit?
Wie stark hat es geregnet?
Wie oft hat es geregnet und wie oft musste gesammelt werden?
Wie groß war das Sammelgefäß?

Diese Informationen werden uns von den Gehäuseherstellern anscheinend mit gutem Grund vorenthalten.

Ohne diese Informationen kann man nicht beurteilen, ob jemand ein guter Regensammler ist oder nicht.

Aber wenn man weiß, dass 1 Liter Regenwasser bei leichtem Regen in 12 Stunden gesammelt wurde, und jede Stunde der Inhalt eines Schnapsglases gesammelt wurde, und alle 2 Stunden es 10 Minuten geregnet hat, kann man sehr wohl einschätzen, ob der Regensammler ein guter Mitarbeiter ist oder nicht.

Ohne diese Informationen bezahle ich womöglich einen Mitarbeiter umsonst.

Deshalb ist die von den Gehäuseherstellern genannte Zahl eine Zahl ohne Wert.

Reiner Marketinggag.

Ein Datenblatt des Sensors würde aber diese Miesere leicht ändern.

LG.WAKAN
 
Registriert
6 Jul 2018
Beiträge
812
Für unsere Zwecke besser geeignet sind markante einmalige Ereignisse (z.B. Lampe einschalten) oder eine lineare Bewegung, wo man jederzeit den zurückgelegten Weg erkennen kann.

Zum Beispiel wird ein Objekt von links nach rechts durchs Bild gezogen und man legt einen Zollstock oder ähnliches so daneben, dass man jederzeit die Position/Strecke ablesen kann.

Dann mit Kamera das reale Objekt und den VG-Bildschirm gleichzeitig aufnehmen und dann das Video auswerten.
Man sieht das Objekt real bei 1,56m während es im Bildschirm erst bei 1,12m ist und kann aus den 44cm Differenz bei bekannter Geschwindigkeit recht genau die Latenz ermitteln.

Dieser Aufbau wäre auch recht nah an unserem Verwendungszweck (Objekt = Schwarzwild).
So ähnlich wären auch meine zwei Vorschläge für einen Versuchsaufbau:

1.
Zwei Zielfernrohre zeigen auf denselben Punkt. Vor einem der ZF wird der Vorsatz montiert. Hinter die Okulare beider ZF wird ne geeignete Kamera montiert.

Es wird dann ein Objekt durchs Bild gezogen, dass im Idealfall mit einem Maßstab versehen ist. Mittels Lichtschranke oder geeigneter manueller Auslösung werden beide Kameras gleichzeitig(!) ausgelöst. Der Bildvergleich ergibt durch Ablesung der Stellung des jeweiligen senkrechten Balkens des Fadenkreuzes auf dem am Objekt befindlichen Maßstab durch Differenzbildung den Abstand und durch Umrechnung mit der bekannten Geschwindigkeit des Objektes den Zeitversatz.

2.
Zwei Zielfernrohre zeigen wieder auf denselben Punkt. Vor einem der ZF wird der Vorsatz montiert. Hinter die Okulare beider ZF wird ne geeignete Kamera montiert. Beide Kameras zeichnen Videos auf.

Es wird dann ein Objekt durchs Bild gezogen, dass im Idealfall mit einem Maßstab versehen ist. Während das Objekt durchs Bild fährt, wird durch einen geeigneten Mechanismus sehr(!) schnell eine Wärmequelle freigegeben. Es wird für jede Kamera das Einzelbild ermittelt, dass die gerade freigegebene Wärmequelle zeigt. Dann wieder Bildvergleich wie unter 1.

Theoretisch kommt auch noch die Möglichkeit in Frage, jedem Kamerabild einen sehr exakten absoluten Zeitstempel zu verpassen. Dann Bildvergleich der jeweiligen Einzelbilder mit demselben Zeitstempel. Weiß aber nicht, ob sich sowas realisieren ließe.
 
Registriert
23 Jun 2020
Beiträge
342
Ich fürchte, die drehende Scheibe hilft in dieser Form nur bedingt. Man kann mit diesem Ansatz n.m.E. eine zeitliche Auflösung bestimmen, aber nicht die Latenz.

Wenn die Scheibe im Bild des VG verschwimmt, dann weiss man, dass Ereignisse, die mit Abstand x Millisekunden aufeinander folgen, nicht mehr trennscharf dargestellt werden können (zeitliche Auflösung).
Du weisst aber nicht, wann die Ereignisse tatsächlich stattgefunden haben und wieviel Latenz im Spiel ist.

Allgemein sind in diesem Fall periodische Ereignisse schwieriger zu handhaben (Unterabtastung kann dann auch ein Thema werden sowie die Trägheit des menschl. Auges).
Für unsere Zwecke besser geeignet sind markante einmalige Ereignisse (z.B. Lampe einschalten) oder eine lineare Bewegung, wo man jederzeit den zurückgelegten Weg erkennen kann.

Zum Beispiel wird ein Objekt von links nach rechts durchs Bild gezogen und man legt einen Zollstock oder ähnliches so daneben, dass man jederzeit die Position/Strecke ablesen kann.

Dann mit Kamera das reale Objekt und den VG-Bildschirm gleichzeitig aufnehmen und dann das Video auswerten.
Man sieht das Objekt real bei 1,56m während es im Bildschirm erst bei 1,12m ist und kann aus den 44cm Differenz bei bekannter Geschwindigkeit recht genau die Latenz ermitteln.

Dieser Aufbau wäre auch recht nah an unserem Verwendungszweck (Objekt = Schwarzwild).
Hallo Mutex, danke für Info.

Sehe ich auch so. Aber genaue Messwerte zu ermitteln erhöht den Aufwand erheblich. Brauchen wir aber eigentlich nicht.

Es gäbe zwar gut dokumentierte und exzellente "einfache" Messmethoden. Siehe:


Aber der Aufwand erscheint mir als zu viel. Es sollte deshalb ein ganz einfaches System sein, das in einfachster Weise mehrere Geräte mit anderen vergleichen kann, ohne Messwerte mit Zahlen, sondern nur optisch bei freiem Auge zu beurteilen. Der "Messwert" wäre dann nur irgendeine Drehzahlstufe etc. (Stufe 1 bis 10 etc.) und die optische Abschätzung, was besser scheint. Bin aber mir nicht sicher, ob diese einfache Art und Weise markante optische Unterschiede hervorbringen kann.

Nachteile:

• Zumindest zwei WBKs müssen gleichzeitig dieselbe Szene betrachten und die "Verschmierungen" beurteilen.

• Eine Referenzkamera, z. B. immer ein schnelles Gerät wie Viper 35(50) als Vergleichsreferenz, wäre die Deluxe-Version.

• Ist auch aufwändig, besonders für Privatanwender. Wer hat gleich mehrere Geräte zur Hand?

Am ehesten wäre @Maximtac und sein Technikerteam dazu in der Lage, dies kurz mal abzucheken, um zu sehen, ob überhaupt markante optische Unterschiede zu sehen sind.

Deine Optische Methode die du schon beschrieben hast gefällt sehr gut. Hast du möglichkeit dies zu checken?

LG.WAKAN
 

Anhänge

  • Schatz_2023_Meas._Sci._Technol._34_055407.pdf
    1,4 MB · Aufrufe: 7
Registriert
8 Jan 2024
Beiträge
391
Hallo @WAKAN ,

kann mir leider nicht vorstellen dass dein Vorschlag mit der drehenden Scheibe funktioniert. @Mutex hat das gut beschrieben. Wie weit das Ereignis, das das Display zeigt, in der Vergangenheit liegt ist der Knackpunkt.

Ich denke man kann in einigen Fällen eine einfache Abkürzung nehmen. Einige Geräte haben eine Aufnahmefunktion:

Man spannt die Waffe mit Vorsatzgerät und eingeschalteter Aufnahmefunktion fest ein.

Man lässt ein Vehikel oder irgendwas mit fest definierter Geschwindigkeit in einer fest definierten Entfernung und einer großen Zielscheibe durch das Bild fahren (lineare Bewegung!)... und schießt, wenn man die Zielscheibe im Zentrum hat.

Jetzt kommt der Trick:
Man wertet die aufgenommene Videosequenz am PC aus.
Das letzte Bild OHNE Mündungsfeuer interessiert. Den Punkt der Scheibe im Display, auf den das Absehen zeigt (evtl nicht ganz einfach zu ermitteln) vergleicht man mit dem tatsächlichen Treffer. Und rechnet aus der Differenz der Treffpunktlage noch die Geschwindigkeit und Entfernung des Vehikels (Keilers), sowie die Geschwindigkeit des Geschosses heraus.

Ist auch nicht 100%, da die Bildrate auch noch rausgerechnet werden muss.
 
Zuletzt bearbeitet:
Registriert
6 Jul 2018
Beiträge
812
Man spannt die Waffe mit Vorsatzgerät und eingeschalteter Aufnahmefunktion fest ein.

Man lässt ein Vehikel oder irgendwas mit fest definierter Geschwindigkeit in einer fest definierten Entfernung und einer großen Zielscheibe durch das Bild fahren (lineare Bewegung!)... und schießt, wenn man die Zielscheibe im Zentrum hat.

Jetzt kommt der Trick:
Man wertet die aufgenommene Videosequenz am PC aus.
Das letzte Bild OHNE Mündungsfeuer interessiert. Den Punkt der Scheibe im Display, auf den das Absehen zeigt (evtl nicht ganz einfach zu ermitteln) vergleicht man mit dem tatsächlichen Treffer. Und rechnet aus der Differenz der Treffpunktlage noch die Geschwindigkeit und Entfernung des Vehikels (Keilers), sowie die Geschwindigkeit des Geschosses heraus.

Ist auch nicht 100%, da die Bildrate auch noch rausgerechnet werden muss.
Das ist ne gute Idee! Hat den Vorteil, dass man irgendwo auf die Scheibe schießen kann und nicht auf irgendeine Markierung zielen muss.

Die Position des Absehens auf der Scheibe sollte sich eigentlich auch recht einfach ermitteln lassen: Kleine Wärmequelle in einiger Entfernung anbringen. (Eingeschossenes) Vorsatzgerät aufs Zielfernrohr und nun das Absehen des Zielfernrohrs genau auf die Wärmequelle ausrichten. Mit der Fotofunktion ein Bild machen. Aus diesem dann am PC die Bildkoordninaten der Wärmequelle/des Absehens ermitteln. Wenn man nun den Versuch durchgeführt hat, markiert man in dem letzten Bild ohne Mündungsfeuer die zuvor ermittelten Bildkoordinaten und hat so die gesuchte Position des Absehens gefunden. Dann wie von dir beschrieben die horizontale Distanz zum Einschlag messen etc.
 
Registriert
20 Jun 2016
Beiträge
375
Ist leider keine ganz so gute Idee, da zwischen Wahrnehmung und Abdrücken eine gewisse Differenz liegt. Bei manchen Leuten deutlich länger, als 25ms.
 
Registriert
23 Jun 2020
Beiträge
342
Hi @all.

Kurzes Update zum Thema: Wie und wann kann man einfach "Latenzen" mit möglichst wenig Aufwand, also nur durch optische Betrachtung, leicht erkennen?

Das Einfachste, was ich gefunden habe, ist der Propeller-Test:https://www.google.com/url?sa=t&sou...0QFnoECCkQAQ&usg=AOvVaw20Fo1LT-eqlLD7ZjfhAfOz

• Dokumentiert von Sofradir (ehemals Ulis), jetzt Lynred.

• Kaum an Einfachheit und wenig Aufwand zu unterbieten.

Propeller-Test

• Abbildung 7: Zeigt das Bild des Rotors mit einem Standard-Wärmebildsensor mit einem NETD von etwa 50 mk und τ(Tau) = 10ms. Ergibt 1/τ * 3 --> ~30Hz = NTSC 60Hz im Display.

• Abbildung 8: Zeigt die gleiche Szene mit einem τ(Tau) = 2,5 ms Bolometer. Ergibt 1/τ * 3 --> ~120Hz = Nativ im Display.

• Der Rotor dreht sich mit einer Geschwindigkeit von 100 Umdrehungen pro Sekunde.

Screenshot_20240209_210516_OneDrive.jpg

In Abbildung 7 sind die Rotorblätter aufgrund der sich einstellenden Bildunschärfe nicht mehr sichtbar.

• Deshalb ergibt sich nur ein Durchschnittssignal zwischen den Blättern und dem Hintergrund.

In Abbildung 8. sind die Blätter sichtbar und der Kontrast zwischen den Blättern und dem Hintergrund ist deutlich.

• Die Verformung der Blattform ist auf die Rolling-Shutter-Architektur zurückzuführen.

Wenn ich mehr Zeit habe, werde ich dies mal mit mehreren Kameras testen.

Komme aber leider nicht so schnell dazu.
Danke für alle wegen der Mühen und tollen Anregungen.

LG.WAKAN
 
Zuletzt bearbeitet:
Registriert
8 Jan 2024
Beiträge
391
Ist leider keine ganz so gute Idee, da zwischen Wahrnehmung und Abdrücken eine gewisse Differenz liegt. Bei manchen Leuten deutlich länger, als 25ms.
Hallo Chriss,

Wie gesagt, entscheidend ist in der Sequenz das letzte Bild vor dem Mündungsblitz. Das zeigt nicht den Zeitpunkt an, wann du es wahrgenommen hast... Sondern das, was zum Zeitpunkt unmittelbar vor Schussabgabe, auf dem Display angezeigt wird!
 
Registriert
5 Jul 2012
Beiträge
2.536
Hi @all.

Kurzes Update zum Thema: Wie und wann kann man einfach "Latenzen" mit möglichst wenig Aufwand, also nur durch optische Betrachtung, leicht erkennen?

Das Einfachste, was ich gefunden habe, ist der Propeller-Test:https://www.google.com/url?sa=t&sou...0QFnoECCkQAQ&usg=AOvVaw20Fo1LT-eqlLD7ZjfhAfOz

• Dokumentiert von Sofradir (ehemals Ulis), jetzt Lynred.

• Kaum an Einfachheit und wenig Aufwand zu unterbieten.

Propeller-Test

• Abbildung 7: Zeigt das Bild des Rotors mit einem Standard-Wärmebildsensor mit einem NETD von etwa 50 mk und τ(Tau) = 10ms. Ergibt 1/τ * 3 --> ~30Hz = NTSC 60Hz im Display.

• Abbildung 8: Zeigt die gleiche Szene mit einem τ(Tau) = 2,5 ms Bolometer. Ergibt 1/τ * 3 --> ~120Hz = Nativ im Display.

• Der Rotor dreht sich mit einer Geschwindigkeit von 100 Umdrehungen pro Sekunde.

Anhang anzeigen 246684

In Abbildung 7 sind die Rotorblätter aufgrund der sich einstellenden Bildunschärfe nicht mehr sichtbar.

• Deshalb ergibt sich nur ein Durchschnittssignal zwischen den Blättern und dem Hintergrund.

In Abbildung 8. sind die Blätter sichtbar und der Kontrast zwischen den Blättern und dem Hintergrund ist deutlich.

• Die Verformung der Blattform ist auf die Rolling-Shutter-Architektur zurückzuführen.

Wenn ich mehr Zeit habe, werde ich dies mal mit mehreren Kameras testen.

Komme aber leider nicht so schnell dazu.
Danke für alle wegen der Mühen und tollen Anregungen.

LG.WAKAN

Hallo Wakan,

Achtung, Denkfehler! Der oben beschriebene Aufbau verdeutlicht die Detektionsfrequenz - nicht die Verzögerung der Darstelllung, also der Latenz.

In vielen physikalischen Experimenten werden durch Interferenzeffekte Laufzeitunterschiede / Phasendifferenzen sichtbar gemacht.

Um also die Latenz darzustellen, müsste man das WBK-Bild mit dem echten Bild irgendwie überlagern. Schwierig.
 

Rotmilan

Moderator
Registriert
24 Jul 2007
Beiträge
5.977
Die Frage wäre doch, wie bekomme ich zwei "Hochgeschwindigkeits"-Kameras zeitlich parallel geschaltet, sodass ich ein Ereignis, dass sowohl optisch als auch thermal die gleiche Reaktionszeit hat, nachprüfbar erfassen kann.
Eine Kamera filmt das optische Ereignis, die zweite den Bildschirm des Thermalgeräts.

Ein deutliches Mündungsfeuer könnte das Ereignis sein.

Ohne Waffe wäre vielleicht einfacher, z.B. eine Glühlampe hinter einer Pappe. Dann wird die Pappe einfach weggezogen.

Hochgeschwindigkeits-Kameras mit integrierter Atomuhr und Echtzeitstempel in der Aufnahme gibt es (lt Internet), sie dürften aber teuer und schwer zu beschaffen sein.

Leichter in der Beschaffung sind z.B. zwei identische Handykameras mit Zeitlupentechnik. Meine schafft immerhin 480 FPS bei 720 P, da gibt es aber noch bessere. Zur Synchronisation filmt man zuerst mit beiden Kameras das Ereignis nur optisch und stellt bei weiter laufender Aufnahme eine Kamera hinter das Thermalgeräts, um dann das eigentliche Ereignis aus unterschiedlichen Perspektiven zu filmen.

Oder hat das einer schon vorgeschlagen und ich habe es nicht gecheckt?
 
Registriert
9 Okt 2002
Beiträge
1.665
TigIR 6z+ Latenz des FLIR Boson Sensors 25 ms.
Dazu kommt die Latenz des Bildschirms.
Beim Einsatz von OLED Displays kann die Display-Latenz sehr gering sein. Wahrscheinlich im niedrigen Millisekundenbereich.

Beim Tigir würde ich mit einer Gesamtlatenz von unter >30 ms rechnen.

frogger
 
Registriert
23 Jun 2020
Beiträge
342
Hallo Wakan,

Achtung, Denkfehler! Der oben beschriebene Aufbau verdeutlicht die Detektionsfrequenz - nicht die Verzögerung der Darstelllung, also der Latenz.

In vielen physikalischen Experimenten werden durch Interferenzeffekte Laufzeitunterschiede / Phasendifferenzen sichtbar gemacht.

Um also die Latenz darzustellen, müsste man das WBK-Bild mit dem echten Bild irgendwie überlagern. Schwierig.
Hallo Conram.

Naja, ich will ja nichts messen. Messen ist ja kein Problem. Ich will schnell und möglichst einfach nur vergleichen, welche Kamera schneller ist.

Die Kamera, die zuerst das Bild verwischt im Vergleich zu einer oder mehreren gleichzeitig aufgestellten Kameras, ist dann zwangsläufig das langsamste Gerät.

Danach brauche ich nur die Umdrehungszahl des Propellers. Mit dieser Information kann ich Versatz, Pixelverschiebung und andere Faktoren ableiten. Schnell und effektiv.

Es geht also hier nur um die Frage:

Ist der auftretende Effekt so deutlich erkennbar wie in der Lynred-Demo, in der ein 30 Hz = 60 Hz NCTS-Gerät mit einem nativen 120 Hz Pico1024 verglichen wurde?

Ist der Unterschied bei 30 Hz gegenüber 60Hz, z.B. beim Vergleich von MAH50 und VIPER50, auch noch visuell so gut zu erkennen?

LG. WAKAN
 
Registriert
23 Jun 2020
Beiträge
342
TigIR 6z+ Latenz des FLIR Boson Sensors 25 ms.
Dazu kommt die Latenz des Bildschirms.
Beim Einsatz von OLED Displays kann die Display-Latenz sehr gering sein. Wahrscheinlich im niedrigen Millisekundenbereich.

Beim Tigir würde ich mit einer Gesamtlatenz von unter >30 ms rechnen.

frogger
Hallo frogger, sehe ich auch so.

In der Boson-Spezifikation ist Folgendes angegeben:

• Volle Bildrate: 60Hz Baseline; 30Hz Laufzeit wählbar.

• Entsprechend der Konfiguration: 20ms - 30ms.

Die relevante Integrationszeit der Photorezeptoren beträgt:

• Etwa 1/50 - 1/10 Sekunde: 20ms - 100ms.

Quelle:
Auge

Deshalb ist alles, was am Display unter 20ms zum Zeitaufbau braucht, irrelevant.

Deshalb kann man sehr schön ohne größere Abweichungen die Boson-Spezifikation zur Berechnung von Versatz heranziehen, ohne größere Abweichungen zu erzielen.

Das größte Problem bei den ganzen Geschichten sind die 08/15-Gehäusehersteller, die unzureichende technische Dokumentationen zur Verfügung stellen. Geschweige denn irgendein Sensordatenblatt oder zumindest, wie bei FLIR, eine gut dokumentierte Thermalcore zur Verfügung zu stellen.

LG.WAKAN
 
Registriert
26 Mai 2004
Beiträge
3.285
Hatte die Tage ein Telos in der Hand. Einfach in der Mitte gepackt, vors Auge gehalten. (nicht ganz dran). Dann schnell aus dem Handgelenk hin und her geschwenkt (Flaschendrehen..). Dann vor dem Auge gestoppt. Man sieht eine Latenz wohl eher 0.1-0.15 Sek maximal. Ebenso kommt bei mir die Frage auf ob das auch von der Sensorgröße abhängig ist.. ggf. sind ja die kleineren Sensor Geräte besser weil der Rest gleich ist aber weniger Daten verschoben werden müssen.
 
Registriert
18 Jan 2014
Beiträge
8
Dieser auch Delay genannter Versatz tritt bei allen Elektro-optischen Geräten auf. Auch zb bei Digitalkameras. Bei Vorsatzgeräten ist das schon ein Punkt der vielleicht so manches erklärt, es verwunderlich ist wieso das das scheints bisher vielen nicht bewusst war.
Der für zu Hause Testaufbau ist simpel. Man betrachte durch die jeweilige Optik eine Person in eine paar Meter Entfernung die in die Hände klatscht oder mitn Hammer aufn Brett schlägt. Das Delay von dem was man sieht zu dem was man hört kann da ganz schön abweichen. Jedenfalls wars bei mir bei Pard, Sytong, Pulsar und Hikmicro so das sich damit nur auf absolut ruhig stehendes Wild schiesse.
 
Zuletzt bearbeitet:

Online-Statistiken

Zurzeit aktive Mitglieder
12
Zurzeit aktive Gäste
175
Besucher gesamt
187
Oben