HICMICRO hat wohl auch was Neues in der Pipeline

Registriert
17 Jan 2013
Beiträge
1.862
Es gab hier mal einen Forit, der erzählte, daß er und seine Freunde jedes Jahr vor Aufgang der Jagd den Schießstand aufsuchten udn "Erstschußkontrolle" aller jagdlich geführten Waffen machten. Sinnvoll-
 
Registriert
27 Jan 2019
Beiträge
786
jedes Jahr vor Aufgang der Jagd den Schießstand aufsuchten udn "Erstschußkontrolle" aller jagdlich geführten Waffen machten. Sinnvoll-

Also ich jage das ganze Jahr über, und gehe auch fast jede Woche auf den Schießstand wenn ich Zeit habe.
Das mit dem "Aufgang der Jagd" kenne ich eher aus Amerika, wo man über den Sommer fast gar nichts jagen kann.
 
Registriert
20 Aug 2014
Beiträge
33
Hallo,

ich würde gerne meine Gedanken zum Thema Präzision/Streukreise und Auflösung mit euch teilen. Ich arbeite bei einem Automobilkonzern in der Vorentwicklung für Sensorik und beschäftige mich zum Teil auch mit Time of Flight Kameras, die neben der Helligkeitsinformation auch Entfernungen pro Pixel messen (Erreicht wird das durch einen synchronisierten Laserpuls und eine hochgenaue Zeitmessung pro Pixel) Diese Sensoren sind leider sehr teuer und daher auch in Ihrer Auflösung sehr eingeschränkt, da ist dann 128Pixel schon echt "Groß". Von daher haben wir uns sehr ausgiebig damit beschäftigt, was man "zwischen den Pixeln" herauslesen kann. Der erste Reflex ist ja, wo nix gemessen ist kann man auch keine Informationen generieren.... Aber ich denke das auch bei den WB Herstellern einige findige Entwickler arbeiten und da geht schon mehr als man im ersten Moment glauben möchte.
Zuerstmal möchte ich sagen, dass alles was Wakan über Auflösung des Sensors, die Optik und die Statistik geschrieben hat, so vollkommen richtig ist. Ich würder euch trotzdem auf ein Gedankenexperiment einladen um zu erklären warum man mit einem WB Gerät Streukreise schiessen kann die unterhalb der Auflösung des Sensors liegen:

Gehen wir an den Schiessstand mit einer WB Kamera die sagen wir mal 2,5cm pro Pixel Auflösung auf 100m hat. Hängen wir ein Wärmepad mit 2,5 cm an die 100m Scheibe, dann füllt das genau ein Pixel aus, dieses leuchtet, der Rest ist dunkel.
Schwenken wir nun das Gewehr 2,5cm zur Seite, nun leutet der Nachbarpixel, Rest ist dunkel.
Wir haben gezeigt, dass die WB Kamera 2,5cm Auflösung hat.

Wie schaut es nun mit der Präzision aus?
Bewegen wir uns nun langsam wieder die 2,5cm zurück, was beobachten wir?
Das Pixel springt nicht digital zurück, sondern es wird immer weniger Wärmestrahlung von dem einen Pixel eingefangen, so dass es dunkler wird.
Der Nachbar wird heller, genau in der Mitte sind beide gleichhell.
Es ist also möglich eine Aussage über die Lage des Absehens zu machen die genauer ist als die Auflösung. Sie hängt von der Sensitivität des Sensors, der Hitze des Pads und der Umgebungstemperatur ab.
Man kann also am Schießstand eine Präzision erreichen die über der Auflösung des Sensors liegt. Das funktioniert so lange, wie das Wärmepad > Pixel ist, den dann kann man das immer einmitteln. Bzw die Software in der WB kann das bei der Umrechnung aufs hochauflösende Display erledigen.
Somit kann man auch Streukreise schießen die <Auflösung liegen

Ist das Jagdlich umsetzbar?
Nun stellt sich die Frage was an Software die Hersteller da eingebaut haben. Da sie ja wissen wie das Ziel in etwa aussieht gibt es da einiges an Möglichkeiten:
Das Ziel ist sicher viel größer als 1 Pixel, es wird niemand auf Mäuse oder einen Bienenschwarm zielen, somit kann man Randpixel mit Flächenpixel vergleichen, wenn man annimmt dass der Wildkörper auf seiner Oberfläche eine halbwegs homogene Temperaturverteilung hat, kann man die Randpixel auf Grund ihrer Helligkeit in 1/2 oder 1/4 Pixel umrechnen und eine Kantenerkennung über 3-4 Pixel machen.
Dadurch wird die Kante des Wildkörpers in einer höheren Genauigkeit dargestellt! als die Auflösung des Sensors indem man die thermale Auflösung des Sensors mitnutzt.

Wir schiessen aber nicht auf Kanten, sondern auf Körper, also den Raum zwischen zwei Kanten (klingt blöd ich weiss...) Wir haben also immer mindestens 2 Punkte aus denen wir unsere Trefferlage ableiten, wir benutzen also mehrere Pixel des WB Bildes um unsere Trefferlage zu bewerten.
Hier ist es jetzt statistisch so, dass sich pro Verdopplung der Messpunkte eine Verbesserung um den Faktor 1,4 ergibt. Somit kann man ein Objekt dessen Form deutlich mehr als einen Pixel abdeckt besser anvisieren als es die Auflösung eines Pixels erwarten lassen würde.

Ohne zu wissen was der Algorithmus der Hersteller da macht ist das vermutlich sehr schwer belastbar. Ich bin mir aber ziemlich sicher, dass dort viel im Hintergrund gerechnet wird. Ich habe 2 Kameras und beide zeigen mir z.B Rehbeine auf dem Hochauflösenden Videodisplay, die sie nach einer Auflösungsbetrachtung des Sensors eigentlich gar nicht sehen dürften. Feine Strukturen wie Beine, Mäuse oder Insekten werden da trotzdem sichtbar gemacht.

Apropo hochauflösendes Display, dies macht meiner Meinung nach schon Sinn, denn jede SW basierte Bildverbesserung braucht ja ein mehr an Darstellung um es darzustellen.
Ausserdem wird beim Einschießen ja der WB Sensor ja im Bild verschoben, hätten jetzt beide die selbe Auflösung würde jede Korrektur dazu führen, das nutzbarer Sensorbereich verloren geht. Ausserdem definiert die Auflösung des Displays die Genauigkeit der "Tickverstellung" beim Einschiessen. Ich persönlich halte daher eine Displayauflösung von 2-3x Sensor durchaus für sinnvoll - aber das ist nur meine Meinung... ;-)

Mein Fazit: Was Wakan geschrieben hat ist eine völlig korrekte Worst Case Abschätzung, meiner Meinung nach lässt sich die Präzision an einem Wärmepad mit scharfen Kanten am Schießstand sicher um Faktoren 2-4 erhöhen. Jagdlich muss das jeder selbst verantworten, mein Bauchgefühl sagt, dass da vielleicht der Faktor 1,5-2 möglich ist. Aber um das zu belegen bräuchte es Tests in realen Bedingungen ...
Die Technologie hat aber vermutlich am Schießstand mit Wärmepad deutlich mehr Performance als am Hochsitz, von daher wäre ich vorsichtig, die Erkenntnisse vom Schießstand direkt 1:1 mit ins Revier zu nehmen.

WMH!
 
Registriert
18 Dez 2008
Beiträge
1.972
Ich nutze den Wärmepad absolut selten.
Die beste Ergebnisse habe ich mit einfache Papierscheibe - weisse Mitte, schwarze Ringen. Disen drehe ich um, also die schwarze Ringe sind nach hinten orientiert.
Das Temperaturunterschied bei entsprechende Aussentemperatur reicht dazu, dass mein Vorsatz einen kleinen scharfen weissen Ring sieht. Darauf klebe ich oft den orangen Aufkleber, der noch mehr Temperaturunterschied zwischen hintere und vordere Seite des Papiers verursacht. Wenn würde ich die Scheibe nicht drehen und die schwarze Ringen wurden auf der sichtbare Seite bleiben, dann ist es zu viel und das Ergebniss wäre nicht so scharf.
Damit habe ich perfekte Scheibe zum Einschissen. Es ist deutlich schärfer als Wärmepad. Der wird nur dann genutzt, wenn es wirklich kalt ist, oder die Sonne gar nicht scheint.

Somit sind auch sehr enge Streukreise auch mit dem Vorsatzgerät machbar. Die Infiray CH50V2 hat NETD zwar nur <= 40mK, aber ich konnte schon mehrere Male eine Erfahrung machen, das andere Geräte mit etwas besseren NETD Wert "meine Scheibe" nicht sehen können, oder das Bild ist nocht so scharf.

pistolak.jpg
 
Registriert
6 Sep 2012
Beiträge
89
Frage an die glücklichen Hikmicro-Nutzer: schaltet der Neigungssensor beim Thunder/Condor nur beim Kippen nach oben/unten ab, oder auch wenn die Geräte flach auf die Seite gelegt werden?
 
Registriert
20 Aug 2014
Beiträge
33
Das Falcon FQ50 schaltet ab wenn du es zur Seite rollst, leider ist der Winkel nicht einstellbar.
Mich nervt dass es sich einschaltet, wenn es um den Hals hängt und man sich zurücklehnt, dann blendet es einem von unten direkt ins Gesicht. Ich hängs dann 180° verdreht um den Hals und zum Beobachten mach ich dann die 180° Drehung.
Das Thunder 3.0 schaltet ab, wenn du es seitlich >45Grad verkippst oder wenn du es steiler als 75-80° stellst. In meiner typischen "Abstellposition" Schaft auf Bank und Lauf auf Auflage läuft es weiter. Ist aber für mich kein Problem, den der Akku hält viel länger als mein Hintern, von daher kanns durchlaufen...

Gruß
 
Registriert
23 Jun 2020
Beiträge
347
Hallo,

ich würde gerne meine Gedanken zum Thema Präzision/Streukreise und Auflösung mit euch teilen. Ich arbeite bei einem Automobilkonzern in der Vorentwicklung für Sensorik und beschäftige mich zum Teil auch mit Time of Flight Kameras, die neben der Helligkeitsinformation auch Entfernungen pro Pixel messen (Erreicht wird das durch einen synchronisierten Laserpuls und eine hochgenaue Zeitmessung pro Pixel) Diese Sensoren sind leider sehr teuer und daher auch in Ihrer Auflösung sehr eingeschränkt, da ist dann 128Pixel schon echt "Groß". Von daher haben wir uns sehr ausgiebig damit beschäftigt, was man "zwischen den Pixeln" herauslesen kann. Der erste Reflex ist ja, wo nix gemessen ist kann man auch keine Informationen generieren.... Aber ich denke das auch bei den WB Herstellern einige findige Entwickler arbeiten und da geht schon mehr als man im ersten Moment glauben möchte.
Zuerstmal möchte ich sagen, dass alles was Wakan über Auflösung des Sensors, die Optik und die Statistik geschrieben hat, so vollkommen richtig ist. Ich würder euch trotzdem auf ein Gedankenexperiment einladen um zu erklären warum man mit einem WB Gerät Streukreise schiessen kann die unterhalb der Auflösung des Sensors liegen:

Gehen wir an den Schiessstand mit einer WB Kamera die sagen wir mal 2,5cm pro Pixel Auflösung auf 100m hat. Hängen wir ein Wärmepad mit 2,5 cm an die 100m Scheibe, dann füllt das genau ein Pixel aus, dieses leuchtet, der Rest ist dunkel.
Schwenken wir nun das Gewehr 2,5cm zur Seite, nun leutet der Nachbarpixel, Rest ist dunkel.
Wir haben gezeigt, dass die WB Kamera 2,5cm Auflösung hat.

Wie schaut es nun mit der Präzision aus?
Bewegen wir uns nun langsam wieder die 2,5cm zurück, was beobachten wir?
Das Pixel springt nicht digital zurück, sondern es wird immer weniger Wärmestrahlung von dem einen Pixel eingefangen, so dass es dunkler wird.
Der Nachbar wird heller, genau in der Mitte sind beide gleichhell.
Es ist also möglich eine Aussage über die Lage des Absehens zu machen die genauer ist als die Auflösung. Sie hängt von der Sensitivität des Sensors, der Hitze des Pads und der Umgebungstemperatur ab.
Man kann also am Schießstand eine Präzision erreichen die über der Auflösung des Sensors liegt. Das funktioniert so lange, wie das Wärmepad > Pixel ist, den dann kann man das immer einmitteln. Bzw die Software in der WB kann das bei der Umrechnung aufs hochauflösende Display erledigen.
Somit kann man auch Streukreise schießen die <Auflösung liegen

Ist das Jagdlich umsetzbar?
Nun stellt sich die Frage was an Software die Hersteller da eingebaut haben. Da sie ja wissen wie das Ziel in etwa aussieht gibt es da einiges an Möglichkeiten:
Das Ziel ist sicher viel größer als 1 Pixel, es wird niemand auf Mäuse oder einen Bienenschwarm zielen, somit kann man Randpixel mit Flächenpixel vergleichen, wenn man annimmt dass der Wildkörper auf seiner Oberfläche eine halbwegs homogene Temperaturverteilung hat, kann man die Randpixel auf Grund ihrer Helligkeit in 1/2 oder 1/4 Pixel umrechnen und eine Kantenerkennung über 3-4 Pixel machen.
Dadurch wird die Kante des Wildkörpers in einer höheren Genauigkeit dargestellt! als die Auflösung des Sensors indem man die thermale Auflösung des Sensors mitnutzt.

Wir schiessen aber nicht auf Kanten, sondern auf Körper, also den Raum zwischen zwei Kanten (klingt blöd ich weiss...) Wir haben also immer mindestens 2 Punkte aus denen wir unsere Trefferlage ableiten, wir benutzen also mehrere Pixel des WB Bildes um unsere Trefferlage zu bewerten.
Hier ist es jetzt statistisch so, dass sich pro Verdopplung der Messpunkte eine Verbesserung um den Faktor 1,4 ergibt. Somit kann man ein Objekt dessen Form deutlich mehr als einen Pixel abdeckt besser anvisieren als es die Auflösung eines Pixels erwarten lassen würde.

Ohne zu wissen was der Algorithmus der Hersteller da macht ist das vermutlich sehr schwer belastbar. Ich bin mir aber ziemlich sicher, dass dort viel im Hintergrund gerechnet wird. Ich habe 2 Kameras und beide zeigen mir z.B Rehbeine auf dem Hochauflösenden Videodisplay, die sie nach einer Auflösungsbetrachtung des Sensors eigentlich gar nicht sehen dürften. Feine Strukturen wie Beine, Mäuse oder Insekten werden da trotzdem sichtbar gemacht.

Apropo hochauflösendes Display, dies macht meiner Meinung nach schon Sinn, denn jede SW basierte Bildverbesserung braucht ja ein mehr an Darstellung um es darzustellen.
Ausserdem wird beim Einschießen ja der WB Sensor ja im Bild verschoben, hätten jetzt beide die selbe Auflösung würde jede Korrektur dazu führen, das nutzbarer Sensorbereich verloren geht. Ausserdem definiert die Auflösung des Displays die Genauigkeit der "Tickverstellung" beim Einschiessen. Ich persönlich halte daher eine Displayauflösung von 2-3x Sensor durchaus für sinnvoll - aber das ist nur meine Meinung... ;-)

Mein Fazit: Was Wakan geschrieben hat ist eine völlig korrekte Worst Case Abschätzung, meiner Meinung nach lässt sich die Präzision an einem Wärmepad mit scharfen Kanten am Schießstand sicher um Faktoren 2-4 erhöhen. Jagdlich muss das jeder selbst verantworten, mein Bauchgefühl sagt, dass da vielleicht der Faktor 1,5-2 möglich ist. Aber um das zu belegen bräuchte es Tests in realen Bedingungen ...
Die Technologie hat aber vermutlich am Schießstand mit Wärmepad deutlich mehr Performance als am Hochsitz, von daher wäre ich vorsichtig, die Erkenntnisse vom Schießstand direkt 1:1 mit ins Revier zu nehmen.

WMH!
Hallo, knatt das sind sehr interessante Fragen und Überlegungen.

Es geht primär, ob die Präzision von Wärmebild-Vorsatzgeräten durch neue Technologien verbessert werden kann, insbesondere bei kleineren Streukreisen unterhalb der Pixelabdeckung. Solche Lösungen sind zwar möglich, aber unpraktisch, da die herkömmliche Bolometertechnik zu langsam ist, um bessere Auflösungen zu erzielen.

Herkömmliche Methoden wie Interpolation sind nicht ausreichend, um die gewünschten Ergebnisse zu erreichen, besonders wenn man in das Bild hineinzoomt, da die Fehler dabei zunehmen.

Um mehr Thermalinformationen zu erhalten, müssen zeitkritische Methoden wie Zeilensensoren, MicroScan und Superresolution verwendet werden. Der Schlüssel liegt darin, echte Thermalinformationen zu nutzen, anstatt nur interpolierte Werte zu erzeugen.

Herkömmliche Sensoren sind zu langsam, da ungekühlte Mikrobolometer eine begrenzte thermische Zeitkonstante aufweisen. Dies führt von Anfang an zu einer erhöhten Latenz, die sogar in der Praxis Probleme verursachen. Daher scheiden solche Sensoren für einen zusätzlichen Informationsgewinn ohnehin aus.

Professioneller Bereich:

Superresolution:

Superresolution kombiniert Informationen aus mehreren Bildern, um die Bildqualität zu verbessern. Mess-Wärmebildkameras erzielen durch die Analyse von Temperaturveränderungen innerhalb desselben Pixels eine tatsächlich höhere Auflösungsleistung. Diese Technik erhöht die Pixelauflösung, ist jedoch für marktübliche Jäger-Wärmebildkameras nicht praktikabel.

Interpolation, die Technik vieler Konsumer-Wärmebildkameras:

Interpolation schätzt neue Pixelwerte zwischen vorhandenen Pixeln, um Bilder zu vergrößern, ohne neue Informationen zu erfassen. Dies kann die Präzision (Streukreis) verschlechtern, da keine echten Details hinzugefügt werden.

Unterschied zwischen Superresolution und Interpolation:

Informationsgehalt:

Superresolution nutzt zusätzliche Informationen, während Interpolation nur vorhandene Pixelwerte schätzt.

Präzision:

Interpolation kann das Bild zwar vergrößern, aber nicht präziser machen. Superresolution kann die Präzision erhöhen, indem sie echte Messungen verwendet.

MicroScan und Zeilensensor:

MicroScan verwendet ein schnell rotierendes Rad, um die Pixelauflösung zu erhöhen. Es erzeugt in Echtzeit ein Bild mit viermal mehr Pixeln, wobei jedes Pixel einen echten Temperaturwert darstellt. Diese Technologie ist sehr präzise und schnell, wird jedoch nicht im aktuellen Markt für handelsübliche Geräte eingesetzt.

Zeilensensoren bestehen aus einer Reihe lichtempfindlicher Pixel, die zeilenweise scannen. Ein beweglicher Spiegel lenkt das Licht auf die Sensorzeile. Diese Technik erreicht hohe Auflösungsraten, ist jedoch aufgrund von Kryokühlung, mechanischer Steuerung und Energieverbrauch im Konsumerbereich nicht zu finden.

Deshalb betrachte ich empirische Beobachtungen als nicht wirklich zielführend.

LG. WAKAN
 
Registriert
13 Sep 2016
Beiträge
3.562
Ok, nächstes Gedanken Experiment… man hat drei Fenster im gleichen Abstand. Die beiden äußeren sind hell erleuchtet… es gilt jetzt das dunkle Fenster zu treffen! Wenn man genau zwischen die beiden hellen Fenster ins Nichts zielt, kann man es durchaus treffen, besser wäre es aber, wenn es ebenso hell erleuchtet wäre.
 
Registriert
23 Jun 2020
Beiträge
347
Ok, nächstes Gedanken Experiment… man hat drei Fenster im gleichen Abstand. Die beiden äußeren sind hell erleuchtet… es gilt jetzt das dunkle Fenster zu treffen! Wenn man genau zwischen die beiden hellen Fenster ins Nichts zielt, kann man es durchaus treffen, besser wäre es aber, wenn es ebenso hell erleuchtet wäre.
Hallo Heilo, das ist ein guter Gedanke.

Das angesprochene Problem besteht nicht darin, einfach auf etwas zu schießen, sondern vielmehr darin, ob das Ziel, auf das man zielt, tatsächlich dort ist, wo man es sieht. Dies ist das Phänomen der Pixelabdeckung bei Vorsatzgeräten.

Außerdem kommt es häufig vor, dass man mit einem Klick am Vorsatzgerät nicht nachjustieren kann, weil der interessierte Zielpunkt einfach beim nächsten Klick übersprungen wird.

LG. WAKAN
 
Registriert
20 Aug 2014
Beiträge
33
Moin, also ich hab mir das heute nacht am Sauansitz nochmal (Pixel)genau angesehen.
Ich hab auf der Waffe ein HM Thunder 3.0 mit dem 35mm Objektiv und dem 384er Sensor in Kombination mit dem Oled Display mit 1920 Pixel. Also das absolute Maximum an Diskrepanz zwischen den Auflösungen was man aktuell kaufen kann.
Wenn man das ZF auf 10-12x hochdreht kann man die Pixel des Displays erkennen.
Also pro Sensor Pixel in der X-Achse 5 Pixel am Display. Man möchte erwarten, dass beim seitlichen langsamen schwenken das Objekt in 5er Schritten im Display springt.
Aber egal wie ich schwenke, x, y oder Diagonal, das betrachtete Objekt bewegt sich im Display Pixel für Pixel, kein Rauschen, kein Springen nix.
Den Eindruck den man dabei gewinnt ist, dass die Details des Objektes mit 384 Pixel wiedergegeben werden und die Lage des Objektes im ZF mit 1920.
Und das sowohl für kleine Objekte wie Mäuse als auch Kanten von größeren wie Rehwild.
Also auch Objekte die gerade mal einen WB-Pixel abdecken wandern beim Schwenken mit Display-Pixel Quantisierung, dabei bleibt das Objekt auch immer gleich groß.

Also keine Ahnung was da intern abläuft. Da im Gerät sowohl ein Lage-Sensor als auch ein Beschleunigungssensor verbaut ist, wäre sogar denkbar dass noch weitere Sensoren mit genutzt werden. Was davon "Show" ist und was echte Positionsgenauigkeit kann uns nur Hikmicro beantworten. Schade das sowas wie "Genauigkeit" keinen Weg in die Spezifikation gefunden hat...
 
Registriert
20 Aug 2014
Beiträge
33
P.S. HICMICRO gibt zumindestens die Click-Einstellgenauigkeit mit 1,3cm/100m

HIKMICRO Wärmebild-Vorsatzgerät THUNDER 3.0 hat einen ultrapräzisen Klickwert, der eine Feinabstimmung mit einer Genauigkeit von 1,3 cm@100 m erlaubt. Dieser Grad an Präzision verbessert die Nullstellungsgenauigkeit deutlich und stellt sicher, dass jeder Schuss so genau wie möglich ist, für ein erfolgreicheres Jagderlebnis.
 
Registriert
23 Jun 2020
Beiträge
347
Moin, also ich hab mir das heute nacht am Sauansitz nochmal (Pixel)genau angesehen.
Ich hab auf der Waffe ein HM Thunder 3.0 mit dem 35mm Objektiv und dem 384er Sensor in Kombination mit dem Oled Display mit 1920 Pixel. Also das absolute Maximum an Diskrepanz zwischen den Auflösungen was man aktuell kaufen kann.
Wenn man das ZF auf 10-12x hochdreht kann man die Pixel des Displays erkennen.
Also pro Sensor Pixel in der X-Achse 5 Pixel am Display. Man möchte erwarten, dass beim seitlichen langsamen schwenken das Objekt in 5er Schritten im Display springt.
Aber egal wie ich schwenke, x, y oder Diagonal, das betrachtete Objekt bewegt sich im Display Pixel für Pixel, kein Rauschen, kein Springen nix.
Den Eindruck den man dabei gewinnt ist, dass die Details des Objektes mit 384 Pixel wiedergegeben werden und die Lage des Objektes im ZF mit 1920.
Und das sowohl für kleine Objekte wie Mäuse als auch Kanten von größeren wie Rehwild.
Also auch Objekte die gerade mal einen WB-Pixel abdecken wandern beim Schwenken mit Display-Pixel Quantisierung, dabei bleibt das Objekt auch immer gleich groß.

Also keine Ahnung was da intern abläuft. Da im Gerät sowohl ein Lage-Sensor als auch ein Beschleunigungssensor verbaut ist, wäre sogar denkbar dass noch weitere Sensoren mit genutzt werden. Was davon "Show" ist und was echte Positionsgenauigkeit kann uns nur Hikmicro beantworten. Schade das sowas wie "Genauigkeit" keinen Weg in die Spezifikation gefunden hat...
Hallo Knatt, ich finde deine Betrachtungen sehr interessant und aufschlussreich.

Ich möchte hinzufügen, dass es vorteilhaft wäre, die Messungen in Bezug auf die reale Szene zu berücksichtigen, da dadurch aussagekräftigere Ergebnisse erzielt werden könnten.

Warum?

Pixelabdeckung und Verschiebung:

Wenn du durch das Zielfernrohr auf ein Display schaust, wird die gesamte reale Szene um maximal die Größe der Pixelabdeckung verschoben, die von der unbekannten Position des Zielpunkts innerhalb der Fläche von 3,4 x 3,4cm abhängt. Dadurch wird das Bild, das durch das Vorsatzgerät angezeigt wird, im Vergleich zur realen Szene in Bezug auf die Sensor-Pixel "verschoben". Dies bedeutet, dass die Darstellung der Szene auf dem Display nicht die tatsächliche Realität widerspiegelt. Die reale Welt wird verzerrt, und die Abbildung hat nichts mehr mit der direkten Betrachtung durch das Zielfernrohr zu tun.

Man könnte auch sagen, dass Vorsatzgeräte sowohl als "Zeitmaschinen" fungieren, da man aufgrund der Latenz immer eine Darstellung einer Szene aus der Vergangenheit betrachtet, als auch als "Realitätsverschiebungsgeräte", weil die reale Welt innerhalb der Pixelabdeckung verschoben wird.

Ohne Berücksichtigung von Beugung, Aria-Disk, Nyquist-Alising und MTF kann man die Situation vereinfacht wie folgt darstellen.

Die Problematik der Zielpunktverschiebung lässt sich am besten durch die Betrachtung eines Messpunkts (Zielpunkt) erklären. Bei einem 384 x 288 Sensor mit einer Pixelgröße von 12µm und einer Brennweite von 35mm wird der Messpunkt auf einen Pixel am Sensor, der auf 100m eine Fläche von 3,4 cm x 3,4cm abdeckt. Innerhalb dieser Pixelfläche wissen wir jedoch nicht, wo sich der tatsächliche Messpunkt (Zielpunkt) befindet. Er liegt irgendwo innerhalb eines der Pixel, was bedeutet, dass wir keine präzise Position des anvisierten Zielpunkts bestimmen können.

Wenn das Bild auf einem Display mit höherer Auflösung angezeigt wird, kommt in der Regel Interpolation zum Einsatz, um die Bilddaten anzupassen. Dies führt dazu, dass die Position der dargestellten Pixel auf dem Display nicht direkt mit der Position der Sensorpixel übereinstimmt. Diese Interpolation verursacht eine zusätzliche Verschiebung der Pixelfläche, ohne dass der Zielpunkt (Messpunkt) nachjustiert wird. Der Zielpunkt wird lediglich durch das Zielfernrohr projiziert, weshalb eine Interpolation im Vorsatzgerät diese Diskrepanz nicht ausgleichen kann. Es handelt sich um zwei unabhängig funktionierende Systeme (Zielfernrohr und Vorsatzgerät).

Verwendest du hingegen ein 384 x 288 Display und zoomst optisch mit dem Zielfernrohr hinein, gibt es keine Faktoren, die den Zielpunkt und die Szene beeinflussen können, da der Zielpunkt mit dem Sensor übereinstimmt. In diesem Fall liegt die Position eines Pixels, wie im Beispiel mit 3,4 cm x 3,4 cm, genau an einem uns nicht genau definierten Punkt. Das bedeutet, dass es egal ist, wie weit und wie viel man zoomt, das Bild wird lediglich mehr oder weniger verpixelt, ohne dass sich die grundlegende Beziehung zwischen Zielpunkt und Sensor ändert.

Bei der Verwendung eines Displays mit höherer Auflösung (z. B. 1920 Pixel) wird die Bilddarstellung durch Interpolation angepasst, während der Zielpunkt am Sensor unverändert bleibt. Dies führt zu einer zunehmenden Abweichung zwischen dem Sensor-Messpunkt und dem Displayfadenkreuz. Je mehr man in ein solches System hineinzoomt, desto größer wird diese Diskrepanz. Dies verstärkt die Verschiebung des Zielpunkts am Display, da die Abweichungen zwischen dem Zielpunkt und dem Sensor mit jeder Zoomstufe zusätzlich verschoben werden. Je größer der Zoom, desto stärker werden die Fehler, insbesondere in Verbindung mit der ohnehin fehlerverstärkenden hohen Displayauflösung.

Um diese Abweichungen zu testen, sind gängige Hausmittel ausreichend, um diese zu ermitteln, zwar nicht in Zahlen, aber in ausreichendem Maße bei optischer Betrachtung. Man benötigt lediglich mehrere Bildaufnahmen durch das Zielfernrohr und anschließend mit dem Vorsatzgerät. Mit gängigen Bildbearbeitungsprogrammen können diese Bildserien durch Methoden wie Addition und Subtraktion analysiert werden, um die Realitätsverschiebungen eines Zielpunkts elegant zu ermitteln und darzustellen.

LG. WAKAN
 

Online-Statistiken

Zurzeit aktive Mitglieder
61
Zurzeit aktive Gäste
200
Besucher gesamt
261
Oben