Horia-Methode als Echtzeitvideo

  • Hallo Karbofreunde,
    hatte ja versprochen eine Software zu basteln, mit der man Bildaddition in Echtzeit machen kann.
    Hier sodann der erste Versuch an einem (6" f/5).
    Das Bild zeigt von links nach rechts das Original von der WebCam und als zweites die Summation aus Spiegelbild und original.
    Was meint ihr ? Sieht doch schon prima aus oder?
    Ich muss natürlich noch die Bildparameter anpassbar machen, also Helligkeit, Kontrast etc.
    Jetzt kann man eine Zone direkt anfahren und messen :) Also wieder wie gehabt und nicht rückwärts [:D]
    Überigens, für die Glasstaubsüchtigen, die bereits nach der Bildsummation per Einzelbild gearbeitet haben. Wenn die Klinge auch nur um Bruchteile eingeschwenkt wird, ändert sich sofort heftig der angezeigete Zonenring!
    Ich vermute allerdings, das dies auch durch die 'Rohverarbeitung' in meinem Programm hervorgerufen wird, da ich nicht auf die Maximal und Minimalwerte skaliert habe. Das kommt im nächsten Schritt.



    Für etwaige Anregungen und Kritik wäre ich sehr dankbar.

  • hi peter,


    um welche achse spiegelst du denn ?
    du invertierst doch das originalbild bevor du das gespiegelte aufaddierst oder ?
    wenn man helligkeit oder kontrast verändert dann änder sich doch bestimmt leider der zonenradius oder ?


    l.g. robert

  • Hallo Robert,
    gespiegelt wird um die vertikale Achse. Invertiert wird nix, nur gespiegelt. (Ich weiss nicht genau was du mit invertieren meinst).
    Ja, wenn die Helligkeit geändert wird, saust der Zonenring heftig hin und her. Soll heissen, der Durchmesser ändert sich heftig. Das gleiche gilt für die Ausrichtung auf die Mitte, der ich im Moment noch keine Beachtung geschenkt habe. Kommt noch.
    Ich denke im Moment noch darüber nach, wie die Ausrichtung am besten automatisch erkannt werden kann bzw. welche Anhaltspunkte in dem Bild helfen würden.
    Ohne Skalierung der RGB-Werte bzw. Umrechnung in Grauwerte wird das aber nix. Hier muss ich erstmal für klare Verhältnisse sorgen.
    Da ich beliebig viele Filter hintereinanderschalten kann, ist eine Beobachtung recht leicht. Der nächste Filter wird ein Histogramm und eine horizontale Helligkeitsverteilung in der Spiegelmitte, damit man ersteinmal sieht was dort 'los ist'.


    aloa

  • hi peter,


    wenn du gespiegeltes bild und originalbild addierst, dann addierst du ja jeweils helle zu dunklen teilen (und dunkle zu hellen) dann geht ja der kontrast völlig verloren.
    um dein bild zu erklären musst du doch vom gespiegeleten das originale abziehen oder liege ich da komplett falsch ?


    l.g. robert

  • Hallo Robert,
    war vielleicht etwas unglücklich ausgedrückt. Summation heist hier auch Subtraktion. Also die Funktion sieht so aus:
    P(n) = PO(n) - PM(n) // für PO = pixel original, PM = Pixel an gespiegelter Position. P = Result Pixel, n = Position.
    Ich subtrahiere also sofort, da ja das ganze in Echtzeit passiert. Ich muss also nicht erst spiegeln sondern lese die Pixel direkt vom Original einmal 'vorwärts' und direkt 'rückwärts' um das neue Bild zu erzeugen.

  • Aloa,
    so, hier die verbesserte Version der Video-Verarbeitung in Echtzeit mit Grauwerten. Das Bild zeigt die Differenz des gespiegelten und des nicht gespiegelten Bildes mit einem Schwellwert von 6 Graustufen.
    Anders gesagt, alles was groesser ist als Grauwet 6 wird zu 255 (weiss).
    Man kann doch schon was erkennen oder ? [:D]


    Nachtrag: Ich habe herausgefunden, das die Umgebungshelligkeit bei dieser Art der Auswertung sehr grossen Einfluss auf das Ergebnis hat. Ich habe dem bislang keine Beachtung geschenkt und die visuelle Messung war gleichermassen gut, mit Tageslicht und auch ohne. Hier bei dieser Messung schlägt Streulicht gnadenlos zu. Es sind die Ameisen am Spiegelrand. Im abgedunkelten Raum kann man die Fase ebenso gut erkennen wie die Zone.
    Eine weitere erschreckende Erkenntniss ist die Tatsache, das ich bislang dachte, die Kante sei in der Nähe der Fase 'zu Ende'[8D]. Tja, mit dieser Messmethode kommt was ganz anderes zum Vorschein!!!
    Je weiter man zum Rand kommt, desto länger wird die Schnittweite, kurz gesagt: Da hängt erheblich mehr als vorher visuell erkannt.[:(]

  • hi peter,


    die richtige schneidenposition sollte diejenige sein welche innerhalb der spiegelfläche den grösst möglichen kontrast erzeugt.
    schwenkt man zu wenig ein wird das bild insgesamt zu hell -> wenig kontrast
    schwenkt man zu viel ein wird das bild insgesamt zu dunkel -> wenig kontrast
    schwenkt man gerade richtig ein müssten die hell dunkel stellen am deutlichsten hervortreten -> maximaler kontrast.


    d.h. während die helligkeit beim einschwenken stetig sinkt sollte der kontrast zunächst ansteigen, ein maximum erreichen und dann wieder abfallen.


    du könntest also versuchen eine echtzeitausgabe des kontrastes auszugeben als hilfe für die korrekte schneidenpos.


    l.g. robert

  • Hallo Robert,
    gute Idee. Ich denke mal, das ist ähnlich zu berechnen wie ein Autofokus via Histogramm oder? Klar ein HIstogramm ist einfach, aber wie dann weiter?[:p] Ich würde mal aus dem Bauch heraus sagen, die Summe der Abstände der Histogramm-Maxima sollte möglichst gross sein oder so? Hmmm, wer kann da helfen ?
    Aber selbst wenn man dann das Maximum an Kontrast gefunden hat, wer sagt, das dann die angezeigte Zone richtig ist? Wie schon oben erwähnt, ändert sich die Position des Zonenrings mit dem Verändern der lateralen Klingenposition heftig.
    Nochmal aus dem Bauch....die seitliche Verschiebung der Klinge darf keinesfalls eine andere Zone ergeben, sonst ist das ganze Verfahren ein Mumpitz.

  • hallo peter,


    ich würde sagen
    summe((h-hm)^2) -> max
    in anderen worten von allen pixelhelligkeiten die mittlere pixelhelligkeit abziehen, quadrieren und über alle pixel aufsummieren.


    sind alle pixel gleich hell ->0
    sind alle pixel möglichst unterschiedlich hell ->max


    l.g. robert

  • Hallo Peter,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: dolphin</i>
    <br />Aloa,
    so, hier die verbesserte Version der Video-Verarbeitung in Echtzeit mit Grauwerten. ...


    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    das Bild sieht schon mal irgendwie vertraut aus. Ich kann Dir bei Bedarf gerne einige Foucault- Bilder per PM rüberschicken, die ich schon nach dem manuellen Bild- Verfahren und FoucaultXP ausgewertet habe. Mal sehen ob nach Deiner Auswertung relevante Unterschiede geben wird.


    Gruß Kurt

  • Hallo Kurt,
    urghs, jetzt schaut der Guru zu :)
    Bilder ? klar, rüber damit. pweber(ättchen)qnx.de .Wäre allerdings toll, wenn die Bilder genau 320x280 Pixel haben(JPG, PNG, BMP). Andernfalls muss ich halt noch warten bis die Software mindestens Beta-Status hat, sonst mache ich den zweiten Schritt vor dem ersten :)


    Ich fummle gerade noch an vier wichtigen Dingen.
    1) Der automatische Kontrast (nach Robert:-) )
    2) Bandspreizung durch min/max Graustufen
    3) Automatische Spiegel-Erkennung um irrelevante Bildbereiche aus der Verarbeitung zu nehmen und gleichzeitig die Geometrien zu erkennen. (fast fertig)
    4) Lottozahlen für Samstag ausrechnen lassen.


    Kurt, hast Du die Spiegel auf den Bildern schon mal mit Lasern beschossen ? ;)


    BTW: Das macht wirklich Laune, durch die Zonen zu dängeln und dabei eine rasiermesserscharfe Zone zu sehen :-))))

  • Hallo Peter,<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">urghs, jetzt schaut der Guru zu :)
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">wo gurrt es denn? wenn es um Prüfungen von Optik geht gibt es viele Wege zum Glück[:D]
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bilder ? klar, rüber damit. pweber(ättchen)qnx.de .Wäre allerdings toll, wenn die Bilder genau 320x280 Pixel haben(JPG, PNG, BMP). <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Natürlich könnte ich meine Bilder entsprechend verkleinern. Da wäre nur die Frage, ob das Gesamtbild genau die 320x320 Pixel haben soll oder das darin enthaltene Foucaultbild. Generell wäre mir diese Bildgröße allerdings zu klein, weil es bei RoC- Auswertungen gleich welcher Art auf die exaktgenaue Definition des Bilddurchmessers ankommt. Das wird um so kritischer je schneller und größer der Spiegel ist.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Kurt, hast Du die Spiegel auf den Bildern schon mal mit Lasern beschossen ? ;)
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Klar doch, sogar in mehreren "Lagen" mit rotem und grünen Laser:
    Bath in RoC und AC, Michelson (= LUPI) in RoC mit und ohne Kompensation und neuerdings PDI in RoC und "remote". Wahrscheinlich ist dieser 10" f/6 das der meistgeprüfte Spiegel von wer weiß ich wo[:o)].

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">BTW: Das macht wirklich Laune, durch die Zonen zu dängeln und dabei eine rasiermesserscharfe Zone zu sehen :-))))
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Lass Dich wegen meines Einwandes wegen der Bildgröße nicht davon abhalten. Vielleicht kommt ein akzeptables "Preis/Leistungsverhältnis" dabei heraus.


    Gruß Kurt

  • hallo peter, kümmer dich erst mal um die lotto zahlen, ..... der rest ergibt sich dann schon :)


    btw: hast du tatsächlich live bilder mit z.b. 25bilder/sek die du live spiegelst subtrahierts und sonst wie manipulierst und dann z.b. 25manipbilder/sek ausgibst ?


    l.g. robert

  • Hallo Kurt, hallo Robert,


    (==&gt;)Robert:
    joah, 15 Bilder/s, 320x280xARGB32 durch beide Filter und der kommt nichtmal ins Schwitzen (3 bis 4 % CPU last). Ich schiebe jetzt noch einen 'Harmonizer' nach als dritten Filter. Dampf habe ich also genug :) Bei den Lottozahlen knobelt er allerdings doch ganz schön :) An meiner email adresse siehst Du wahrscheinlich wo ich arbeite :) soviel zum Dampf :)


    (==&gt;)Kurt:
    Beim Bilddurchmesser kann man doch bestimmt Abstriche machen wenn man eine so komfortable Messmethode hat. Ich meine, wie sieht dazu im Vergleich die visuelle Beobachtung aus ?
    Klar, 4096 mal-schlag-mich-tot wäre natürlich super, allerdings glaube ich nicht, das man das Ergebnis damit wesentlich verbessert. Wenn ich heute noch dazu komme, poste ich mal eine HC der letzten Version. Die Zone ist so scharf und geschlossen, das man gar nicht anders kann als sie richtig abzulesen. Da die Software die Pixelposition der Zone selbst rauswuselt, muss man nur noch zugucken und zur nächsten Zone dängeln. (Ist, wie hungrig vor der Mikrowelle stehen) :)
    Vielleicht ist das nicht klar heraus gekommen, das sind live Bilder und ich stelle nicht die Schnittweite ein sondern positioniere auf eine Zone wie beim klassischen F-Test.


    ...sodele....jetzt hacke ich weiter.
    aloa

  • Hallo Peter,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">(==&gt;)Kurt:
    Beim Bilddurchmesser kann man doch bestimmt Abstriche machen wenn man eine so komfortable Messmethode hat. Ich meine, wie sieht dazu im Vergleich die visuelle Beobachtung aus ?..
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    hack erst mal weiter. Sobald man Dein Verfahren nachstellen kann wird schnell klar werden wie gut es zu was taugt. Jedenfalls kenne ich jetzt einen mehr den ich vielleicht wegen spezieller Software anbaggern kann[}:)][;)].


    Gruß Kurt

  • So, das fluppt auch.
    Links: Originalbild in Farbe.
    Mitte: Umwandlung in Graustufen, Mittelwertberechnung und Bandspreizung auf maximale Dynamik
    Wie man sieht, erkennt der 'Equalizer' schon die Spiegelgeometrien (bis auf die horizontale Spiegelmitte[}:)] ) und erzeugt linke und rechte Spiegelkante und das vertikale Zentrum. Der Trick, den ich hier anwende ist einfach. Ich ziehe die Klinge soweit zurück, bis ich die linke Kante sehen kann, also der Spiegel ausgeleuchtet ist, dann drücke ich auf einen Knopf und erzeuge eine Map mit den Kantendaten. Ist diese dann dem Filter bekannt, zeigt er sie mit den blauen Linien an. Dinge wie Spiegeldurchmesser etc. werden natürlich analog auch gleich ausgerechnet.
    Das grauwert-korrigierte Bild wird sodann dem nächsten Filter zur Verfügung gestellt.
    Rechts: Hier wird jetzt die eigentliche Bildsummation gemacht und aus den Bilddaten die Zonen extrahiert. Wie man sieht erkennt er die Dinger zwar schon, aber hier bedarf es noch weiterer Tuningarbeit um das ganze wasserdicht zu machen.
    Ich denke hier an eine Fuzzylogik, welche die Zonen 'weich verfolgt' und dann, wenn ich wieder einen magischen Knopf drücke, liest er die Daten von der digitalen Meßuhr ein und ordnet diesen Wert der Zone zu.


    Last but not least, wird dann am Ende eine .fig Datei geschrieben die mit FigureXP eingelesen werden kann.
    Wenn ich es hin bekomme und die nötige Mathematik dazu verstehe, werde ich die eigentliche Auswertung auch noch dazu packen. Dann hat man alles live. (Stellt sich allerdings die Frage, ob man dann nicht wieder das Schummeln anfängt) [:o)]

  • Hallo Dolphin und Co,
    wie löst Ihr das Problem der lateralen Schneideposition in der Software? Dolphin berichtet ja davon, dass die Lage der Schatten bei geringen lateralten Bewegungen der Messerschneide stark verändert wird. Damit wird dann auch die Messung ungenau. Wie wir alle wissen, ist eine Zonenmessung nur dann richtig, wenn die Messerschneide lateral (Quer zur optischen Achse) genau im Mittelpunkt des Lichtkegels liegt. Andreas hat das in einem alten Thread mal hervorragend anhand seiner Software aufgezeigt.


    Also: Wie seid Ihr sicher, dass bei der erfassten Messung die Messerschneide auch genau in der Mitte des Lichtkegels liegt? Die ganze Genauigkeit der Zonenerfassung nützt ja nichts, wenn mit einer falschen lateralen Position ein gröberer Messfehler in die Messung eingeht.


    Von Hand habe ich das Problem so gelöst, dass ich mit einem Draht messe und die richtige Position dann gefunden ist, wenn der mittige vertikale Balken gerade und mittig liegt. Könnte man das auch Photografisch auswerten?


    Hier ein Bild einer solchen Messung.


    Grüsse Max

  • Hallo Max,
    also für die Erfassung der Geometrie habe ich folgendes gemacht. Ich ziehe die Schneide zuerst aus dem Stahlengang und vermesse per Software nur den Durchmesser. Wenn dann die Schneide wieder hineingefahren wird, verschiebt die Software die rechte (bzw. immer sichbare) Kante mit dem Bild. So habe ich zumindest einen Referenzpunkt, von dem ich dann die Mitte und den 'Spiegelbegin' ableiten kann. Da ich auch eine Spiegel-Map erzeuge (alle Randpunkte des Spiegels) kann diese beliebig mit verschoben werden. Damit beschränkt sich die gesamte Berechnung nur auf den Bildteil der den Spiegel zeigt.
    Um zu beurteilen, wann die Klinge genau in der Mitte des Stahlengangs liegt hilft nur die von lupos(Robert) angesprochene Ermittlung des Kontrastes. Ich kann dank der Spiegel-Map aber die Kontrastberechnung auf den Ausschnitt des Spiegel beschränken, was bei Foucault mit Klinge dann auch gut funktioniert. Ob dies allerdings dann auch aus optischen Gesichtspunkten automatisch richtig ist, kann ich nicht sagen. Seit ich die Software angeworfen habe und nun live beobachten kann, wie sich die Zonendurchmesser ändern, wenn man die laterale Klingenposition ändert, bin ich nachdenklich geworden ob ich mit Foucault noch so weiter machen soll und ob nicht andere Verfahren besser geeignet sind. Auch sind trotz Vorverarbeitung des Bildes die Einflüsse der Umgebungshelligkeit nicht zu eliminieren (jedenfalls gelingt _mir_ das nicht).
    Wärend man visuell nichts sieht, zeigt die Bildsummations-Methode heftige Reaktionen.

  • Sorry Max, hatte deinen Beitrag nicht bis zum Ende gelesen [:I].
    Ja, phototechnisch lässt sich natürlich alles auswerten. Ich finde Deinen Ansatz, mit einem Draht zu messen, schon deshalb viel besser, weil man gleich mit einem symetrischen Verfahren beginnt.
    Kannst Du einmal beschreiben, was passiert, wenn:
    1) die Kamera nicht genau hinter dem Draht steht?
    2) die Kamera nicht genau lotrecht zum Draht ist?
    3) den Einfluss des vertikalen Versatzes von Kamera und Lichtquelle (beeinflusst dies die Geometrie. Genauer die Symmetrie)?
    4) Dreht sich der vertikale Schatten nicht, wenn man die Schnittweite verändert wegen Punkt 3)?


    Vielleicht jage ich auch einen Dämonen, der ganz anders heisst. Wenn die Helligkeit so starken Einfluss auf die Vermessung hat, könnte es dann nicht sein, das die Umrechnung eine Farbraumes (RGB) in Grauwerte hier die Probleme bringt( ich verwende 30%R, 59%G, 11%B) . Wie könnte man das vermeiden, also, wie könnte man die reine Helligkeit extrahieren ohne Einfluss der Farbe? Geht das überhaupt ? Ich würde für das Echtzeitverfahren eine Methode benötigen, die durch eine irgendwie geartete Referenzmessung kalibriert wird, sonst hat man nur gerade einmal ein Modell für eine gegebene Kamera mit ihren spezifischen Eigenschaften. Das wäre Unsinn. Bestimmt könnten hier die Photo-Experten wertvolle tips liefern.

  • So, ich kann Entwarnung geben [:D]
    kaum macht man es richtig, schon geht's.
    Hier zwei verschiedene Einstellungen bzgl. lateraler Position. Im ersten Bild habe ich die Klinge heftig rein gefahren. Automatisch ermittelter Zonenradius = 46,631mm.



    Hier habe ich die Klinge extrem weit heraus gefahren. Gemessener Zonenradius = 46,631mm [:p][:p][:p]


    ...und so wird vorher die Geometrie aufgenommen.
    Wenn sich infolge der lateralen Bewegung der Spiegel im Bild bewegt, wird dies via Verfolgung der rechten, immer sichtabren Kante automatisch korrigiert.


    ....so, jetzt kann es weiter gehen mit der polliererei.

  • Hallo Peter,
    Da ich meine Messungen bislang nur visuell durchführte und solch schöne Bilder eigentlich nur der Schönheit willen [8D] gemacht habe, kann ich Dir auf Deine Fototechnischen Fragen nicht schlüssig antworten. Eine möglichst genaue plazierung der Kamera möglichst nahe hinter dem Draht und senkrecht dazu ist sicher wichtig (wie das auch von Auge so ist!).
    Zum Rest nehm ich gerne Stellung:


    Einfluss des Versatzes der Lichtquelle zur Kamera:


    Der Versatz ist auf das technisch machbare zu minimieren (2-3cm für normale Foucault-Anwendungen). Der Versatz bringt Astigmatismus in die Messung ein. Je geringer die f-Zahl, desto schlimmer der Asti. Da findest Du einige Infos hier im Forum (suchen: Astigmatismus Messaufbau). Sollte bei Foucaultmessung eigenlich nur kaum messbare Fehler einbringen, da Astigmatismus mit Foucault kaum nachgewiesen werden kann.


    Drehen des vertikalen Schattens:


    Wenn du mit dem Draht auf der optischen Axe fährst sollte der vertikale Strich stehen bleiben und der Ring sich verkleinern/vergrössern. Bei lateralen Bewegungen des Drahts wachsen/schrumpfen die Ringhälften links und rechts und der mittige Strich ist nicht mehr von oben bis unten durchgängig.


    Was hat nun die Besserung der Messung ergeben? Das vorgängige Umrechnen in Grauwerte? Dann aber Gratulation![:D]


    Grüsse Max

  • Hallo Max,
    danke für die Erklärungen, ich werde mich definitiv damit auseinander setzen. Und wenn es nur eine weitere Testmethode ist um die Ergebnisse abzusichern.
    Zum Problem der starken Zonenänderung:
    Zwei Dinge waren hierfür verantwortlich, eigentlich eine Kette von Problemen die ich mir aber selbst gemacht habe. Da ich die Auswertung mit mehreren Threads auf mehreren Prozessoren gleichzeitig mache, habe ich aus Versehen eine Hälfte des Bildes zweimal gerechnet und die andere gar nicht :(
    Dies führte dazu das die Bandspreizung der Grauwerte nicht funktionierte was wiederum die Bildinhalte für die nächste Stufe (letzter Filter) verherend war.
    Die ermittlung des Kontrastes funktioniert überigens nicht besonders gut. Man kann zwar die Werte gut ausmachen und es gibt auch ein Maximum, aber dies liegt nicht an dem Punkt, an dem die Schneide schön mittig ist. Sei es drum, ich denke man kann das visuell einstellen und dann passt es.
    Überigens kann man im zeiten Bild rechts (Horia Filter) sehen, das der Kreis unten nicht symmetrisch ist. Da diese Phenomen auch nach Drehen des Spiegels an gleicher Stelle ist und dieser nur ein kleiner 6", kann ich Lagerasti und Fehler im Spiegel ausschliessen. Meine Vermutung ist, das man hier den radialen vertikalen Versatz des Spiegelbild zur Lichtquelle sieht. Visuell ist das nicht zu sehen, aber Horias Test macht das sehr deutlich.
    Ich muss jetzt mal weiter damit testen und schauen, an welchen Stellen ich das ganze noch tunen muss.
    Danke einstweil an alle. Wenn es fertig/brauchbar ist, stelle ich es ins Netz mit Source natürlich.

  • hi peter,
    vieleicht funkt die folgende "kontrast" methode besser:
    du erstellst je ein helligkeitshistogramm getrennt für die linke u. rechte hälfte.
    dazu du teilst das 256 graustufen bild in z.b. 64 kanäle für jeweils 4 graustufen.
    also z.b. kanal 1: 0-3, 2: 4-7, .... 64: 252-255 das machst du für links und rechts (spiegelhälfte) jeweils unabhängig von einander. dann zählst du wieviele pixel mit den richtigen graustufen für kanal x vorhanden sind das ist dann der häufigkeitswert für den kanal.
    die häufigkeitswerte für beide histogramme kannst du dann als je eine kurve darstellen.
    nun ermiitelst du die mittlere helligkeit über alle pixel der spiegelfläche, eines der beide histogramme z.b. das rechte spiegelst du um jenen kanal der der mittleren helligkeit am besten entspricht.
    nun ziehst du vom linken histogramm das rechte gespiegelte ab. das so gewonnene differenzhistogramm sollte möglichts nahe der nulllinie sein dann hast du die optimale schneidenposition erreicht.
    sollte im differenzhistogramm ein negativer buckel bei den hellen pixelkanälen und ein positiver buckel bei den dunklen kanälen sein so hast du zu weit eingeschwenkt, bei negativer buckel bei den dunklen und positiver buckel bei den hellen hast du zu wenig eigeschwenkt (könnte auch verkehrt rum sein :-))


    schliesslich kann man durch das differenzhistogramm eine ausgleichgerade fitten positive steigung selbiger: zu viel geschwenkt, negative steigung: zu wenig geschwenkt (könnte auch verkehrt rum sein :-))


    diese verfahren hat den vorteil das man nicht wie beim reinen kontrast verfahren das maximum gezeigt bekommt sondern auch noch die richtung (zu viel oder zu wenig geschwenkt)


    btw. 2 x 46,631mm nein nein nein das glaub ich nicht, nein nein nein ganz sicher nicht :)
    ansonsten schaut das von mal zu mal immer besser aus.
    l.g. robert


  • Hallo Peter,


    um etwaige Abweichungen von der Symmetrie am Kreis oben oder unten musst Du Dir keine Gedanken machen. Die Genauigkeit der Foucault-Methode ist senkrecht zur Messerschneide 100% (also bestens in der gemessenen Horizontalen). In einer schiefen Ebene hierzu nimmt die Genauigkeit mit dem Cosinuns des Winkels zur Horizontalen ab und erreicht bei 90 Grad (Senkrechte, also wieder paralles zur Messerschneide 0%.


    Zur Erklärung:
    Foucault misst "nur" horizontal, da die Messerschneide die Strahlen vertikal abschneidet. Die genau von links und rechts kommenden Strahlen (horizontale Ebene) werden am genauesten "abschnitten" (Vorstellung: Lichtkegel!). Die von unten und oben kommenden Strahlen weisen quer zur Messerschneide keinen Lichtkegel auf, wodurch hier auch keine Messung stattfindet. Die dazwischenliegenden Strahlen ergeben in der Projektion auf die horizontale Messebene dann eben den Cosinus.
    Alles Unklar? [xx(]
    Im Standardwerk von Maksutov "Technik der astronomischen Optik" wird das Prinzip sehr gut dargelegt, kann ich empfehlen.


    Grüsse Max

  • Hallo Robert, hallo Max,
    das ist ja schon fast Internet Distributed Programming was wir hier machen [:D].
    Zum Histogramm Robert: Ich verstehe Deine Vorgehensweise und ich weiss auch was Du damit erreichen willst, nur verstehe ich nicht in welchem Zusammenhang die Grauwert-Häufigkeit mit der Geometrie des Foucaultbildes steht. Ein gut zentriertes Foucaultbild ist doch dann gegeben, wenn der äussere Ring in der Mitte vertikal mit dem inneren Ring vertikal fluchtet (wie in Deinem Bild). Ich kann nicht erkennen, wie dieser Zusammenhang aus dem Histogramm ermittelt werden soll.[8)]
    Die einzige Möglichkeit, die ich sehe, ist die Aufteilung in Zonen um dann am Zonenradius jeweils linke und rechte Spiegelhälfte vergleichen. Also was links schwarz ist, muss rechts hell sein.


    BTW: 2x46,631mm ja ja ja, bitte glaube mir, ja ja ja ich schwör daf(i)r. [8D]


    (==&gt;)Max: Jo, das mit dem Foucault...senkrecht zur Schneide ist schon klar. Ich wollte halt nur wissen, warum ich Unregelmässigkeiten sehen kann und wo sie herkommen. Denn wenn die Methode von Horia so empfindlich ist, kann man evtl. weitere nützliche Informationen daraus ableiten. Das Foucault damit funktioniert ist klar, ich bekomme ja auch ganz hervorragende Ergebnisse. Vor allem sind sie reproduzierbar und das ist meines Erachtens die wichtigste Tatsache.
    Da das ganze ja live ist, hätte man evtl. darauf schliessen können, das die Ausrichtung in der Höhe nicht OK ist oder der Abstand LED/Reflexbild zu gross. Das werde ich in den nächsten Sessions mal näher untersuchen.


    Wenn der Messwert-Export nach FigureXP fertig ist und ich dann richtig fix messen kann, werde ich mal versuchen den Spiegel mit anderen Methoden zu untersuchen um alles abzusichern.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!