Beiträge von Gert

    Hi,

    klar kann ich einen manuellen Weißabgleich machen. Sehr gut funktioniert auch - zumindest bei meiner modifizierten Fuji - automatischer Weißabgleich und in der Nachbearbeitung Ton- und Gammawertkorrektur. Peter warf aber modifiziert und unmodifiziert zusammen, was so nicht hinhaut und separat betrachtet werden muss.

    Eine korrekte Balancierung geht ja auch im Postprocessing. Z.B. in PixInsight werden Sterne des Gaia Katalogs mit bekannter Spektralfarbe mit den RGB Zahlen der selben Sterne im Bild abgeglichen. Es ergibt sich dann eine Transformationsgleichung und wenn die angewendet wird, sind die Sterne im Bild farblich kalibriert. Wie dann z.B. Nebel aussehen ist eine andere Frage. Da bieten die Workflows heute aber die getrennte Verarbeitung von Sternen und Nebeln an 'Starnet / StarXterminator / etc' an.


    Clear Skies,

    Gert

    Hallo Beisammen,


    Tolle Fragestellung. Hab jetzt nicht die Zeit alles zu lesen, muss zur Silvesterparty.


    Eine Zielrichtung bei Abbildung astronomischer Objekte ist vielleicht auch den Wahrnehmungsrahmen unserer Sinne optimal auszunutzen. Sagen wir mal alle Sterne sind irgendwie in der Farbe von blass Blau bis leicht Orange. Sowas extra sattes, wie eine Seite vorher gezeigt gibt es in der Natur nicht. Aber es passt besser in unsere Wahrnehmung. Um also die physikalischen Unterschiede zwischen z.B. kalten und heißen Sternen zu zeigen, drehen wir die Sättigung auf, bis Sterne tief Orange oder knall Blau sind. Siehe z.B. auch Galaxienfotos, die ja alle aus Sternen bestehen. So krasse Goldgelb bis satt Blau Unterschiede, wie in Galaxienfotos oft gezeigt, würde man nie sehen, selbst wenn man mit Superaugen und Raumschiff direkt vor der Galaxie stünde. Aber es macht Sinn das so darzustellen, weil es eben im Kern der Galaxien alte eher gelbe und am Rand in Sternentstehungsregionen eher junge blaue Sterne gibt. Also hilft die Farbdarstellung der Erklärung und Kenntnisvermittlung. Wenn man jemandem so ein Galaxienbild zeigt und der fragt, was sind denn das für Farbunterschiede, kann man gleich astrophysikalisch belehrend antworten und Wissen verbreiten. Also sind kraftvolle Sternfarben richtig. Sie sollten natürlich richtig balanciert sein. Türkis oder rosa Sterne in Nebelfotos sehen schrottig aus.


    Clear Skies & Happy New Year,

    Gert

    Hallo Beisammen,


    Tolle Sache mit den Croman Tools.


    Ich hab da mal eine Frage, was die Experten hier so für Grafikkarten fuer die Tools einbauen?? Kompatibilität zwingt natürlich zu Nvidia. Ich habe gerade einen neuen PC mit Intel i7 13700k und Asus z790 Motherboard zusammengebaut, wo der Slot für die Grafik noch frei ist. Netzteilpower ist mit 850W genug vorhanden.


    Welche Nvidia Karte ist der richtige Mittelweg zwischen Preis und Performance? Muss natürlich die RTX40xx Serie sein. Ich denke so an 4060 / 4060ti / 4070 / 4070ti. Was sind die Empfehlungen der IT Experten?


    Clear Skies,

    Gert

    Hi,

    Ich habe eine Az "Schubsvariante" im Sinn und zwar:

    Finde ich nicht vorteilhaft. All diese Amateur H-A Etalons haben ihre 'sweet spots' 'hot-bands' oder wie auch immer. D.h. wenn ich die Sonne im Bild hin und her bewege ändert sich ständig das H-A Durchlassverhalten. Kontrast ist mal besser auf der Oberfläche und mal besser bei Protus. Mal links mal rechts. Für mich bedeutet das, das ich Sonne mit Lunt nur mit richtiger Nachführung angucken will. Durchlaufen lassen und zurück schubsen ist keine Lösung.


    Clear Skies,

    Gert

    Hallo Beisammen,


    Zur Sonnenwende konnte ich heute den Stand der Sonne beobachten und mit dem von der Sonnenwende im Juni vergleichen. Ich hatte damals ein Foto von einem Gehweg-Pfosten gemacht und mit Lackstift die Position des Schattenspitze markiert. So ein wenig hatte ich da schon den Plan, das zur Wintersonnenwende nochmal zu vergleichen. Nun war der Zeitpunkt heute um 3:27UTC und da kann ich schlecht die Sonne angucken Also habe ich bis Mittag zum Höchststand gewartet und hab mir dann den Schatten von dem selben Pfosten angeguckt. Eine Markierung geht leider nicht, die hätte ich ins Blumenbeet machen müssen. So gibt's immerhin zwei Bilder zum vergleichen. Der Foto-Winkel ist leider nicht ganz der selbe. Da muss man Fantasie walten lassen.



    Schöne Feiertage & Clear Skies,

    Gert

    @Matthias, Peter,


    Ja klar. Danke an Euch beide erstmal. Und vorne weg, das ist alles Mosern auf irre hohem Niveau. :)

    Selbst ein mieses Ergebnis mit den Russ Croman Tools ist 10x besser als was ich 'per Hand' hinbekomme.


    Die Idee von Matthias ist korrekt und ich hab die non-stellar Einstellung mal soweit runter gedreht, bis die Artefakte so gut wie weg waren. Ein bischen was an Verbesserung wollte ich bei den Nebeln schon haben. (Also die Default-Einstellungen muss man doch hinterfragen!)



    Mit den neuen Einstellungen dann den Flow bis zum Ende durchgezogen. (Man sieht die Effekte solcher subtilen Änderungen immer erst am Ende!)


    Wo ich gerade bei den AI Tools war, habe ich nach BlurXT auch noch GraXpert (via PI Script) laufen lassen.


    Zum Spaß hier das Bild am Ende.



    Mit Canon 200 F2.8 und Vixen NP Montierung vom Holz(!) Balkon der Ferienwohnung 44x1min. ist das doch nicht schlecht. :)


    Clear Skies,

    Gert

    Hallo Beisammen,


    Noch ein Ergebnis vom Test von BXT2AI4 bei meinem Canon 200/F2.8 Bild. Um helle Sterne am Rand hat das Tool schlimme Artefakte gemacht. Die Allgemeinheit der Sterne ist aber deutlich besser. Entweder die Einstellungen müssen verbessert werden oder da ist ein fundamentaler Bug.


    Oben Original. Nur crop & Farbbalance

    Unten Links. BlurXT V1 mit AI2

    Unten Rechts. BlurXT V2 mit AI4



    Clear Skies,

    Gert

    Hallo Beisammen,


    Die neue BlurXT Version und AI ist nochmal ein guter Sprung vorwärts. Im Sommerurlaub hatte ich mit dem Canon 200mm F2.8 bei voller Blende (wer ist schon so blöd, da nimmt man das Samyang 135mm) die M16 M17 Region aufgenommen. Natürlich in den Ecken grottenschlechte Sterne.


    Der alte BlurXT V1 mit der AI2 hatte dann aus den Sternen in der linken unteren Ecke irgendwelche Monster gemacht. Ich hatte das Bild noch dem Russ Croman geschickt, weil der immer auf der Suche nach Trainingsdaten ist. Vielleicht hat das ja geholfen.


    Mit der neuen Version2 und AI4 ist das olle Canon 200mm so sauber wie ein Samyang.

    Oben Original. Nur crop & Farbbalance

    Unten Links. BlurXT V1 mit AI2

    Unten Rechts. BlurXT V2 mit AI4



    Zur Orientierung hier das gesamte Bild (44x1min) aus Oesterreichurlaub bei Zell am See 700m Höhe, SQM 20mag.


    Jetzt kann ich grottige Optik mit Software flicken, cool!


    Clear Skies,

    Gert

    Hallo Beisammen,


    Der Adam Block hat ein Video (40min) Interview mit Russ Croman zur neuen Version.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Wie immer ist das Material von Adam sehr auführlich und von seghr guter Qualität.


    Clear Skies,

    Gert

    Hä ??? (Typo) (anderer Gert??)

    Clear Skies,

    Gert

    Hi,


    Geniale Daten und Videos. Was wohl Leute in prä-industrieller Zeit gedacht haben wenn so ein Ereignis war? Ich find die Videos toll, die so ein astronomisches Ereignis in Echtzeit im Anblick wie man den auch mit dem Auge haben würde zeigen. Das muss doch ein irre dramatisches Schauspiel gewesen sein. Ich hoffe das möglichst viele Astroclubs Outreach Events gemacht haben und tonnenweise Leute das Ding live gesehen haben.


    Wann und wo gibt's sowas das nächste Mal??


    Clear Skies

    Gert

    Hallo Nochmal,


    Ein Tipp bei Astap. In dem extra Processing Fenster kann man eine automatische Überwachung von einem Folder einstellen. Bei der Aufnahme Software z.B. NINA kann ich dann auf eine Aufnahme klicken, die wird gespeichert und Astap springt automatisch an und nach einem Moment kommt die neue Tilt Anzeige hoch.


    Es ist wichtig, das als Voraussetzung Fokus und Justage in der Mitte stimmen. Beispiel: Optik ist dejustiert und nicht im Fokus. Jetzt kann irgendein Punkt links von der Mitte der 'schärfste' im Bild sein und Astap ermittelt da die kleinsten FWHM Wert. Das hat aber nichts mit Tilt zu tun. Ja, das ganze ist eine furchtbare Fummelei. Besonders nach jeder Tilt-Verstellung neu exakt fokussieren. Dann ist das auch noch Seeing abhängig. Wenn ich drei Aufnahmen hintereinander mache haben alle unterschiedlichen Tilt. Wenn man glaubt fertig zu sein muss man noch mal ca 5 Aufnahmen durch Astap laufen lassen und so im Geiste die Tilt-Zahlen mitteln. Wenn einem das dann gefällt ist gut. Auf keinen Fall in Jagdstimmung verfallen. Dann rennt man dem Seeing hinterher. Natürlich das ganze machen mit Objekten nahe am Zenit. Das ist z.B. bei mir ein Problem, weil ich das Scope auf dem Balkon habe und den Zenit garnicht erreiche!


    Hier mal ein Marketing Beispiel von meinem Celestron. Natürlich habe ich nach zwei Stunden Justage mindestens 10 Bilder durchlaufen lassen, bis ich eines zum Vorzeigen mit 0% Tilt hatte. Alles was besser als 5% ist schon für mein Hyperstar ausgezeichnet. Ich weiß auch nicht wie stabil das in Deinem Rasa ist. Wenn ich das Celestron auf dem Balkon horizontal auf der Montierung über Nacht geparkt hatte (unter einer Plane) und am nächsten Abend neu gestartet habe, war der Tilt immer ein bisschen anders. Siehe auch Seeing hinterher jagen!



    Nun viel Erfolg. Berichte, was Du erreicht hast.


    Clear Skies,

    Gert

    Hi,


    Ja, es geht mit ein bißchen Detektivarbeit. Du siehst ja, das eine Ecke gerade nach rechts entlang der langen Bildachse geht. Also, welche Justierschraube liegt in der Richtung. Dann weiter per Experiment. Ist nicht sexy aber geht.


    Also der Wert in der Mitte sollte der kleinste sein. Das das bei Dir nicht so ist bedeutet entweder Du hast die Justage noch nicht richtig getroffen, oder der Fokus ist nicht perfekt. Naja und dann kommt Tilt dazu.


    Viel Erfolg & Clear Skies,

    Gert

    Hallo,


    Ja, das sieht nach Tilt aus. Dieser Spruch mit den Justierschrauben ist eher Marketing. Bei dem Aberration Fenster in Astap die Anzeige als Dreieck auswählen. Dann muss man durch Probieren herausfinden welche Schraube welcher Ecke im Dreieck entspricht. Z.B. die Schrauben auf einem Zettel mit A B C bezeichnen, dann sieht man ob beim rein/raus drehen einer Schraube eine Ecke spitzer wird. Damit dann man sich dann vorwärts Tasten. Nach jeder Bewegung muss der Fokus getestet werden. Astap soll ja den Tilt sehen und nicht defokus. Dauert eine Weile. Und dann ist die Frage wie stabil die Justage bleibt.


    Clear Skies,

    Gert

    Hi,


    Hm wieso gibt's aufm Handy nicht die 'Zitat einfügen' Butten?


    Von Stefan-h

    Sterne (punktförmig betrachtet) sind schneller ausbelichtet..


    Stathis hat ja genau den Fall im Anfangsbeitrag ausgeschlossen. Sterne sind in dieser Diskussion (durch Seeing) ausgedehnte Objekte die (Samplingtheorem) auf mehrere Pixel abgebildet werden.


    Zur allgemeinen Diskussion möchte ich zwei Experimente vorschlagen.


    1. Ein Teleskop ca. 20cm 1m Brennweite. Typische ASI Cam 3.8um Pixel. Sagen wir mal 10 Belichtungen 1min. Dann 2x Barlow einbauen, selbe Cam, Belichtung, Gain, Offset, Dark, (natürlich andere Flats). Das jeweils beste Bild in Astap/Siril/Astrometrica Grenzgrösse messen. Ist die gleich oder verschieden? Zeigt Einfluss der Öffnugszahl.

    2. Selbes Teleskop. Erste Belichtungen wie bei #1. (D.h. die selben Daten einfach wieder nehmen). Dann Öffnung mit Pappring auf 10cm abblenden. Mit selben Einstellungen Belichtungen machen und Grenzgrösse messen. Ist die gleich oder verschieden. Zeigt Einfluss der Öffnug..


    Clear Skies,

    Gert


    Tippfehler 20cm Teleskop korrigiert.

    Hi,

    Es gibt zwar die Regel das sich auf dem Durchmesser des Beugungsscheibchens 2x2 Pixel verteilen sollen aber der Durchmesser des BS stellt nicht das beugungsbegrenzte Auflösungsvermögen dar.

    Statt Beugungsscheibchen sage ich lieber Seeingscheibchen. Die Lichtverteilung bei langen Belichtungen > 1sec ist auf der Erde (nicht beim Hubble) durch die 2-3arcsec Seeing limitiert.


    Ich hab dazu mal eine kleine Tabelle gemacht.

    Lustige Beobachtung am Rande. Alle Scopes mit gleicher N-Zahl haben das gleiche lineare Beugungsscheibchen. Ich find das cool, dass mein Skywatcher F4 (fast) das gleiche lineare Beugungsscheibchen hat wie der Mt Palomar Spiegel. (der hat F3.3)

    Schon beim 10zoll F4 und typischem Pixel 3.76um ist das Seeingscheibchen (9.7um) ca. 3.6x so groß wie wie die Airydisk (2.7um). Das sagt auch, dass die Optik bei Photo-Scopes im Vergleich zu high-power visuell Beiobachtung grottenschlecht sein kann. Merke: Nie mit einem Astrographen auf Planetan gucken! Die Anpassung der Pixelgröße (Samplingtheorem) geht dagegen mit der Brennweite. Jedes Scope mit 1000mm Brennweite gibt bei 3.76um Pixeln in etwa gutes Sampling.



    Russ Croman hat die selben Berechnungen online auf seiner Webseite.

    MTF Analyzer – RC Astro
    The Modulation Transfer Function (MTF) is a depiction of how much contrast is lost versus spatial frequency for a given optical system.
    www.rc-astro.com


    Clear Skies,

    Gert

    Hi,


    Ich habe nur das Hyperstar, was dem RASA aber ein wenig verwandt ist. Wie beim RASA Kollimation geht kann ich nicht sagen. Das Hyperstar wird ja als Zusatzoptik in die Schmidtplatte eingesetzt und der Hauptspiegel und die Platte ist bei Celestron ja fixiert. Da ist nichts zu justieren. (Wie ist das beim RASA?) Die Hyperstaroptik hat dann Justierschrauben, die das ganze Teil verkippen. (wie einen Fangspiegel) Mit diesen Schrauben mache ich zuerst die Justage in der Bildmitte. Die Methode ist dabei ein leicht defokussiertes Bild zu machen, so dass die Sterne alle kleine Kreise mit Loch in der Mitte sind. Bei Sternen genau in der Bildmitte muss das Loch jetzt so genau wie möglich in der Kreis-Mitte sitzen. Wenn das eingestellt ist, zielt die optische Achse des Teleskops genau in die Mitte des Camera Sensors. An der Kollimation jetzt nichts mehr ändern. Nun kann der Sensor verkippt sein. Bei F2 beim Hyperstar ist das nicht nur wahrscheinlich sondern ziemlich sicher. Jetzt wird mit der Tilt-Einheit der Sensor einjustiert. Das mache ich mit Aufnahme Sequenzen, die dann z.B.m mit ASTAP nach Tilt analysiert werden. Dabei aufpassen, nach einer Justage an der Tilt-Einheit den Fokus neu machen, damit die Sterne so scharf wie möglich sind. Erst dann ist die Tilt-Analyse genau.


    Viel Erfolg & Clear Skies,

    Gert

    Hallo Rene,


    Was ist denn beim RASA das Gewinde zur Camera? Ist das T-Gewinde M42x0.75mm? Oder M48x0.75mm ??

    Davon hängt es ab, welche Zwischenringe man nutzen wird.


    Es gibt z.B. bei Ebay Sets von Ringen mit denen man in dem Bereich so +- 1-2mm von dem Fokus der in der Spezifikation angegeben ist experimentieren kann. Je nachdem wie man da Kombinationen zusammenschraubt.


    Z.B. dieser Set hier:

    https://www.ebay.com/itm/314957243102


    Die haben 3mm 5mm 7mm 10mm 12mm 15mm 20mm 30mm. (OK, die 30mm brauchst Du nicht).

    Wenn ich das richtig sehe sind 7.5mm zu überbrücken. Ich würde experimentieren mit:

    5mm (1x der 5mm Ring)

    6mm gibt's leider nicht.

    7mm (1x der 7mm Ring)

    8mm (3mm + 5mm Ring)

    und evtl 10mm


    Bei meinen Tests gab es dann so eine Auswertung, wobei ich zwei Koma-Korrektorn bei einem F4 Newton verglichen habe.



    Je nach Bedarf kann man dann mit 0.5mm oder 0.25mm Ringen weiter probieren. Da geht am Anfang auch erstmal ein Stück Pappe, wo man einfach den Durchmesser des Gewindes ausschneidet.


    Viel Erfolg & Clear Skies,

    Gert

    Hallo Beisammen,


    Ich hab jetzt nicht alles gelesen aber bei der Raspberry Truppe gibt es PiFinder.


    Superior stargazing with the PiFinder - Raspberry Pi
    The PiFinder is a Raspberry Pi-based open source project for the amateur astronomy community, created by Richard Sutherland.
    www.raspberrypi.com


    Von der Webseite:

    It’s an all-in-one device that mounts on any telescope and uses a Raspberry Pi High Quality Camera to take photos of the night sky. The PiFinder figures out where a telescope is pointing to help observers find and view astronomical objects. A Raspberry Pi 4 takes care of image processing and logging, with the help of onboard GPS.


    Clear Skies

    Gert

    Hi Jürgen & All,


    Ich habe selbst bei einem größeren Software Hersteller gearbeitet, und da sind/waren jahrelange Rechsstreitigkeiten mit der Konkurrenz die Regel, und dabei geht es stets um sehr hohe Schadensersatzforderungen.


    Vielleicht kann jemand, der Code Experte ist mal da was zu sagen.


    PI bietet ja selber eine Schnittstellen Programmierung an. Erstmal als Script, aber ich denke auch die Einbindung als Process ist dokumentiert und entsprechend Kenntnis reiche Entwickler können das Nutzen. Z.B. wieder das Beispiel bei Russ Croman, der ja sein Gradientool als Plugin bei Phtoshop eingebunden hat. (Und Adobe hat sicher Interesse, dass die Kundschaft bei Adobe bleibt und nicht 'Paralleltools' kauft), und ebenso bei PI die XTerminator Tools in die Hauptprozessliste eingebunden sind. (Aber z.B. die Installation und Upgrades alle von seiner URL in den Repositories kommen)


    Würdet Ihr zustimmen wenn PI als Grundmerkmal ein gut strukturiertes und mit definiertem Interface erweiterbares Framework ist und das die PI Leute da schon eine Menge sehr schicker Module eingebunden haben. Wenn jetzt jemand cleveres wie Russ Croman kommt, die API Dokumentation liest und dann ein Plugin baut, und gegen Lizenz verkauft (und dafür Käufer findet) hat er es doch garnicht nötig dabei bei PI 'um Erlaubnis' zu fragen. Der macht das einfach und fertig ists. Haben die GX Leute das falsch gemacht und irgendwie versucht diese 'Diskussion' mit PI zu starten?


    Ganz anderer Punkt. Die Integration als Script ist ganz nett. Aber als Process ist doch nocht eine Stufe höher. Bei den Croman Tools ist das ganze Framework von Masken, Previews, Processcontainer pratisch von Anfang an mit dabei. Die GX anbindung ist nicht auf dem Niveau.


    OK, Haarspaltereimodus Ende. :)


    Clear Skies,

    Gert

    Hi,

    Welches Interesse hätte die Firma daran, eine Organisation zu tolerieren, die eine kostenlose Parallelapplikation entwickelt?

    Und die 'XTerminator' Tools vom Russ Croman?? Die sind sogar als echter Prozess integriert, nicht 'nur' als Script. Und seine Tools sind sogar lizenziert und kosten ziemlich Geld. Was hat der 'richtig ' gemacht und die Leute von GX falsch dass die so abgewatscht werden??


    Clear Skies,

    Gert

    Hi Jürgen,


    Hm, kannst Du das etwas detailieren?


    Ein als Verbesserung/Plugin gemeintes Angebot wie im Zitat zu beantworten ist nicht hilfreich.

    (@admin, OK hier ein Zitat aus der PI Forums Diskussion zu bringen?)


    By developing a parallel project you are going to compete with us, and we'll be forced to fight against you, sooner or later, with all of the resources we are capable of. This is inevitable because you are providing reasons to stop using PixInsight and use a freeware application instead. We cannot compete with freeware applications in terms of price, and price is, unfortunately, one of the strongest motivations that drive potential users. On the other hand, our human resources are limited and our scope of work is very large. This means that a small group of skilled developers focused on a very specific and important topic (such as background modeling) can hurt us significantly. This has happened in several occasions, and has happened recently, forcing us to work over our capabilities for too much time and putting the entire PixInsight project under risk.


    Clear Skies,

    Gert