Beiträge von JSchmoll

    Hi Dietrich,


    die Natriumschicht liegt etwa in 80-100km hoehe (das variiert), und die Wellenlaenge ist 589nm.

    Ich weiss aber nicht, was fuer das Lunar Laser Ranging verwendet wurde. Die Reflektoren muessen ja fuer die passende Wellenlaenge optimiert werden. Fuer Infrarotlicht waeren sie am Besten mit Gold beschichtet worden, und das wuerde in Bildern der Teile sichtbar sein. Ich habe vor vielen Jahren mal einen Artikel in einer damals schon alten Sky&Telescope gelesen, wo die NASA auf Hawaii ein Teleskop fuers Laserranging errichtet hatte, das mit vielen relativ kleinen Linsen arbeitete, die offenbar Fotomultiplier fuetterten. Leider habe ich die Quelle nicht zur Hand.


    Generell ist es aber so, dass nahes Infrarotlicht die Atmosphaere ungestoerter durchdringt als sichtbares Licht. Wobei es aber jenseits der 1000nm viele Absorptionsbanden gibt.

    Am heutigen Ostermontag (2024 April 01) war es in West Cornforth (Nordostengland) teils klar. Astrotrac aufgebaut und eingerichtet, dann wieder Wolken. Schliesslich dann doch noch ein kurzes Wolkenloch. Insgesamt neun brauchbare Aufnahmen, Canon EOS40D, 30s bei 1600 ISO. Schnelle Bearbeitung mit DeepSkyStacker und Canon DPP:



    Und hier nochmal eine Ausschnittsvergroesserung, um die Region um den Kern besser zu sehen. Schoene Strukturen!


    Hi Jurgen,



    das stimmt! Meine Kontemplation einer Aufloesung des Objekts wuerde nur einen Punkt zeigen. Um diesen Punkt in eine Flaeche und damit Form zu verwandeln, muss die Aufloesung nochmal hoeher sein. So waere die Apollehardware von einem Felsen nicht zu unterscheiden.

    Auch sind mir 5m etwas optimistisch. Die Landefaehren haben ja nur ihr Unterteil zurueckgelassen, und auch die Mondautos waren kleiner.


    Um 1m aufzuloesen, was eine grobe Formerkennung ermoeglichen wuerde. muesste das Fernrohr noch 5x groesser sein. Also ein 250m-Teleskop. Wegen der stoerenden Atmosphare idealerweise im Orbit.


    Wenn ein Multimilliardaer mitliest, der das Teil sponsern will ... ich entwerfe gern die Optik. ;)

    Hallo Juergen,


    die Rechnung bezieht sich auf die Beugungsgrenze. Diese ist vom Durchmesser, nicht von der Flaeche abhaengig und deswegen linear. Ein Fernrohr doppelten Durchmessers hat die doppelte Aufloesung. Die Aufloesung wird nicht durch Pixel begrenzt (hier koennte ja einfach hoeher vergroessert werden, um den Plattenmassstab anzupassen), sondern durch die Wellennatur des Lichtes. Eine Punktquelle wird bei hoher Vergroesserung als Scheibchen abgebildet. Dieses Scheibchen wird kleiner, wenn das Teleskop groesser wird. Einfach hoeher vergroessern oder eine Kamera mit kleineren Pixeln verwenden erzeugt nur sogenannes Oversampling - im Visuellen auch als "leere Vergroesserung" bekannt und der Grund, warum der erfahrene Sternfreund bei 60mm-Billigrefraktoren mit 525x-Vergroesserung das Laestern anfaengt.

    Um wirklich 5m auf dem Mond aufzuloesen, muss das Teleskop eine Mindestgroesse aufweisen. Und dies setzt Beugungsbegrenztheit voraus, also dass die Optik nicht durch ihre Herstellungsfehler oder die Atmosphaere eine geringer Leistungsfaehigkeit verliehen bekommt.


    Mathematisch liegt diesem Problem die Airygleichung zugrunde:

    Beugungsscheibchendurchmesser phi in Radian = 1.22 lambda/D


    wobei lambda die Lichtwellenlaenge und D der Durchmesser der Optik ist. Beispiel:

    Lambda = 550nm (sichtbar gelb) = 0.00000055 m

    D = 14 cm = 0.14 m


    Dann ist phi = 1.22 * 0.00000055 / 0.14 = 0.000004792.


    In Grad ausgedrueckt, muss das mit 180/pi multipliziert werden. Es ergibt sich phi[Grad]=0.00027461 Grad


    In Bogensekunden sind das der Gradwert multipliziert mit 3600, da ein Grad 3600 Bogensekunden sind:


    phi ["] = 0.9985", also rund eine Bogensekunde.

    Hi Dietrich,


    klar, Teleskopzeit an einem hypothetischen 50m-Teleskop zu bekommen, um auf den Mond zu gucken - das waere vielleicht ein PR-Gag zur Einweihung des Teleskops, aber ansonsten wissenschaftlich nicht notwendig. Es geht mir in meinen Ausfuehrungen einfach nur um die Physik; darum, zu zeigen, was physikalisch fuer ein dergestaltes Unternehmen notwendig waere.


    Ich wundere mich aber, ob es moeglich waere, ueber Schattenwurf Stukturen zu erkennen, wenn die Schatten ein paar hundert Meter lang werden. Wahrscheinlich gibt es im Unfeld zu viel Geroell, das dann auch lange Schatten macht oder die Mondoberflaeche ist zu uneben. Das waere fuer mich die einzige Moeglichkeit, was zu erkennen. Ein bisschen wie Rupes Recta, die Verwerfung, die sich auch nur durch ihren Schatten verraet.

    Eben hats bei mir in Nordostengland auch geklappt, nachdem ich ihn vor einigen Tagen im Vollmondlicht nicht finden konnte.


    27. Maerz 2024: Im 10x50 ein kleines Woelkchen, das im 20x90 einen leichten Schweifansatz zeigt.


    Natuerlich so tief, dass kein Sternwartenteleskop rankam und den Astrotrac hatte ich nicht vorbereitet. Ich bin vom klaren Abend erwischt worden ... ich habe ein paar Fotos mit 20mm bei f/5.6 gemacht, stehende Kamera, 20s. Das hatte ich gerade zur Hand. Ich erwarte nix Beruehmtes. Aber immerhin, es gibt den Kometen wirklich. ;)


    Edit: Hier meine bescheidenen Bemuehungen. Der Schweifansatz gibt gut den visuellen Eindruck im 20x90-Feldstecher wieder. Einmal Vollbild (Komet links unterhalb der Bildmitte, rechts M31), einmal Ausschnittsvergroesserung. 61sx20s. Nichts Besonderes, ausser vielleicht die psychedelische Haeuserzeile. Das Medianstackverfahren hat dort interessante Spuren hinterlassen.


    Die Erdatmosphaere mal ausser Acht lassend: 5m auf dem Mond sind im Perigaeum von 363000km noch ein Winkel von 2.8 Millibogensekunden.

    Eine Bogensekunde wird im sichtbaren Licht mit einem 14cm-Teleskop aufgeloest. Ein Teleskop, das 5m auf dem Mond aufloesen soll, muss also 14cm * 1/0.0028 = 50m gross sein.


    Also selbst das derzeit gebaute ELT der ESO waere mit 39m Oeffnung zu klein. Und in der Praxis waere dann noch adaptive Optik notwendig, um die Beugungsgrenze ueberhaupt zu erreichen!


    Die einzige erdgebundene Moeglichkeit waere, einen langen Schattenwurf zu erwischen. Ich habe aber noch nie solche Aufnahmen gesehen. Was es gibt, sind Aufnahmen aus niedrigem Mondorbit, wo die schiere Naehe zum Objekt die Teile, sogar die Fuss-Spuren der Astrononauten zwischen verschiedenen Objekten, sichtbar macht. Der Lunar Reconnaissance Orbiter (LRO) hat das vor Jahren mal gemacht.



    (EDIT: Perigaeum, nicht Apogaeum natuerlich)

    Hi Hannes,


    danke dafuer - an das 16V kann ich mich auch noch erinnern. Vixen hatte sogar den 200/1000er auf der Sensor, mit Saeule. Einer der Traeume meiner schlaflosen Naechte ... ;)


    Wie zufrieden bist Du mit der Sensor? Wie schaetzt Du sie im Vergleich zur (New) Polaris oder SP/GP ein?



    Wie gesagt, ich habe noch nie eine Sensor "befummeln" koennen und mich interessiert einfach, wie diese Montierung so ist. Massiv sieht sie ja aus.

    Das ist ein Zirkumzenitalbogen. Der hat eine andere Erklaerung als die Regenboegen, und die Farben sind auch anders herum. Sie werden durch Eiskristalle in der Hochatmosphaere verursacht.


    Schoen eingefangen!

    Hi Thomas,

    puh, die rechnen das ja noch rigoros durch! Ich koennte das nicht ... ich mach das, aber weniger generalisiert, mit Zemax. Chapeau.

    Die Dicken koennen in der Regel ohne grosse Probleme auf runde Werte gebracht werden, weil sie keinen grossen Einfluss haben. In der Regel koennen so entstehende Restfehler durch eine Abstandsvariation kompensiert werden. Nach einem durchoptimierten Design koennen so die Werte fuer Dicken und Radien nach und nach auf sinnvolle Werte gebracht werden. Eine Linse muss nicht 11.43567mm dick sein, 11.4mm tun's auch und das Gleiche gilt fuer die Radien. Je nach Hersteller gibt es Vorzugsradien, fuer die entweder Werkzeuge oder Testplatten exisitieren (das sind Platten mit dem Gegenradius, sodass beim Auflegen im monochromatischen Licht Beugungsstreifen entstehen, womit sich die Linse pruefen laesst). So kann dann peu a peu eine Optik an sinnvolle Dicken und Radien angepasst werden - eine Reoptimierung, wobei als Kompensator meist die Abstaende der Linsen uebrigbleiben. Denn die lassen sich am einfachsten aendern.


    Ich hatte das vor ca. 12 Jahren mal mit zwei Spektrografenkameraobjektiven gemacht: Das Originaldesign (ca 20cm Durchmesser, f/1.8 oder so, aber nicht beugungsbegrenzt) wurde auf Vorzugsradien des Herstellers gebracht und reoptimiert. Uebrigens nicht mein Design, damals konnte ich sowas nicht. War fuer den SALT-HRS-Spektrografen in Suedafrika.


    Da gab es einen groben Schnitzer - eine Linse sollte 60mm dick sein, doch der Mensch an der Maschine machte versehentlich 58mm daraus - reoptimiert, und dank geringer Dickenempfindlichkeit kein Problem. Dann die Schmelzdaten von Schott, die etwas von den Theoriewerten abwichen - reoptimiert. Schliesslich wurden alle bereits gefertigten Dicken und Radien genau vermessen und als fest ins neue Modell eingebracht, das wieder reoptimiert wurde. Dieses Spiel ging weiter, bis alle Radien und Dicken fest standen und die Linsenabstaende optimiert wurden - sie lassen sich durch passende mechanische Zwischenringe am einfachsten aendern. Schliesslich kam ein System dabei heraus, das zwar etwas schlechter als das theoretische Ausgangsdesign war, aber immer noch die Spezifikationen erfuellte - und das "as built", also als fertiggestellte Optik.


    Aus dieser Erfahrung heraus waren die Dicken nicht das Hauptproblem. Die Einhaltung der Radien war deutlich notwendiger.

    Hi Thomas,


    das haengt alles vom konkreten Optikdesign ab. Normalerweise ist die Dicke eher unkritisch, da Radien deutlich mehr Wirkung haben. Aber wenn zum Beispiel sphaerische Aberration korrigiert werden soll, kann ein dickes Element helfen - z.B. bei der Maksutovplatte. Wenn ich selber was designe, versuche ich, die Linsen so duenn wie moeglich zu machen (Absorption, Kosten des Rohlings), ohne dabei etwas extrem Fragiles herzustellen. Hat eine Linse einen kurzen Radius, wird sie automatisch sehr dick. Solche kurzradigen dicken Linsen haben dann extreme Verkippungs- und Dezentriertoleranzanforderungen.

    PS: Ich habe Deinen versehentlichen Doppelpost geloescht.

    Hallo Hartmut,


    Deinen Reiniger kenne ich nicht. Traditionell verwende ich seit Langem Isopropanol. Aber irgendwann fand ich heraus, das in vielen Faellen lauwarmes Wasser mit einem Tropfen Spuelmittel besser ist. So verwende ich beides.


    Das mit den Brillenglaesern und Seifenwasser wundert mich. Gerade Brillenglaeser werden ja oft von Laien gereinigt, quasi taeglich und sicher auch oft unterm Wasserhahn. Ich wasche meine auch mit Spuelmittel oder manchmal mit Fluessigseife, je nachdem, was zur Hand ist. Von Beschichtungsschaeden hatte ich noch nichts gemerkt. Allerdings habe ich Glas-Glaeser (nicht dieses Plastikzeug, das immer sofort verkratzt). Die Beschichtung wird bei Glasglaeser unter hoher Temperatur im Vakuum aufgetragen. Plastikglaeser sind auch im Vakuum, aber es wird ein Ionenstrahl benutzt (IAD: Ion Assisted Deposition), da Plastik ja nicht heiss werden darf. Bei den Glaesern kann das also anders sein.

    Bei astronomischen Teleskopen muss die Optik beugungsbegrenzt sein. Viele Teleoptiken sind nicht beugungsbegrenzt, da das nicht notwendig ist und die Prioritaet darauf liegt, eine gute wenngleich nicht beugungsbegrenzte Abbildung ueber das volle Gesichtsfeld zu bekommen.


    Dazu kommen Anforderungen, das Tele beispielsweise auch frei gehalten zu verwenden und es sich mit der Kamera um den Hals haengen zu koennen. Da spielt Gewicht eine groessere Rolle als bei einem montierten Teleskop.

    Hallo Thomas,


    ich habe gerade wieder diesen Thread gelesen, nachdem ich die letzten Wochen kaum Zeit hatte. Und mein Gedankengang war wie Deiner. Gibt es die "perfekte Montierung"?


    Oder muss sie nur besser sein, das das, was man hat und was unzulaenglich ist? In meinem HD3-Thread kommt das ja raus - die Originalmontierung, in Kugellagern und einer Schraube, die die Polhoehe klemmt (ohne Feintrieb), ist sowas von unzulaenglich, dass ich mir sicher bin, dass meine HD3r die Wende bringt. Perfekt muss die Monti nicht sein, solange sie das Rohr einigermassen schwingungsfrei traegt. Ob sie mit der Rupp Typ 4 mithalten kann, ist fraglich - schon allein aufgrund der Triebkreise, die aus Aluplatten gefraest sind im Vergleich zu dem Gussbronzerad der Rupp.

    Hier in UK hat neulich einer eine Alt AD7 verkauft. Zum Spottpreis, 1800 Pfund (ca. 2000 Euro), und mit Schnecken in beiden Achsen und GOTO. ich bin sicher, dass diese Monti die vielen englischen Konstrukte locker schlaegt. Da gibt es nicht viel Gutes. Wir hatten Profimaterial (Grubb Parsons, Newcastle - bis 1985), und ganz frueher gab es mal gute Montis von Cooke. Aber heute ist da nicht mehr viel.

    Ich habe schon oft Faelle gehabt, die mich erstaunt haben und ich habe gelernt, dass die Reputation einer Montierung nicht immer ein Garant ist. Ich hatte mal zwei Vixen GPDX, die beide periodische Fehler um 30" hatten. Eine klassiche EQ6 (die erste im Markt, in schwarz) war aehnlich, aber der Fehler war eher chaotisch als periodisch, wohl wegen der Plastikvorgelege. Ich habe mal die periodischen Fehler gemessen und mit einer ollen EQ5 verglichen, die nur 17" hatte. Testsieger. Dann hatte ich eine Celestron CI700 mit fettem Bronzerad, die mich dennoch fotografisch nie ueberzeugen konnte. Dann hatte ich zwei EQ6-Montierungen, wo alles bestens lief! Die besten Montis bislang. Selbst die Rupp macht mehr Probleme, und auch die EQ8 kommt nicht ran - und das ohne Zahnriemenmodifikation oder Fettwechsel. Weiss der Geier ... offenbar sind die Streuungen bei den Grossserienprodukten recht hoch.

    Seit ueber einem Jahr fiel mir beim Hereinleuchten in mein Williams Optics ZS66 auf, dass zwischen den Linsen so allerlei Undefiniertes herumklebte, was waehrend mehr als 10 Jahren Sternwartenbetrieb den Weg ins Innere des ED-Dubletts gefunden hatte. Da Obelix, mein 14" Meade SCT, immer noch hinkt (Nachfuehrelektronik in Reparatur), eine gute Gelegenheit, den kleinen ZS66 zu reinigen, bevor sich im Luftspalt noch ein Pilz-Omelette bildet.


    Derlei Gewerk sollte ja so selten wie moeglich gemacht werden, und mit groesster Vorsicht. Die Linsen muessen ja genau wieder so zurueck, wie sie ausgebaut wurden - inklusive Rotationswinkel! Also erstmal die Zelle mit dem Dublett entfernen.


    Schwarzen Frontring von Taukappe entfernen, diese herunterfahren. Herrjeh, der Schwalbenschwanzschuh ist im Weg - aber im Nu mit dem passenden Inbusschluessel abmontiert, zwei Schrauben. Dann kann die Taukappe so weit eingefahren werden, dass die schwarze Linsenzelle abschraubbar ist.



    Dann eine Ueberraschung: Statt einer zylindrischen Zelle kommt ein langer Kegel zum Vorschein, fast schon wie beim Feldstecher.



    Den Kegel herausgeschraubt, habe ich die Zelle mit dem Dublett von beiden Seiten begutachtet - boeser Fehler! Ich wunderte mich, warum der Vorschraubring keine Kerben hatte, um einen Schluessel einzusetzen. Dann wurde ich gewahr, dass der Vorschraubring nur ein aufliegender Plastikring war! Haette sich der Linsenstapel nicht verkantet, waere er mir aus der Fassung gefallen. Puh, Schwein gehabt!

    Also VORSICHT FALLE: Der kegelfoermige Blendentubus ist gleichzeitig der Vorschraubring! Nach Entfernen ist die Fassung OFFEN!


    Das war ein "near miss" ... hier die Einzelkomponenten:



    Der Ring hat kein Gewinde, sondern liegt nur auf.

    Nach fuenf oder sechs Iterationen mit Isopropanol und warmem Spuelwasser hatte ich beide Linsen wieder sauber. Natuerlich wurden sie vorher seitlich mit einer Dreiecksmarkierung versehen (Pfeil zeigt in Lichtlaufrichtung ... meine Privatkonvention), sodass Rotationswinkel und Einbaurichtung der Linsen eindeutig klar sind. Ein Bleistift ist hier besser als ein Permanentmarker, zumindest beim Einsatz von Alkohol wie Isopropanol, in dem der Marker nicht mehr so permanent ist. Fuenfmal hatte ich das Objektiv wieder zusammengebaut, und trotz grosser Sauberkeit (Gummihandschuhe, Verwendung stets neuer Taschentuecher) gab es immer noch hier und da einen Wischer. Schliesslich war so wenig Restschmand zu sehen (und das nicht in Durchsicht, nur in Reflexion vor schwarzem Hintergrund), dass ich beschloss, es so zu lassen. Man kann Optiken schliesslich auch totputzen. Der Unterschied zu vorher jedenfalls ist wie Tag und Nacht.

    Ich habe die Kamera (Canon 40D) mit 10mm-Optik klackern lassen, trotz Wolken und Vollmond. Immer wieder gab es Luecken, aber keine Polarlichter trotz angeblicher KP8, die spaeter auf KP5.65 heruntergingen laut Spaceweather.com. Ich habe auch gelesen, dass die Show fuer uns zu frueh stattfand.


    Ist ein bisschen wie Angeln.

    Ich denke, das Problem mit Corona war die "instant science"-Problematik: Eine unerforschte Krankheit musste in Echtzeit beurteilt und Weisungen an die Bevoelkerung ausgegeben werden. Dass es dabei zu erratischen Entwicklungen kommt (Anweisungen werden gegeben, zurueckgezogen, durch andere ersetzt etc) ist klar. Man musste den jeweils aktuellen Anweisungen vertrauen, die in der Jetztzeit das geringste Risiko in sich bargen. Eine Situation, die es normalerweise in der Forschung nicht gibt. Man konnte halt nicht zwei Jahre warten, bis genug Daten zusammenkamen, welches Verhalten am lebensrettendsten war. Das haette viel mehr Menschen den Kopf gekostet.

    In der Astronomie haben wir solche Probleme natuerlich nicht - hoechstens im Szenario einer Kollision eines anderen Himmelskoerpers mit der Erde, wie in vielen Science-Fictions bereits ausgelebt.

    Hallo MicBass,


    willkommen in unseren Forum.


    Wenn der Fleck ein Satellit waere, waere er scharf und punktfoermig. Er ist aber diffus. Ich vermute deswegen zwei Moeglichkeiten:


    (i) Ein in geringer Distanz vorbeifliegendes Objekt, z.B. ein Vogel

    (ii) Eine Verunreinigung in der Optik, die durchs Gesichtsfeld huscht - das passiert gern bei handgehaltenen Aufnahmen.


    Du hast aber einen mechanischen Adapter verwendet, und auch der helle Reflex ist ortsfest. Deswegen vermute ich Moeglichkeit (i).

    Hallo Blue.moon,


    an den Schoen-Skandal kann ich mich noch erinnern. Zufaellig hatte damals jemand zwei Kurven aus zwei voellig unterschiedlichen Veroeffentlichungen desselben Autors zu unterschiedilchen Sachverhalten gefunden, die wie ein Ei dem Anderen glichen. Ein anderes Beispiel war die "Kalte Kernfusion" aus den spaeten 1980ern, die sich in anderen Laboren nicht reproduzleren liess. Generell ist der Lackmustest, ob andere Teams die gleiche Entdeckung nachvollziehen koennen - ob nun im Labor oder am Teleskop. Beispiel Vera Rubin und die Rotationskurven von Galaxien, die nicht dem Massemodell folgten, das auf sichtbares Licht beruhte. Da hiess es, der Spektrograf sei neu und vielleicht gibt es ein instrumentelles Problem, oder einen sonstigen technischen Fehler. Die Skepsis war gross, bis andere Gruppen an anderen Instrumenten die gleichen Messungen machten.

    Es zeigt eben, dass auch Wissenschaft von Menschen gemacht wird und es unter diesen auch schwarze Schafe gibt. Ich habe gerade in den letzten Jahren erlebt, dass Forschungsbetriebe die Integritaet von Forschern zunehmend betonen: So gibt es Seminare, die den Forschungsbetrieb auf inappropriates Verhalten in der Forschung sensibilisieren - ob das nun ein Ausnutzen Untergebener ist, Machtmissbrauch einer hohen Stellung oder generell wissenschaftliches Fehlverhalten oder anderes "foul play" im Team wie Diskrimierung etc. .

    Auf Preprintservern kann alles veroeffentlicht werden - es gibt keinen Peer-Review. Das weiss aber auch jeder, der in der Forschung taetig ist. Diese Server haben Betaversionen von Papern, die vor der Veroeffentlichung in Journalen, wo der Zugriff Geld kostet, dort veroeffentlicht werden. Dies verbreitet das Paper besser und motiviert auch, gegebenenfalls die Variante mit dem "letzten Schliff" von einem kostenpflichtigen Publizierer herunterzuladen. Und diese "geschliffenen" Varianten sind von Fachkollegen begutachtet, eben der "peer review".

    Das instrument des Peer Review ist ein sehr scharfes, um Spreu von Weizen zu trennen. Es ist unwahrscheinlich, dass in einem solchen "Fegefeuer" nicht Aenderungen gefordert werden, die im Paper eingearbeitet werden muessen. Das reicht von Auesserlichkeiten (Formulierungen, Tippfehler, Lesbarkeit von Graphen etc) bis zur Forderung, ganze Passagen besser zu erklaeren oder Widersprueche aufzuloesen. Das macht die hohe Qualitaet von Peer Reviews aus.

    Aber wie ueberall passieren auch hier Fehler. Die Frage ist, wieviel Zeit ein Reviewer fuer ein Paper aufwenden kann. Da kommt eine Email rein - Anfrage, an diesem Prozess teilzunehmen. Dann eine knappe Deadline, nur 2 Wochen Zeit. Eigentlich hat man gerade gar keine Zeit, andererseits ist es natuerlich gut fuer die Sache, daran teilzunehmen - schliesslich lebt die Wissenschaft davon. Ein Problem, das ich persoenlich ein paarmal hatte, wo ich gefragt wurde, war, dass das Fachgebiet doch ziemlich ausserhalb von meinem eigenen Fach war - zwar Physik und auch astronomische Instrumentierung, aber dann beispielsweise sehr elektroniklastig - ich mache Optik. Zeitdruck und ein geringer Ueberlapp von Fachkenntnissen kann dann dazu fuehren, dass speziell absichtlich herbeigefuehrte Falschinformationen, die entsprechend kaschiert werden, vom Reviewer nicht erkannt werden.

    Die schlimmste Zote aus meinem Erfahrungsschatz: Ein Ex-Kollege, inzwischen Professor in China, sendete mir ein Konferenzpaper zum Peer-Review. Er schrieb dann noch, ich sollte nach dem Review meinen Namen als Autor drunterschreiben. Haeh? Ich habe mir das Paper angeschaut. Irgendwas Elektronisches, ich verstand nur Bahnhof. Ich habe aber auf technische Maengel in dem Paper hingewiesen: Die Plots hatten keine Fehlerbalken, teils waren die Achsen nicht beschriftet, es fehlte eine ordentliche Erklaerung, was da eigentlich gemessen wurde und warum. Das Ganze war technisch vergleichbar zu einem Studentenprotokoll aus dem ersten Versuch im Anfaengerpraktikum an der Uni - voller elementarer Fehler. Ich habe auch geschrieben, dass ich selbstverstaendlich kein Autor sein moechte, da das gar nicht meine Arbeit sei. Die Email, die ich zurueckbekam, sagte sinngemaess "Danke fuer das Feedback. Wir haben das Paper eingereicht, und Du stehst als Autor drauf" ... Ich habe in meiner Antwort meinen Unmut zu Wort gebracht und darum gebeten, das doch NIE WIEDER zu machen! Zum Glueck war das nur ein unbedeutendes Konferenzpaper, aber alle Umstaende strotzten vom wissenschaftlichen Fehlverhalten, in das ich mit hineingezogen wurde.

    ich denke aber immer noch, dass das referierte Paper das hoechste Vertrauensniveau besitzt - Fehler passieren halt, aber hoechst selten. Und kommt sowas dann heraus, wird so ein Skandal auch veroeffentlicht. Gerade in den letzten Jahren gab es ja auch technisch neue Werkzeuge, um zum Beispiel Doktorarbeiten auf Plagiarismus zu ueberpruefen. Aber ganz ausschliessen laesst sich wissenschaftliches Fehlverhalten nie, da Wissenschaftler auch Menschen sind, und unter ihnen die sprichwoertlichen "schwarzen Schafe" verweilen. Es ist deshalb wichtig, wachsam und skeptisch zu bleiben.

    Hi Stefan,


    die 4/3 beziehen sich auf die Zusammenzaehlung der vier Pixel des Metapixels. Jedes davon hat in meinem Modell eben dieses Drittel, entweder R, G oder B, das nicht herausgefiltert wird. Gibt es eigentlich irgendwo eine Definition der Wellenlaengenbereiche fuer R, G und B? Damit koennte mein "Drittel" etwas praezisiert werden.


    Jedem PIxel wird ja gleitend je ein rotes, ein blaues und zwei gruene Mixel aus dem zugehoerigen 2x2-Metapixel zugeordnet. Deshalb die 4/3. Ohne Bayermatrix waere das 4, aber natuerlich dann ohne Farbinformation und sinnfrei - im Prinzip ein gleitendes Binning.


    Dass die Farblaufloesung bei dem gleitenden Binning leidet, ist klar und es kommt in Deinem Bildbeispiel gut heraus.

    Ganz traurige Geschichte. Das TMT hat seit Jahren mit einer Opposition zu kaempfen, die den Mauna Kea als geheiligten Ort versteht und dort oben keine Teleskope mehr haben will - ein klassischer Konflikt. Das Alleinstellungsmerkmal des TMT ist die geplante Lage auf der Nordhalbkugel, wo es komplementaer zum ESO-ELT und dem GMT einsetzbar ist. Doch gute Standorte sind dort rar gesaet. La Palma war auch schon im Gespraech. Aber es ist schon viel Geld durch den Baubeginn auf dem Mauna Kea und Kosten des Rechtsstreits verbraucht worden. Ich kann mir da eher noch eine Kollaboration mit anderen Staaten vorstellen, um das TMT doch noch realisieren zu koennen.

    Klar, es gibt in Forschungsinstituten auch andere fachfremde Berufe: Techniker beispielsweise, Verwaltungsmenschen oder Gebaeudereinigungskraefte. Ist halt nicht anders als in einem "normalen" Betrieb.

    Was ich aber sehe, ist eine groessere Anzahl von "mutierten" Ingenieren, speziell hier in England. Speziell in der Optik kenne ich viele Kollegen, die wie ich aus der Astronomie kamen, und heute einen optischen Ingenieurstitel haben. Dazu fallen mir ein paar Gruende ein: Zunachst mal ist es schwer, in unserem speziellen Gebiet Fachkraefte zu finden. Dann wissen die "Ingenieure", die aus der Wissenschaft kommen, sehr gut ueber die Hintergruende Bescheid und was beispielsweise ein Instrument leisten muss. Und schliesslich werden viele "echte Ingenieure" von der Wirtschaft akkretiert, die deutlich mehr Geld und auch Jobsicherheit bietet.


    Ich habe es gerade in unserer Gruppe erlebt: Wir suchen einen mechanischen Ingenieur zur Verstaerkung unseres Teams. Nach einer Bewerbungsrunde hatten wir zwei Kandidaten, die beide absagten, da sie in der Industrie eine gut dotierte feste Stelle bekamen, waehrend unsere Uni garkeine festen Stellen hat (ich habe nach 24 Jahren immer noch keine ... man gewoehnt sich dran). Wenn nun ein Ingenieur die Wahl hat zwischen einer Stelle an der Uni, ausgelobt fuer 24 Monate, Gehalt A; oder eine feste Stelle in einer Firma, Gehalt B mit B>>A, dann ist der Fall klar. Es sei denn, der Ingenieur hat ein partikulares Interesse an Astronomie oder Raumfahrt und schliesst sich uns deswegen an.


    Deshalb "mutieren" eben viele Wissenschaftler als "Ingenieur" in die Instrumentierung, und dank einer hohen Nachfrage an solchen Leuten sind die (verlaengerten Zeit-)Stellen auch relativ sicher. In Deutschland gibt es ja dieses Hochschulrahmengesetz, das vor 20 Jahren geaendert wurde und die Anzahl an Zeitvertraegen beschraenkt. Es soll also jeder Professor werden - nur gibt es nicht genug Stellen dafuer. Geschaffen, "um den Braindrain zu verhindern", hat es einen schoenen Braindrain erzeugt. Dies war persoenlich fuer mich auch der Grund dafuer, in England zu bleiben. ;)

    Hi Stefan,


    es ist die Frage, wie wir "Pixel" definieren.

    Mit der Definition


    Pixel := kleinste lichtempfindliche Flaecheneinheit

    Metapixel := Gruppe aus vier Pixeln, RGGB


    sieht das so aus:

    Jedes Pixel bekommt ca. 1/3 des einfallenden Lichts (unter der Annahme, dass das Spektrum intensitaetsmaessig auf ca. drei Drittel aufgeteilt wird - was natuerlich vom Objekt abhaengt).

    Wenn einem Pixel nun der Wert eines Metapixels zugeordnet wird, bekommt es die vier Drittel der Intensitaet, die die Einzelpixel nach Filterung registrieren. Du sieht den Nenner (es sind ja vier Viertel), eines davon bekommt die volle R-Intensitaet, so enthaelt das Metapixel 1/4 R-Signal und die anderen Farben analog), ich sehe den Zaehler, das Drittel, das jedes Pixel nach der Filterung enthaelt.

    Aber da jedes Pixel durch die Filterung ca. 2/3 des Signals Intensitaet verliert, ist ein Farbchip nur 1/3 so empfindlich wie ein Monochromchip. Andererseits, wenn ein Monochromchip mit Filterrad verwendet wird, wird pro Filterung wieder global nur 1/3 des Lichts genutzt.

    Ideal waere fuer Kontinuumsimaging mit Farbinformation halt ein System mit dichroitischen Strahlteilern oder ein energieaufloesender Sensor wie der Foveon. Da wuerde fast jedes Photon genutzt.

    Es kommt darauf an, wie Du es berechnest. Ich machte das Spektral: Das sichtbare Licht wird in etwa gleich grosse Wellenlaengenbereiche fuer rot, gruen und blau aufgeteilt. Deshalb das Drittel. Wenn Du das so siehst, dass ein 2x2-Metapixel in zwei gruene und je ein rotes/blaues Pixel aufgeteilt wird, dann teilen sich die Farbpixel die Geometrie des 2x2-Metapixels. Aber das ist nur die geometrische Aufteilung, das Licht an den Filtern geht immer noch verloren. Das gruene Pixel verliert rot und blau, das blaue Pixel rot und gruen und das rote Pixel gruen und blau.


    Die Foveontechnologie wollte erreichen, dass Licht verschiedener Energie in verschiedenen Schichttiefen des Detektors in Elektronen umgewandelt wird und damt die Farbinformation abgemolken werden kann, ohne Photoen an Filtern zu verlieren. Hat aber wohl in der Praxis nicht geklappt. In unserer Forschungsgruppe hier in Durham arbeitet jemand an MKIDS. Das sind ebenfalls spektral empflindliche Detektoren. Aber diese muessen nahe zum absoluten Nullpunkt gekuehlt werden und derzeitige Prototypen haben nur eine Handvoll Pixel.