Summary

Bringing the Visible Universe in Focus mit Robo-AO

Published: February 12, 2013
doi:

Summary

Licht aus astronomischer Objekte müssen über der Erde turbulente Atmosphäre zu reisen, bevor es von bodengebundenen Teleskopen abgebildet werden können. Um die direkte Bildgebung mit maximaler theoretischer Winkelauflösung zu ermöglichen, müssen fortgeschrittenen Techniken, wie sie von der Robo-AO-adaptive Optik eingesetzt werden.

Abstract

Die Winkelauflösung von bodengebundenen optischen Teleskopen wird durch die erniedrigende Wirkung der turbulenten Atmosphäre begrenzt. In Abwesenheit von einer Atmosphäre wird die Winkelauflösung von einem typischen Teleskop nur durch Beugung, dh die interessierenden Wellenlänge, λ, die von der Größe der Öffnung des Primärspiegels, D unterteilt begrenzt. Zum Beispiel hat das Hubble Space Telescope (HST), mit einem 2,4-m Hauptspiegel, eine Winkelauflösung bei sichtbaren Wellenlängen von ~ 0,04 Bogensekunden. Die Atmosphäre wird von Luft bei geringfügig unterschiedlichen Temperaturen zusammengesetzt und damit unterschiedlichen Brechungsindizes, ständig Mischen. Lichtwellen gebogen sind, während sie durch die inhomogene Atmosphäre gelangen. Wenn ein Teleskop auf den Boden dieser Lichtwellen konzentriert, erscheinen momentanen Bilder fragmentierten und verändert als eine Funktion der Zeit. Als Folge erwarb Langzeitbelichtung Bilder mit bodengebundenen Teleskopen – auch Teleskope mit der vierfachen Durchmessermesser von HST – verschwommen erscheinen und haben eine Winkelauflösung von etwa 0,5 bis 1,5 Bogensekunden am besten.

Astronomische adaptive-optische Systeme für die Auswirkungen von atmosphärischen Turbulenzen auszugleichen. Zuerst wird die Form des ankommenden nicht-planaren Welle bestimmt unter Verwendung von Messungen von einer nahe gelegenen hellen Stern durch einen Wellenfrontsensor. Als nächstes wird ein Element in dem optischen System, wie etwa einem verformbaren Spiegel, befohlen, um die Form der ankommenden Lichtwelle korrigieren. Zusätzliche Korrekturen werden bei einer Rate, die ausreicht, um mit dem sich dynamisch ändernden Atmosphäre, durch die das Teleskop wirkt letztlich Herstellung beugungsbegrenzten Bildern.

Die Genauigkeit der Messung wird Wellenfrontsensor davon ab, wie gut das einfallende Licht ist ein räumlich und zeitlich abgetasteten basiert. Finer Probenahme erfordert heller Objekte verweisen. Während die hellsten Sterne können als Referenzobjekte für die Bildgebung Ziele aus mehreren bis zehn dienenvon Bogensekunden entfernt in den besten Bedingungen, die meisten interessanten astronomischen Ziele nicht hinreichend helle Sterne in der Nähe. Eine Lösung ist, einen High-Power Laserstrahl in Richtung des astronomischen Ziel, eine künstliche Referenz bekannter Form, auch als "Laser Guide Star" bekannt zu schaffen konzentrieren. Der Robo-AO Laser adaptiven Optik 2,3 beschäftigt 10-W UV-Laser in einem Abstand von 10 km, eine Laserleitstern erzeugen konzentriert. Wellenfront-Sensor Messungen des Laser Guide Star Drive die adaptive Optik Korrekturen aufgrund in beugungsbegrenzte Bilder, die eine Winkelauflösung von ~ 0,1 Bogensekunden auf einem 1,5-m-Teleskop haben.

Introduction

Die Auswirkungen von atmosphärischen Turbulenzen auf astronomische Bildgebung wurde vor Jahrhunderten von Christiaan Huygens 4 und Isaac Newton 5 anerkannt. Die ersten adaptiven Optik konzeptionellen Designs, um die Effekte von Turbulenzen zu kompensieren wurden unabhängig von Horace Babcock 6 und Vladimir Linnik 7 in den 1950er Jahren publiziert. Das US Department of Defense dann finanziert die Entwicklung der ersten adaptiven Optiken in den 1970er Jahren für die Zwecke der Bildgebung ausländischen Satelliten während des Kalten Krieges 8. Die zivile astronomische Gemeinschaft Fortschritte der Entwicklung von Systemen in den 1980er Jahren, aber nach Deklassierung der militärischen Forschung auf adaptive Optik im Jahr 1992 (vgl. 9), gab es eine Explosion in der Anzahl und Komplexität der astronomischen Systeme 10.

Die meisten der etwa 20 sichtbaren und infraroten Teleskope heute mit Öffnungen größer als 5 Meter sind equipped mit adaptiver Optik-Systeme (zB refs. 11-19). Wie Teleskope größer und damit besser in der Lage zu sammeln Licht zu werden, gibt es größere Gewinne in Auflösung und Empfindlichkeit bei Verwendung der adaptiven Optik. Leider sind große Teleskop adaptive-Optik-Systeme äußerst komplex und eingeschränkt in ihrem Betrieb bis nah-infraroten Wellenlängen aufgrund der aktuellen Technologie; sie erfordern Teams von Support-Mitarbeiter, oft mit großen Beobachtung Gemeinkosten und den Zugang zu diesen knappen und wertvollen Ressourcen ist auch begrenzt.

Am anderen Ende der Größe Spektrums gibt es weit über 1-100 Teleskope der 1-3 Meter-Klasse, aber nur sehr wenige von ihnen sind mit adaptiver Optik ausgestattet. Korrigieren atmosphärische Turbulenzen auch bei sichtbaren Wellenlängen kürzer wird tractable mit der aktuellen Technologie auf diesen kleineren Teleskopen, weil sie durch einen viel kleineren Volumen von atmosphärischen Turbulenzen (Abbildung 1) zu sehen. Die Gesamtmenge der Turbulenz-induced optische Fehler Skalen nahezu proportional mit dem Teleskop Hauptspiegel Durchmesser und umgekehrt mit der Beobachtung Wellenlänge. Dasselbe adaptive Optik-Technologie, die mit Licht im nahen Infrarot auf die größeren Teleskopen verwendet wird, kann mit sichtbarem Licht von der begrenzten Größe Teleskopen verwendet werden. Darüber hinaus sind viele Teleskope dieser Größenordnung entweder nachgerüstet werden (zB ref. 20) oder neu mit voll Roboter, Fern-und / oder autonome Fähigkeiten (zB ref. 21) errichtet, die deutliche Steigerung der Wirtschaftlichkeit dieser Anlagen. Wenn mit adaptiver Optik ausgestattet, würden diese Teleskope bieten eine überzeugende Plattform für viele Bereiche der astronomischen Wissenschaft, die sonst unpraktisch oder unmöglich mit großen Teleskops adaptive-Optiken sind 22 rechtlich zu verfolgen. Beugungsbegrenzten gezielten Erhebungen von Zehntausenden von Zielen 23,24, Langzeitüberwachung 25,26 und schnelle transiente Charakterisierung in überfüllten Felder 27 sind möglich mit adaptiver Optik auf diesen bescheidenen Öffnungen.

Um diese neue Entdeckung Raum zu erforschen, haben wir entwickelt und eine neue wirtschaftliche adaptive-Optik für 1-3 Meter-Klasse Teleskopen, Robo-AO (Lit. 2,3; Abbildung 2) umgesetzt. Wie bei anderen Laser adaptiv-Optiken umfasst Robo-AO mehrere Haupt-Systemen: das Lasersystem; einen Satz von Elektronik, und ein Instrument des Teleskops Cassegrainfokus montiert (hinter dem primären Spiegel, Fig. 3), die eine Hochgeschwindigkeits-beherbergt optischer Shutter, Wellenfront-Sensor, Wellenfront Korrektoren, wissenschaftliche Instrumente und Kalibrierung Quellen. Der Robo-AO-Design abgebildet sind, zeigt, wie ein typischer Laser adaptive-Optik in der Praxis arbeitet.

Der Kern der Robo-AO Lasersystem ist ein gütegeschalteter 10-W UV-Laser in einem geschlossenen Projektor Montage auf der Seite des Teleskops angebracht ist. Beginnend mit dem Laser selbst, wobei der LaserProjektor dann ein redundantes Auslöser neben des Lasers inneren Verschluss, für zusätzliche Sicherheit; eine Halbwellenplatte, um den Winkel des projizierten linearen Polarisation einzustellen, und einen Uplink-Tip-Tilt Spiegel sowohl stabilisieren die scheinbare Laserstrahlposition auf Himmel und für Fernrohr Biegung zu korrigieren. Eine bi-konvexe Linse auf einem verstellbaren Fokus Stufe erweitert den Laserstrahl, um eine 15 cm Ausgangsapertur Linse, die optisch mit dem Tip-Tilt Spiegel konjugieren füllen. Der Ausgang Linse fokussiert das Laserlicht zu einem line-of-sight Entfernung von 10 km. Wie der Laserpulse (~ 35 ns langen alle 100 us) durch die Atmosphäre vom Projektor entfernt, ein winziger Bruchteil der Photonen Rayleigh-Streuung off Luftmolekülen und Rückkehr in Richtung des Teleskops (2B) zu propagieren. Die zurückkehrenden gestreuten Photonen entstehen entlang der gesamten Aufwärtspfad des Lasers, und andernfalls als ein Streifen, damit die Wellenfront Messungen ungenau erscheinen würde. Innerhalb der adaptive-Optik instRUMENT, ein Hochgeschwindigkeits-Pockelszelle optische Verschluss 28 verwendet wird, um Laserlicht nur Rückkehr von nur einem schmalen Scheibe der Atmosphäre um den Projektor 10 km Schwerpunkt, was zu dem Laser erscheinen als Fleck zu übertragen. Schalten des Pockels-Zelle wird von der gleichen Master-Takt als den Impulslaser angetrieben, mit einer Verzögerung um Konto für die Umlaufzeit des Laserpulses durch die Atmosphäre. Letztlich wird nur etwa jeder Billionen Photonen gestartet durch die Wellenfront Sensor erfasst. Trotzdem ist dieser Strahlungsfluß ausreicht, um die adaptive Optik-System zu betreiben.

Die Ultraviolett-Laser hat den zusätzlichen Vorteil, unsichtbar für das menschliche Auge, in erster Linie aufgrund der Absorption in der Hornhaut und Linse 29. Als solche ist sie nicht in der Lage Flash-blind Piloten und wird als Class 1 Laser-System (dh keine schädlichen Strahlung während des Betriebs und ohne jede Kontrolle misst 30) für alle möglichenAufnahmen von Personen in Überfliegen Flugzeuge, wodurch die Notwendigkeit für die menschliche Spotter vor Ort befindet wie sie normalerweise von der Federal Aviation Authority in den USA 31 erforderlich. Leider kann die Möglichkeit für den Laser, um einige Satelliten im erdnahen Orbit beschädigen existieren. Aus diesem Grund ist es für beide Sicherheit und Haftung betrifft empfohlen, Laser Aktivitäten mit einer geeigneten Stelle (zB mit US Strategic Command (USSTRATCOM) in den USA 32) zu koordinieren.

Der Wellenfrontsensor die das ankommende Laserlicht misst im Robo-AO Cassegrain Instrument als Shack-Hartmann-Sensor 33 bekannt ist, und umfasst eine Linsenanordnung, Lichtübertragungseinrichtung und bildgebenden Sensor. Die Linsenanordnung ist ein brechendes optisches Element, flach auf einer Seite mit einem Gitter aus quadratischen konvexen Linsen auf der anderen Seite. Es ist an einer Stelle, die optisch mit der Eintrittspupille des Teleskops Konjugat entfernt. Wenn die 'return light' von the Lasers geht durch den lenslest Array, werden die Bilder der Online-Himmel Lasers im Mittelpunkt von jeder der Linsen in der Matrix (4) erstellt. Dieses Muster der Laserbilder wird dann optisch mit einem UV-optimierten charge-coupled device (CCD)-Kamera weitergeleitet. Die seitliche xy-Position jedes Bildes ein Maß des lokalen Gradienten oder "Steigung" der Lichtwelle durch jede Linse des Arrays. Das Signal-zu-Rausch-Verhältnis jedes Positionsmessung mit Robo-AO Bereich von 6 bis 10 in Abhängigkeit von Zenith Winkel und Sichtbedingungen (6,5 Elektronen Detektorrauschen in jedem der vier Pixel mit einem Signal im Bereich von 100 bis 200 pro Bild pro Photoelektronen Messung).

Die Gesamtform der Lichtwelle wird dann durch Multiplizieren der gemessenen Steigungen von einem im Voraus berechneten Wellenfront Rekonstruktor Elements berechnet. Der Rekonstruierer Matrix wird hergestellt, indem zunächst ein Modell der Pupille Geometrie, die von dem Lenslet-Array unterteilt ist geschaffen. Individuelle ortho-normale BasisFunktionen (in diesem Fall Festplatte harmonische Funktionen bis zur 11 th radiale Ordnung, für eine Gesamtmenge von 75 Funktionen;. ref 34) sind über das Modell und einem 2-D Least-Squares-Lösung für das Best-Fit-Ebene über jede Linse realisiert in das Array wird berechnet. Dies ist zwar eine Annäherung an die durchschnittliche Steigung, ist der Unterschied in der Praxis vernachlässigbar, mit dem Vorteil die einfache Handhabung die Geometrie teilweise beleuchtet Linsen an den Rändern des projizierten Pupille. Ein Einfluss-Matrix wird so abgeleitet, dass wandelt Einheit Amplituden für jede Basisfunktion mit der Steigung für jedes Objektiv ausgeglichen. Die Matrix wird dann Rekonstruktor indem der Pseudo-Inversen der Einfluss Matrix mittels Singulärwertzerlegung erstellt. Sobald die Form der Lichtwelle hinsichtlich der Koeffizienten des Basissatzes bekannt ist, kann eine kompensatorische inverse Form der Wellenfront hoher Ordnung Korrektor befohlen werden. Verfahren zur Herstellung einer Messung, dann Anwenden einer Korrektur, und Wiederholen dieses Zyklusund immer, ist ein Beispiel eines integralen Regelkreis. Robo-AO führt seine Regelkreis mit einer Rate von 1,2 kHz, notwendigen Schritt zu halten mit der Dynamik der Atmosphäre. Ein Skalierungsfaktor (auch als die Verstärkung des integralen Regelkreis bekannt) von weniger als 1, und typischerweise nahe 0,6 ist, wird auf die Korrektur-Signal angelegt, um die Stabilität der Regelkreis zu halten, während immer noch Minimierung des Restfehlers von korrigierten Licht.

Das höherwertige Wellenfront-Korrektur innerhalb Robo-AO ist eine mikro-elektro-mechanischen Systemen (MEMS) verformbare Spiegel 35. Robo-AO 120 verwendet, um die Aktuatoren beleuchteten Oberfläche des Spiegels ausreichend räumliche Auflösung passgenau Korrigieren des berechneten Form anzupassen. Die Stellglieder haben einen maximalen Oberflächenabweichung Amplitude von 3,5 um die optische Phasenkompensation von bis zu 7 um entspricht. In typischen atmosphärischen Bedingungen zu astronomischen Observatorien, ist diese Kompensation Länge von mehr als 5 sigma derAmplitude der Turbulenzen induzierten optischen Fehler und führt daher zu deutlichen Korrektur Kopffreiheit. Weiterhin kann die verformbare Spiegeleinrichtung für statische optische Fehler, die sich aus dem Instrument und Teleskops auf Kosten einer reduzierten Dynamik auszugleichen.

Eine Feinheit zur Verwendung eines Lasers als einer Sonde der Atmosphäre ist ihre Unfähigkeit, zu messen astronomischen Bildbewegung 36. Der zurückkehrende Laserlicht von ungefähr der gleichen Position, aus der sie projiziert und wird deshalb immer in der gleichen Lage am Himmel erscheinen angesehen. Jede allgemeine Neigung in der rückkehrenden Laser-Lichtwelle durch die Wellenfront-Sensor gemessen wird durch mechanische Richtfehler dominiert. Die Neigung wird verwendet, um das Lasersystem Uplink-Tip-Tilt-Spiegel zu fahren, und hält so die Shack-Hartmann-Muster auf der Wellenfront-Sensor zentriert. Korrigieren astronomischen Bildbewegung wird separat mit den Kameras Wissenschaft gehandhabt wie nachstehend erläutert.

Robo-AO nutztvier off-axis parabolisch (OAP) spiegelt dem Relais Licht vom Teleskop auf die Wissenschaft Kameras achromatisch (Abbildung 3). Das Relais ist mit einem schnellen Pfad Tip-Tilt Korrigieren Spiegel sowie einen atmosphärischen Dispersion Korrektor (ADC) 37 von einem Paar von rotierenden Prismen besteht. Der ADC löst ein Problem im Zusammenhang mit bestimmten Beobachtung von Objekten durch die Atmosphäre, die nicht direkt über: die Atmosphäre wirkt wie ein Prisma und bricht das Licht als eine Funktion der Wellenlänge, mit der Gesamteffekt stärker wird als Teleskop Punkte niedriger in der Höhe, wodurch Bilder – vor allem jene, die durch die adaptive Optik Korrektur wurden geschärften – erscheinen länglich in der Richtung senkrecht zum Horizont. Der ADC kann eine gegenüberliegende Menge der Dispersion auf das ankommende Licht hinzuzufügen, effektiv Negieren der Wirkung des atmosphärischen prismatischen Dispersion (Abbildung 5). Am Ende des OAP Relais ist ein sichtbares dichroitisches, die Licht von λ <95 spiegelt0 nm zu einem Elektron-multiplizierenden charge-coupled device (EMCCD)-Kamera während des Sendens Infrarotlicht in Richtung einer Infrarotkamera. Die EMCCD Kamera hat die Fähigkeit, Bilder mit sehr niedrigen elektronische (Detektor) Rauschen 38,39, Capture mit einer Bildrate, die die intra-Exposition Bildbewegung reduziert unter den beugungsbegrenzten Winkelauflösung. Durch die Wiederverwendung Zentrierung und Stapelung eine Reihe dieser Bilder kann eine Langzeitbelichtung Bild mit minimalem Rauschen Strafe synthetisiert werden. Die EMCCD Kamera kann auch zur Bildbewegung auf der Infrarotkamera stabilisieren; Messungen der Position eines abgebildeten astronomischen Quelle kann verwendet werden, um kontinuierlich die schnelle befehlen Tip-Tilt erneut darauf das Bild zu einer gewünschten Stelle werden. Vor jeder Kamera ist ein Satz von Filter-Räder mit einem geeigneten Satz von astronomischen Filtern.

Eine interne Teleskop und Source-Simulator in den Robo-AO-System als Kalibrierwerkzeug integriert. Sie kann gleichzeitig simulieren das ultravioletteLaserfokus bei 10 km und einer schwarzen Quelle im Unendlichen, passend zu den Host-Teleskops Öffnungsverhältnis und Austrittspupille Position. Die ersten Faltspiegel innerhalb Robo-AO leitet alle Licht des Teleskops Fangspiegel der adaptive-Optik. Der Faltspiegel ist auch auf einem motorisierten Stufe, die aus dem Weg, um die interne Teleskop und Source Simulator offenbaren übersetzt werden montiert.

Während die Robo-AO-System soll in einem völlig autonom arbeiten kann jede der vielen Schritte der adaptiven Optik Beobachtung manuell ausgeführt werden. Diese Schritt-für-Schritt-Verfahren, zusammen mit einer kurzen Erklärung, wird im folgenden Abschnitt beschrieben.

Protocol

Ein. Pre-Beobachtung Procedures Machen Sie eine Liste der astronomischen Vorgaben zu beachten. Berechnung der gesamten Belichtungszeit für jedes Target benötigt, um eine erforderliche Signal-zu-Rausch-Verhältnis in jedem Filter und wissenschaftlichen Kamera-Kombination gewünschten erreichen. Senden Sie die Liste der astronomischen Vorgaben zu beachten, um USSTRATCOM mehr als 3 Tage im Voraus von Beobachtungen werden. Sie sendet einen Predictive Vermeidung Message (PAM), die "offene Fenster" – die Zeiten sicher zu den Laser-System auf jede angeforderte Ziel verwenden, ohne potenziell schädliche Satelliten. Installieren Sie den Robo-AO-System auf dem Teleskop tagsüber, wenn nicht schon geschehen (zB Robo-AO auf der 1,5-m-Teleskop auf P60 Palomar Observatory, CA; Abbildung 2). Übersetzen Sie den ersten Faltspiegel die interne Teleskop und Source-Simulator mit dem Laser Wellenfront-Sensor zu offenbaren, und schalten Sie den simulierten Laserquelle. </ Li> Aufzeichnen der Positionen der simulierten Bilder auf der Laser-Wellenfrontsensor Kamera. Diese Positionen werden als Referenz Steigung Messungen für den Shack-Hartmann-Wellenfrontsensor verwendet und werden aus der folgenden Messungen on-Himmel subtrahiert werden. Dieses Verfahren kalibriert kleine optische Änderungen im Instrument Ausrichtung durch die wechselnden Temperaturen. Bringen Sie den ersten Faltspiegel in seine ursprüngliche Position und schalten Sie den simulierten Laserquelle. Kontakt USSTRATCOM eine Stunde vor beobachten, um sie von der Nacht geplante Tätigkeit informieren und keine Aktualisierungen oder Änderungen an der PAM. Schalten Sie die 10-W UV-Laser auf, während die redundante Verschluss geschlossen. Flüssigkeitskühlung regelt die Temperatur der Diode Pumpen innerhalb des Lasers und erfordert etwa eine Stunde, um zu stabilisieren. Überprüfen Sie, dass die Bedingungen sicher sind, um das Teleskop Kuppel öffnen, sobald es dunkel genug für die Beobachtung ist. Dies beinhaltet eine sicheren Bereichfür Feuchte, Taupunkt Depression, Niederschlag, Windgeschwindigkeit und Schwebeteilchen. Öffnen Sie das Teleskop Kuppel und deuten auf einen relativ hellen Stern (m V ≤ 5) Overhead. Neuausrichtung des Teleskops durch die Positionierung des Teleskops Fangspiegel bis zum Stern ist ungefähre besten Fokus (kleinste Bildbreite). Manuelle Schätzung von einem Live-Bild von einem der Wissenschaft Kameras ist ausreichend. 2. High-um Adaptive Optics Correction Wählen Sie einen astronomischen Ziel, eine ausreichend lange "offene Fenster" hat nach dem PAM. Stellen Sie einen Alarm für das Ende der "offenen Fenster" mit einem Puffer von mindestens 1 Minute. Wenn der Alarm losgeht während einer Beobachtung sofort Shutter des Lasers. Richten Sie das Teleskop auf die ausgewählte astronomische Ziel. Gestalten Sie das Objekt (e) in der field-of-view der Wissenschaft Kameras durch Anpassung des Teleskops zeigt wie nötig. Bestätigen Sie, dass der Laser Uplink Tip-Tilt-Spiegel in seiner Reichweite ist, bevor Sie die internen und redundante Laser Rollläden zentriert – Verbreitung des Lasers am Himmel (Abbildung 2). Aufzeichnen einer zweiten der Daten vom Wellenfrontsensor Kamera, etwa 1200 Frames, während der optische Verschluss Pockelszelle ist ausgeschaltet. Berechnen einer mittleren Bild aus diesen Daten. Dies wird als Hintergrund Rahmen um jegliche elektrische oder optische Bias aus Bildern von der Kamera erfassten Wellenfrontsensor subtrahieren verwendet werden. Drehen der Pockelszelle Auslösesystem auf, so dass die Laserimpulse von 10 km zum Wellenfrontsensor übertragen werden. Spiral Suche der Uplink-Tip-Tilt-Spiegel, bis der Shack-Hartmann-Muster von Laser-Bilder erscheinen in der Wellenfront-Sensor-Kamera (Abbildung 4B). Lassen Sie den Uplink-Tip-Tilt-Spiegel in Position. Nehmen Sie eine neue Wellenfront-Sensor Hintergrundbildes während der Pockels-Zelle ist momentan ° gedrehtff. Dies ist notwendig, da die optischen Hintergrund leicht ändert den Laser in verschiedenen Richtungen durch die Uplink-Spitze Kippspiegel gerichtet. Starten Sie das höherwertige adaptive-Optik. An dieser Stelle zwei Regelkreise werden gleichzeitig gestartet; die Positionen jedes Lasers Bild durch den Wellenfrontsensor Linsenanordnung erstellt werden verwendet, um den deformierbaren Spiegel Aktuatoren anzutreiben, um die nicht-planare Lichtwellen in das Teleskop abzuflachen, bevor sie an die Propagation Wissenschaft Kameras . Ein gewichteter Durchschnitt der Positionsmessungen wird auch verwendet, um die Uplink-Tip-Tilt Spiegel befehlen, die Zentrierung des Musters von Laser Bilder auf dem Wellenfrontsensor aufrechtzuerhalten. 3. Beobachten im sichtbaren (mit Post-facto Registrierung Correction) Setzen der Position der Filter auf die gewünschte Räder Beobachten Filter (s). Den Winkel der ADC Prismen, so dass die restliche atmosphärischen prismatischen Dispersion auf minimiert wirddie wissenschaftlichen Instrumente. Die Belichtungszeit und die Bildgröße auf der EMCCD Kamera derart, dass es eine minimale Frame-Transfer-Bildrate von ~ 10 Hz, 30 Hz mit bevorzugter. Daten mit dieser Rate erfasst wird typischerweise reduzieren die intra-Exposition Bildbewegung unterhalb des beugungsbegrenzten Winkelauflösung. Stellen Sie die Elektronen-Multiplikation Verstärkung auf der EMCCD Kamera derart, dass die maximale Intensität der Targets etwa halb so gut Tiefe des Melders oder bei einem maximalen Wert von 300 für die schwächer Targets ist. Für schwache Ziele, die in etwa größer als eine Größe der stellaren 15, verlangsamen die Bildrate der Kamera EMCCD unten, bis es mindestens ~ 5-10 sind Photonen in dem Kern des Bildes Punktbildfunktion detektiert. Während dies führt zu zusätzlichen Bild Bewegungsunschärfe in Frames und die Verringerung der Winkelauflösung (zB ref 40;. Etwa doppelt so beugungsbegrenzte Auflösung von m r ~ 16,5 targets), werden mehrere Kern-Photonen für die ordnungsgemäße post-facto-Registrierung Verarbeitung erforderlich. Nehmen Sie eine kontinuierliche Reihe von Bildern aus dem EMCCD Kamera, bis die gesamte integrierte Belichtungszeit gleich der Zeit in 1,2 berechnet. 4. Beobachten im Infrarot (mit sichtbarem Tip-tilt Correction) Stellen Sie die Filterrad vor dem EMCCD Kamera an einen Breitband-Filter, dh einem klaren Filter oder eine λ> 600nm Langpassfilter. Beachten die Pixelposition des Objektes als ein Tip-Tilt Führung Quelle auf dem EMCCD Kamera verwendet werden, während man einen Livebild. Stellen Sie die Kamera ausgelesen Einstellungen auf die folgenden Werte: bin Pixel um den Faktor 4, und stellen Sie die Frame-Transfer-sub-frame Auslesen Region insgesamt 2 × 2 klassierte Pixel auf dem zuvor angemerkt zentriert sein. Stellen Sie die EMCCD Kamera Bildrate und Elektronenvervielfachung Verstärkung, um die Helligkeit des Tip-Tilt übereinleiten Quelle. Ein Frame-Rate von 300 Hz wird bevorzugt (bei einem Regelkreis Korrektur Bandbreite von ~ 30 Hz), jedoch kann, wie dies für schwächere Objekte auf Kosten von geringerer Qualität Tip-Tilt-Korrektur verringert werden. Starten Sie den Tip-Tilt-Regelkreis. Dieser berechnet die aktuelle Leitfaden Source Position und befehligen die schnelle Tip-Tilt-Korrektur Spiegel, den Standpunkt der Mitte des klassierten Pixelbereich fahren. Aufzeichnung von Bildern von der Infrarot-Kamera, bis die gesamte integrierte Belichtungszeit gleich der Zeit in 1,2 berechnet. Maximale Single-Frame Belichtungszeiten wird nur durch die Sättigung von Infrarot-Emissionen begrenzt werden, die vom Himmel, Instrument oder Objekt oder durch dunkle Strom aus der Infrarot-Array. Expositionen können von Bruchteilen einer Sekunde bis zu mehreren Minuten liegen. 5. End of Night Procedures Schließen Sie das Teleskop Kuppel und dem Fernrohr zum Flachbildschirm bei der Beobachtung abgeschlossen ist. Schalten Sie den Laser ausund wenden USSTRATCOM mit einer Zusammenfassung der nächtlichen Aktivitäten innerhalb von 15 min. Drehen Sie die Kuppel Flachlampe auf. Zeichnen Sie eine Reihe von Full-Frame-Bildern auf beiden EMCCD und Infrarot-Kameras der Flat-Field-Beleuchtung durch die Kuppel Flachlampe auf dem Flachbildschirm für jeden astronomischen Filter während der vorhergehenden Nacht verwendet wurde. Der Flachbildschirm-Feldstärke an jedem Bildpunkt repräsentiert den kombinierten relativen Quanten-Wirkungsgrad des Teleskop-adaptive Optik, Filter und Kamera. Drehen Sie die Kuppel Flachlampe ausschalten und den Sperrfilter vor jeder Kamera. Zeichnen Sie eine Reihe von dunklen Bildern auf beiden Kameras entsprechend dem Bereich der Belichtungszeiten und Bildformate in der vorhergehenden Nacht aufgezeichnet. Die dunklen Frames verwendet werden, um Verzerrungen aufgrund Dunkelstrom und elektronisches Rauschen aus den aufgezeichneten Daten zu entfernen. Parken Sie das Teleskop. 6. Verarbeitung Images Erstellen Sie eine einzelne dunkle calibrierung Bild aus dem Median der einzelnen dunklen Bildserien in 5,6 aufgezeichnet). Erstellen eines Flat-Field Kalibrierungsbildes für jedes Filter auf jeder Kamera durch Berechnung des Medians jedes Flat-Field in 5,4 Bildserie gespeichert), Subtrahieren der entsprechende dunkle Kalibrierungsbild und dann Teilen des gesamten Bildes durch den Median-Pixelwert in dem Rahmen. Subtrahieren Sie die entsprechenden dunklen Eichbild und dividieren durch die Flat-Field-Kalibrierung für jede auf-sky Wissenschaft Bild aus den EMCCD und Infrarot-Kameras aufgezeichnet. Re-Center die kalibrierte Wissenschaft Bilder von jeder Beobachtung durch Ausrichten des hellsten Pixels und fügen Sie die Bilder zusammen, um eine gestapelte Bild zu erstellen. Weitere anspruchsvolle Routinen für Imagegewinn Registrierung kann auch 39,41 verwendet werden.

Representative Results

Der Robo-AO-Laser adaptiven Optik verwendet wird, um für atmosphärische Turbulenz zu kompensieren und produzieren beugungsbegrenzten aufgelösten Bildern im sichtbaren und . Nah-Infrarot-Wellenlängen 1A zeigt ein Bild von einem einzelnen Stern in rotem Licht durch unkompensierte atmosphärischen Turbulenzen mit einer Bildbreite von 1,0 Bogensekunden gesehen 1B zeigt den gleichen Stern nach adaptiver Optik Korrektur:. die Bildbreite sinkt auf 0,12 Bogensekunden , etwas größer als eine perfekte Bildbreite von 0,10 Bogensekunden bei dieser Wellenlänge auf einem 1,5 m-Teleskops. Der erste Airy Ring, ein Ergebnis der Beugung, kann als schwache ringartige Struktur um den Kern des Bildes zu erkennen. Diese deutlich verbesserte Winkelauflösung ermöglicht die Entdeckung von binären und Mehrfach-Stern-Systemen (zB 1C und Bemerkungen ref. 40) und für den Nachweis von viel schwächere Sterne in dichten Bereichen wieDer Kugelsternhaufen Messier 3 (zu sehen in der Nah-Infrarot-, Abbildung 6), die sonst unmöglich wäre, direkt durch atmosphärische Turbulenzen zu sehen. Merkmale der Solar-System-Objekte, wie die Wolke Oberfläche des Jupiter sowie die Transit Mond Ganymed (Abbildung 7), kann auch mit einem höheren Maß an Klarheit, wenn mit Laser adaptive Optik angesehen gesehen werden. Abbildung 1. Adaptive Optik Korrektur bei sichtbaren Wellenlängen. Jede Figur stellt ein 1,5 × 1,5 Bogensekunden field-of-view on sky. (A) A Langzeitbelichtung einzelnes Bild aus einem einzigen Stern, m V = 3,5, durch unkompensierte atmosphärische Turbulenzen in i sehen -Band (λ = 700 – 810 nm) an der 1,5-m-Teleskop auf P60 Palomar Observatory. Die volle Breite bei halbem Maximum (FWHM) beträgt 1,0 Bogensekunden. (B) </ Strong> Der gleiche Stern wie in (A) mit Laser adaptive Optik Korrektur mit den Robo-AO-System. Der Kern der stellaren Bild hat 15 Mal den Spitzenwert Helligkeit des kompensierten Bildes und eine FWHM von 0,12 Bogensekunden. (C) Ein binäres Stern, m V = 8,4, mit einer Trennung von 0,14 Bogensekunden durch den Einsatz offenbart Die Robo-AO adaptive-Optik. In jedem Fall wurde Tip-Tilt Führen des Target selbst durchgeführt. Abbildung 2. Der Robo-AO-Laser adaptive-Optik. (A) Die adaptive Optik und wissenschaftliche Instrumente werden mit dem Cassegrain-Fokus des Robot 1,5-m-Teleskop auf P60 Palomar Observatory installiert. Das Lasersystem und Unterstützungselektronik sind an gegenüberliegenden Seiten des Teleskoptubus für Unruh befestigt. (B) Die Robo-AO UV-Laserstrahl propagating aus dem Teleskop Kuppel. In dieser langen Exposition Foto ist der Laserstrahl sichtbar durch Rayleigh Streuung an der Luftmoleküle, ein winziger Bruchteil des Lichts auch streut zurück in Richtung des Teleskops als Sonde in der Atmosphäre verwendet werden. Der Laserstrahl wird wegen der Art, UV-Licht durch die Farbfilter auf dem UV-empfindliche Kamera verwendet, um das Bild aufzunehmen übertragen wird orange. Klicken Sie hier für eine größere Abbildung zu sehen . Abbildung 3. Robo-AO adaptiver Optik und wissenschaftlichen Instrumenten. (A) Ein vereinfachtes CAD-Modell. Licht von dem Teleskop Sekundärspiegel (orange) fokussiert tritt durch ein kleines Loch in der Mitte des Gerätesment, bevor sie von 90 Grad durch den ersten Faltspiegel in Richtung einer außeraxialen parabolischen (OAP) Spiegel reflektiert wird. Diese Spiegelbilder des Teleskops Schüler auf den deformierbaren Spiegel Oberfläche. Nach der Reflexion von dem deformierbaren Spiegel, spaltet ein UV dichroitischen Ausschalten des Laserlichts (violett) und leitet diese an den Laser Wellenfrontsensor. Eine zusätzliche umgekehrt OAP Spiegel im Wellenfrontsensor korrigiert die nicht gemeinsamen Pfad optische Fehler durch die 10 km konjugierten Brennpunkt des Lasers reflektiert der ersten OAP Spiegel eingeführt. Die sichtbaren und nahen Infrarot-Licht (grün), das durch die UV dichroitischen wird durch ein Paar von Spiegeln OAP dem atmosphärischen Dispersion Korrektor weitergeleitet. Das Licht wird dann durch die Spitze-Neigungskorrekturvorrichtung Spiegel zu einem endgültigen OAP Spiegel, der das Licht in Richtung des sichtbaren dichroitischen konzentriert reflektiert. Der sichtbare dichroitischen reflektiert das sichtbare Licht (blau) auf den Elektronenstrahl-multiplizierenden CCD und überträgt das Nah-Infrarot-Licht (rot) zu einem Klappspiegelund schließlich zu der Infrarotkamera. Die kombinierte UV-, sichtbaren und nahen Infrarot-Licht, das von dem Teleskop und der Source-Simulator (gelb) an die adaptive Optik und wissenschaftlichen Instrumenten durch Übersetzen der ersten Faltspiegel aus dem Weg zu richten. (B) Ein entsprechendes Lichtbild des Instrumenten-Baugruppe . Klicken Sie hier für eine größere Abbildung zu sehen . Abbildung 4. Shack-Hartmann-Wellenfrontsensor. (A) konzeptionelles Diagramm. Als ein flaches Welle durch die Linsenanordnung, wird ein regelmäßiges Muster von Bildern auf dem Detektor (blau) gebildet. Wenn ein nicht-ebenen Welle durch die Linsenanordnung tritt, beeinflusst die lokalen Gradienten der Welle ter Position der Bilder durch jede Linse der Anordnung (rot) gebildet. (B) Muster von Laser Bilder im Robo-AO Shack-Hartmann-Wellenfrontsensor. Jeder der 88 Punkte ist ein Bild des Laser-Streulicht von 10 km von jeder Linse der Linsenanordnung gebildet ist, mit der allgemeinen Musterform durch die Geometrie des Teleskops Pupille bestimmt. Die relative Verschiebung jedes Bildes in Bezug auf das Referenzbild Stellung (Verfahren 1.6) ergibt eine Messung der lokalen Steigung der ankommenden Lichtwelle. Hier eine größere Zahl anzuzeigen . Abbildung 5. Korrektur der atmosphärischen prismatischen Dispersion. Adaptive Optik korrigierten Bilder eines 11 × 16 Bogensekunden Teilfeld der Kugelsternhaufen Messier 15 an einer. Teleskops Höhe von 45 Grad (A) Während der adaptiven Optik korrigiert die Auswirkungen der atmosphärischen Turbulenz, atmosphärische prismatischen Dispersion immer noch Einfluss auf die Bilder der einzelnen Sterne: Bilder sind scharf parallel zum Horizont, während längliche senkrecht zum Horizont um ca. 1 Bogen über zweite eine spektrale Bandbreite von λ = 400 – 950 nm (B) Durch die zusätzliche Verwendung eines atmosphärischen Dispersion Korrektor, um die atmosphärische prismatischen Dispersion entgegenzuwirken, beugungsbegrenzten-resolution imaging in beide Richtungen erholt.. Abbildung 6. Bilder von der Kugelsternhaufen Messier 3 (A) A 44 × 44 Bogensekunden field-of-view, 2-Minuten langen kompensierte Bild der Kern der Kugelsternhaufen Messier 3 in z-Band. (Λ = 830 – 950 nm) . (B) Die gleiche iMagier mit adaptiver Optik Korrektur mit Robo-AO enthüllt viele Sterne, die sonst nicht gesehen werden konnte gezeigt werden. Abbildung 7. Bilder von Jupiter (A) A 0,033-Sekunden unkompensierte Momentaufnahme der Jupiter (scheinbaren Durchmesser von 42 Bogensekunden) in r-Band (λ = 560 – 670 nm).. (B) Das gleiche Bild mit Robo-AO-Laser adaptive Optik Korrektur zeigt die Oberfläche Cloud Features und Transit Ganymede (Pfeil) mit größerer Klarheit.

Discussion

Die hier vorgestellte Methode beschreibt die manuelle Bedienung des Robo-AO-Laser adaptive-Optik. In der Praxis arbeitet Robo-AO in einer automatisierten Weise; die überwiegende Mehrzahl der Verfahren durch eine Roboter-Sequenzer, der die gleichen Schritte durchführt automatisch gesteuert.

Der Robo-AO-System hat für die einfache Replikation mit relativ geringen Kosten konstruiert, mit Materialien (~ USD600K) und Arbeitskosten einen Bruchteil der Kosten auch eine 1,5-m-Teleskop. Zwar gibt es etwa 20 optische Teleskope auf der ganzen Welt mehr als 5 m im Durchmesser sind, werden Teleskope der 1-3 m Klassenzahl weit über 1-100 und als potentielle Wirte für Robo-AO Klone projiziert. Zusätzlich zu dem aktuellen System in der 1,5-m-Teleskop P60 eingesetzt, wird der erste von hoffentlich vielen Klone, die für die 2-m-Teleskop IGO 42 in Maharashtra, Indien, und einer Variante mit hellen Sternen anstelle eines Lasers für Wellenfrontmessung entwickelt ist als commissioned an der 1-m-Teleskop auf Table Mountain, CA 43. Eine Revolution in der beugungsbegrenzten Wissenschaft kann bei der Hand sein.

Disclosures

The authors have nothing to disclose.

Acknowledgements

Der Robo-AO-System wird durch die Zusammenarbeit Partnerinstitutionen, dem California Institute of Technology und der Inter-University Centre for Astronomy and Astrophysics, von der National Science Foundation unter Grant Nr. AST-0906060 und AST-0960343, durch einen Zuschuss aus den unterstützten mt. Cuba Astronomical Foundation und durch ein Geschenk von Samuel Oschin.

References

  1. Baranec, C., Dekany, R. Study of a MEMS-based Shack-Hartmann wavefront sensor with adjustable pupil sampling for astronomical adaptive optics. Applied Optics. 47, 5155-5162 (2008).
  2. Baranec, C., Riddle, R., Ramaprakash, A. N., Law, N., Tendulkar, S., Kulkarni, S. R., Dekany, R., Bui, K., Davis, J., Burse, M., Das, H., Hildebrandt, S., Smith, R. Robo-AO: autonomous and replicable laser-adaptive-optics and science system. Proc. SPIE. 8447, 844704-84 (2012).
  3. Huygens, C. . The Celestial Worlds discover’d: or, Conjectures concerning the inhabitants, plants and productions of the worlds in the planets. , (1722).
  4. Newton, I. . Opticks. , (1704).
  5. Babcock, H. W. The possibility of compensating astronomical seeing. Publications of the Astronomical Society of the Pacific. 65, 229-236 (1953).
  6. Linnik, V. P. On the possibility of reducing atmospheric seeing in the image quality of stars. Opt. Spectrosc. 3, 401-402 (1957).
  7. Duffner, R. . The Adaptive Optics Revolution: A History. , (2009).
  8. Fugate, R. Q. Laser Guide Star Adaptive Optics. , (1992).
  9. Hardy, J. W. . Adaptive Optics for Astronomical Telescopes. , (1998).
  10. Hart, M. Recent advances in astronomical adaptive optics. Applied Optics. 49, D17-D29 (2010).
  11. Davies, R., Kasper, M. Adaptive Optics for Astronomy. Annu. Rev. Astron. Astrophys. , (2012).
  12. Esposito, S., Riccardi, A., Pinna, E., Puglisi, A., Quirós-Pacheco, F., Arcidiacono, C., Xompero, M., Briguglio, R., Agapito, G., Busoni, L., Fini, L., Argomedo, J., Gherardi, A., Stefanini, P., Salinari, P., Brusa, G., Miller, D., Guerra, J. C. Large Binocular Telescope Adaptive Optics System: new achievements and perspectives in adaptive optics. Proc. SPIE. 8149, 814902 (2011).
  13. Wizinowich, P., Acton, D. S., Shelton, C., Stomski, P., Gathright, J., Ho, K., Lupton, W., Tsubota, K., Lai, O., Max, C., Brase, J., An, J., Avicola, K., Olivier, S., Gavel, D., Macintosh, B., Ghez, A., Larkin, J. First Light Adaptive Optics Images from the Keck II Telescope: A New Era of High Angular Resolution Imagery. Publications of the Astronomical Society of the Pacific. 112, 315-319 (2000).
  14. Minowa, Y., Hayano, Y., Oya, S., Hattori, M., Guyon, O., Egner, S., Saito, Y., Ito, M., Takami, H., Garrel, V., Colley, S., Golota, T. Performance of Subaru adaptive optics system AO188. Proc. SPIE. 7736, 77363N (2010).
  15. Marchetti, E., Brast, R., Delabre, B., Donaldson, R., Fedrigo, E., Frank, C., Hubin, N., Kolb, J., Lizon, J. -. L., Marchesi, M., Oberti, S., Reiss, R., Santos, J., Soenke, C., Tordo, S., Baruffolo, A., Bagnara, P. On-sky Testing of the Multi-Conjugate Adaptive Optics Demonstrator. The Messenger. , 129-128 (2007).
  16. Rigaut, F., Neichel, B., Bec, M., Boccas, M., d’Orgeville, C., Fesquet, V., Galvez, R., Gausachs, G., Trancho, G., Trujillo, C., Edwards, M., Carrasco, R. The Gemini Multi-Conjugate Adaptive System sees star light. , (2011).
  17. Hart, M., Milton, N. M., Baranec, C., Powell, K., Stalcup, T., McCarthy, D., Kulesa, C., Bendek, E. A ground-layer adaptive optics system with multiple laser guide stars. Nature. 466, 727-729 (2010).
  18. Troy, M., Dekany, R. G., Brack, G., Oppenheimer, B. R., Bloemhof, E. E., Trinh, T., Dekens, F. G., Shi, F., Hayward, T. L., Brandl, B. Palomar adaptive optics project: status and performance. Proc. SPIE. 4007, 31-40 (2000).
  19. Cenko, S. B., Fox, D. B., Moon, D. -. S., Harrison, F. A., Kulkarni, S. R., Henning, J. R., Guzman, C. D., Bonati, M., Smith, R. M. The automated Palomar 60 inch telescope. Publications of the Astronomical Society of the Pacific. 118, 1396-1406 (2006).
  20. Shporer, A., Brown, T., Lister, T., Street, R., Tsapras, Y., Bianco, F., Fulton, B., Howell, A. The Astrophysics of Planetary Systems: Formation, Structure, and Dynamical Evolution. Proceedings of the International Astronomical Union, IAU Symposium. 276, 553-555 (2011).
  21. Baranec, C., Dekany, R., Kulkarni, S., Law, N., Ofek, E., Kasliwal, M., Velur, V. Deployment of low-cost replicable laser adaptive optics on 1-3 meter class telescopes. Astro2010: The Astronomy and Astrophysics Decadal Survey. , (2009).
  22. Ofek, E. O., Law, N., Kulkarni, S. R. Mass makeup of galaxies. Astro2010: The Astronomy and Astrophysics Decadal Survey. , (2009).
  23. Morton, T. D., Johnson, J. A. On the low false positive probabilities of Kepler planet candidates. The Astrophysical Journal. 738, 170 (2011).
  24. Erickcek, A. L., Law, N. M. Astrometric microlensing by local dark matter subhalos. The Astrophysical Journal. 729, 49 (2011).
  25. Law, N. M., Kulkarni, S. R., Dekany, R. G., Baranec, C. Planets around M-dwarfs – astrometric detection and orbit characterization. Astro2010: The Astronomy and Astrophysics Decadal Survey. , (2009).
  26. Kulkarni, S. R. Cosmic Explosions (Optical Transients). arXiv:1202.2381. , (2012).
  27. Goldstein, R. Pockels Cell Primer. Laser Focus. , (1968).
  28. Zigman, S. Effects of near ultraviolet radiation on the lens and retina. Documenta Ophthalmologica. 55, 375-391 (1983).
  29. American National Standard for Safe Use of Lasers. . ANSI Z136.1-2007. , (2007).
  30. Thompson, L. A., Teare, S. W. Rayleigh laser guide star systems: application to the University of Illinois seeing improvement system. Publications of the Astronomical Society of the Pacific. 114, 1029-1042 (2002).
  31. Department of Defense. . Instruction 3100.11. Illumination of objects in space by lasers. , (2000).
  32. Platt, B. C., Shack, R. History and principles of Shack-Hartmann wavefront sensing. J. Refract. Surg. 17, S573-S577 (2001).
  33. Milton, N. M., Lloyd-Hart, M. Disk Harmonic Functions for Adaptive Optics Simulations. , (2005).
  34. Bifano, T., Cornelissen, S., Bierden, P. MEMS deformable mirrors in astronomical adaptive optics. , (2005).
  35. Rigaut, F., Gendron, G. Laser guide star in adaptive optics: the tilt determination problem. Astron. Astrophys. 261, 677-684 (1992).
  36. Devaney, N., Goncharov, A. V., Dainty, J. C. Chromatic effects of the atmosphere on astronomical adaptive optics. Applied Optics. 47, 8 (2008).
  37. Basden, A. G., Haniff, C. A., Mackay, C. D. Photon counting strategies with low-light-level CCDs. Monthly Notices of the Royal Astronomical Society. 345, 985-991 (2003).
  38. Law, N. M., Mackay, C. D., Baldwin, J. E. Lucky imaging: high angular resolution imaging in the visible from the ground. Astronomy and Astrophysics. 446, 739-745 (2006).
  39. Law, N. M., Kraus, A. L., Street, R., Fulton, B. J., Hillenbrand, L. A., Shporer, A., Lister, T., Baranec, C., Bloom, J. S., Bui, K., Burse, M. P., Cenko, S. B., Das, H. K., Davis, J. C. T. Three new eclipsing white-dwarf – M-dwarf binaries discovered in a search for transiting Planets around M-dwarfs. The Astrophysical Journal. , (2012).
  40. Law, N. M., Mackay, C. D., Dekany, R. G., Ireland, M., Lloyd, J. P., Moore, A. M., Robertson, J. G., Tuthill, P., Woodruff, H. C. Getting Lucky with Adaptive Optics: Fast Adaptive Optics Image Selection in the Visible with a Large Telescope. The Astrophysical Journal. 692, 924-930 (2009).
  41. Gupta, R., Burse, M., Das, H. K., Kohok, A., Ramaprakash, A. N., Engineer, S., Tandon, S. N. IUCAA 2 meter telescope and its first light instrument IFOSC. Bulletin of the Astronomical Society of India. 30, 785 (2002).
  42. Choi, P. I., Severson, S. A., Rudy, A. R., Gilbreth, B. N., Contreras, D. S., McGonigle, L. P., Chin, R. M., Horn, B., Hoidn, O., Spjut, E., Baranec, C., Riddle, R. KAPAO: a Pomona College adaptive optics instrument. Bulletin of the American Astronomical Society. 43, (2011).

Play Video

Cite This Article
Baranec, C., Riddle, R., Law, N. M., Ramaprakash, A., Tendulkar, S. P., Bui, K., Burse, M. P., Chordia, P., Das, H. K., Davis, J. T., Dekany, R. G., Kasliwal, M. M., Kulkarni, S. R., Morton, T. D., Ofek, E. O., Punnadi, S. Bringing the Visible Universe into Focus with Robo-AO. J. Vis. Exp. (72), e50021, doi:10.3791/50021 (2013).

View Video