L1: Introduction + Selected Application Domains - Skript¶
Was ist Fernerkundung (Remote Sensing)?¶
Die erste Frage, die in dieser Vorlesung beantwortet wird, ist zugleich die grundlegendste: Was versteht man eigentlich unter Fernerkundung (Remote Sensing)? Slide 21 liefert gleich zwei Definitionen, die den Kern des Faches umreißen.
Die erste stammt vom Canadian Center for Remote Sensing: "Remote sensing is the science (and to some extent, art) of acquiring information about the Earth's surface without actually being in contact with it. This is done by sensing and recording reflected or emitted energy and processing, analyzing, and applying that information." Man beachte hier bewusst die Formulierung "science and to some extent, art" - dazu gleich mehr.
Die zweite Definition, angelehnt an Wikipedia, ergänzt: "Remote sensing is the acquisition of information about an object or phenomenon without making physical contact with the object and thus in contrast to on-site observation, especially the Earth. In current usage, the term 'remote sensing' generally refers to the use of satellite- or aircraft-based sensor technologies to detect and classify objects on Earth, including on the surface and in the atmosphere and oceans, based on propagated signals (e.g., electromagnetic radiation)."
Aus diesen Definitionen lassen sich die wesentlichen Merkmale der Fernerkundung ableiten. Erstens: Es werden reflektierte oder emittierte elektromagnetische Strahlung (Electromagnetic Radiation, EMR) erfasst. Zweitens: Die Aufnahme erfolgt aus der Ferne, also ohne direkten physischen Kontakt mit dem untersuchten Objekt. Drittens: Fernerkundung umfasst den gesamten Prozess von der Datenerfassung uber die Verarbeitung und Analyse bis hin zur Anwendung. Viertens: Sie nutzt satelliten- oder flugzeugbasierte Sensortechnologien. Und fünftens: Fernerkundung ist sowohl ein Werkzeug (Tool) als auch eine Methode - diese doppelte Natur ist prüfungsrelevant (Fragenkatalog F1, KERN).
Slide 3 fasst die Kursziele zusammen: Die Vorlesung beschreibt verfügbare Luft- und Satellitensensoren sowie deren Bildprodukte, erklärt die Grundlagen der elektromagnetischen Strahlung und wissenschaftliche Anwendungen von Fernerkundungs- und Erdbeobachtungsbildern, und gibt einen Überblick über Verarbeitungs- und Analyseworkflows zur Erzeugung von Informationsprodukten (Information Products).
Slide 4 ergänzt die Lernziele: Man soll die Vorteile, möglichen Limitierungen und Herausforderungen verstehen, die mit der Nutzung von Bilddaten als Quelle geographischer Information verbunden sind. Außerdem soll man bestehende Bild- und Sensorsysteme vergleichen und die Grundkonzepte von EMR, Bildverbesserungstechniken, Klassifikationsmethoden und Genauigkeitsbewertung beschreiben können.
Slide 5 konkretisiert: Nach Abschluss der Lehrveranstaltung sollen Studierende die Möglichkeiten von Luft- und Satellitenbildern für verschiedene Zwecke verstehen und nutzen können, einschließlich eines Bewusstseins für deren Limitierungen. Der Hauptfokus liegt dabei auf satellitengestützten Systemen (Satellite Mounted Systems). Studierende sollen in der Lage sein, Information aus Luft- und Satellitenbildern zu gewinnen und diese als Planungs- und Analysewerkzeug einzusetzen.
Slide 6 formuliert die zentralen Fragestellungen der gesamten Vorlesung: Was ist Remote Sensing? Warum betreiben wir es? Was sind die physikalischen Grundprinzipien, insbesondere die elektromagnetische Strahlung? Was sind die Vorteile? Welche Trägersysteme (Carrier Systems) und Sensoren gibt es? Wie werden Rohdaten in nutzbare Information umgewandelt? Und wie wird das konkret gemacht - also die Basic Principles of Digital Image Processing?
Das IFOV - Instantaneous Field of View¶
Ein zentrales Konzept, das direkt mit der Definition von Fernerkundung zusammenhängt, ist das IFOV (Instantaneous Field of View). Das IFOV ist der Blickwinkel (Winkel Beta) eines Sensorsystems, der den Bereich auf der Erdoberfläche definiert, aus dem zu einem bestimmten Zeitpunkt Informationen aufgenommen werden. Es bestimmt die räumliche Auflösung (Spatial Resolution) - je kleiner das IFOV, desto feiner die Auflösung. Der Durchmesser D des bodenprojizierten IFOV hängt dabei von zwei Faktoren ab: dem Blickwinkel Beta und der Flughöhe H (Altitude Above Ground Level, AGL). Das bodenprojizierte IFOV ist in der Realität eine Ellipse, wird aber vereinfacht als "Pixel" bezeichnet. Innerhalb des IFOV werden alle Objekte, Flächen und Materialien zu einem einzigen Messwert gemittelt. Dieses Konzept ist prüfungsrelevant (Fragenkatalog F2, KERN).
Fernerkundung vs. Earth Observation¶
Slide 23 klärt eine wichtige terminologische Unterscheidung, die ebenfalls prüfungsrelevant ist (Fragenkatalog F3, KERN). Remote Sensing ist der Oberbegriff für alle luft-, boden- und weltraumgestützten Fernerkundungssensoren. Der Begriff bezieht sich auf Aerial (Luft), Terrestrial (Boden) und Satellite (Weltraum) basierte Systeme.
Earth Observation (EO, Erdbeobachtung) hingegen ist die Informationsgewinnung über physikalische, chemische und biologische Systeme der Erde mittels Fernerkundungstechnologien, ergänzt durch Erdvermessungstechniken. EO umfasst drei Schritte: Datenerfassung (Collection), Analyse (Analysis) und Darstellung (Presentation).
Auf Slide 23 sieht man rechts eine Grafik, die die verschiedenen Plattformebenen von niedrig nach hoch zeigt: UAV/Drohne (ca. 150 m Flughöhe), Aerial Television (ca. 0,3 km), Aerial Photography (1,2-3,5 km), Airborne SAR (10-12 km), Space Shuttle (185-575 km) und Satellite (700-900 km). Jede Plattformebene hat ihre eigenen Sensoren und Einsatzgebiete. In der Praxis werden die Begriffe Remote Sensing und Earth Observation oft synonym verwendet - in der Vorlesung wird häufig die Kurzform "EO" genutzt.
Kunst oder Wissenschaft?¶
Die Frage, ob Fernerkundung Kunst oder Wissenschaft ist, wird auf Slide 20 behandelt. Als Wissenschaft betrachtet ist Fernerkundung eine Methodik oder Technik - wahrscheinlich keine eigenständige Disziplin. Die Nutzung ausgefeilter Sensoren zur Messung elektromagnetischer Energie, die von einem Objekt oder geographischen Gebiet aus der Ferne austritt, und die anschließende Extraktion wertvoller Information mit mathematischen, statistischen oder Computer-Vision-basierten Algorithmen ist eine wissenschaftliche Tätigkeit.
Als Kunst betrachtet bringt der Prozess der visuellen Foto- oder Bildinterpretation nicht nur wissenschaftliches Wissen ein, sondern die gesamte Lebenserfahrung einer Person. Ein erfahrener Bildinterpret erkennt Muster, die einem Algorithmus möglicherweise entgehen - umgekehrt kann ein Algorithmus quantitative Analysen durchführen, die ein menschliches Auge nicht leisten kann.
Slide 22 zeigt die Entwicklungsgeschichte der Fernerkundung. Bis etwa 1960 basierte Remote Sensing ausschließlich auf Luftbildern (Aerial Images). Seit 1960 haben der Einsatz von Satelliten und Computern viele neue Möglichkeiten eröffnet. Wichtige Meilensteine waren die Einführung der Luftbildfotografie, Stereoskopie und Stereoautographen, Zeppeline für systematische Flugpfade, die Nutzung nicht-sichtbarer Teile des elektromagnetischen Spektrums, die Anwendung nicht-fotografischer Systeme wie MSS, Radar und LiDAR, Satelliten als RS-Plattformen, Computer zur Verarbeitung und Interpretation gesammelter Daten, der zunehmende Einsatz von Satelliten seit den 1970er-Jahren, und sehr hochauflösende Satellitenbilder ab ca. 2000. Die Entwicklung der Fernerkundung wurde maßgeblich durch militärische Organisationen vorangetrieben, und beide Weltkriege führten zu beträchtlichem Fortschritt.
Grundprinzip: Elektromagnetische Strahlung und passives Remote Sensing¶
Das physikalische Fundament der Fernerkundung ist die elektromagnetische Strahlung (Electromagnetic Radiation, EMR). Ohne sie gäbe es keine Fernerkundung, denn sie ist das Medium, über das Information von der Erdoberfläche zum Sensor transportiert wird. Dieser Abschnitt gibt eine erste Einführung - die physikalischen Details werden in den Vorlesungen L2 und L3 vertieft.
Slide 34 zeigt das Grundprinzip: Die Hauptquelle elektromagnetischer Strahlung für die Fernerkundung ist die Sonne. Allerdings sendet jeder Körper mit einer Temperatur über dem absoluten Nullpunkt (0 Kelvin bzw. -273 Grad Celsius) elektromagnetische Strahlung aus. Auf der Slide sieht man ein Schema, das die verschiedenen Wege der Strahlung illustriert: Die Sonne sendet Strahlung aus, die auf die Atmosphäre trifft. Dort wird ein Teil absorbiert (Atmospheric Absorption), ein Teil reflektiert (Atmospheric Reflectance). Die Strahlung, die die Erdoberfläche erreicht, wird dort von Objekten reflektiert (Reflected by Surface Objects) oder emittiert (Emitted by Surface Objects) - z.B. von einem Feuer oder einem Gebäude. Der Sensor im Weltraum oder in der Luft empfängt diese Strahlung und zeichnet sie auf.
Slide 35 verdeutlicht das Prinzip der thermischen Strahlung eindrucksvoll: Ein Thermalbild zeigt Menschen in einem Raum. Die menschlichen Körper erscheinen in Rot und Orange (ca. 30-34 Grad Celsius), während die Umgebung kühler ist (Grün, ca. 20-22 Grad Celsius). Auch unsere Körper senden also elektromagnetische Strahlung aus - im thermalen Infrarotbereich. Die Intensität und Wellenlänge dieser Strahlung hängt von der Temperatur des strahlenden Körpers ab. Diesen Unterschied in Wellenlänge und Intensität verschiedener strahlender Körper wird in den folgenden Vorlesungen im Detail behandelt.
Passives vs. aktives Remote Sensing¶
Ein fundamentaler Unterschied in der Fernerkundung, der prüfungsrelevant ist (Fragenkatalog F4, KERN), ist die Unterscheidung zwischen passiver und aktiver Fernerkundung.
Bei der passiven Fernerkundung sendet der Sensor keine eigene Strahlung aus, sondern misst nur die von der Sonne reflektierte oder von Objekten emittierte Strahlung. Beispiele für passive Sensoren sind optische Kameras, die reflektierte Sonnenstrahlung messen, und Thermalsensoren, die emittierte Wärmestrahlung erfassen. Der Professor betont: "Remember passive remote sensing. The collection device does not emit energy." Diese Vorlesung fokussiert hauptsächlich auf passive Fernerkundung.
Bei der aktiven Fernerkundung sendet der Sensor eigene Strahlung aus und misst das zurückgestreute oder reflektierte Signal. Beispiele sind RADAR (Radio Detection and Ranging), das Mikrowellen verwendet, und LiDAR (Light Detection and Ranging), das Laserpulse einsetzt. Aktive Sensoren funktionieren tag- und nachtunabhängig, da sie ihre eigene Energiequelle mitbringen. Ein Kapitel der Vorlesung behandelt auch Radar und LiDAR.
Sichtbares Licht vs. Infrarot¶
Slide 36 zeigt ein besonders anschauliches Beispiel für den Mehrwert der Fernerkundung gegenüber dem bloßen Auge. Links sieht man ein Luftbild im sichtbaren Licht (Visible Light, VIS, 400-700 nm): Wald, Felder und Gebäude sind erkennbar, aber Laub- und Nadelbäume sehen sehr ähnlich aus. Rechts dasselbe Gebiet im nahen Infrarot (Near Infrared, NIR): Plötzlich erscheinen Laubbäume deutlich dunkler als Nadelbäume - eine Differenzierung wird möglich. Der Grund liegt im unterschiedlichen Reflexionsverhalten der Blattstrukturen: Laubblätter reflektieren NIR-Strahlung anders als Nadeln. Dieses Beispiel verdeutlicht, warum die Erfassung jenseits des sichtbaren Lichts so wertvoll ist - man gewinnt Informationen, die dem menschlichen Auge verborgen bleiben.
Slide 37 bringt die zentrale Botschaft auf den Punkt: Remote Sensing bzw. Earth Observation ermöglicht es uns, die Natur auf eine Weise zu beobachten und zu studieren, die sonst jenseits menschlicher Fähigkeiten läge - über große Entfernungen und bei Wellenlängen, die für das menschliche Auge unsichtbar sind. Die Slide zeigt ein Spaceborne Imaging Radar C/X-band Synthetic Aperture (SIR-C/X-SAR) Bild von 1994 als Beispiel für Radarfernerkundung.
Anwendungsbereiche, Stärken und Limitierungen von Remote Sensing¶
Ziel und Funktion der Fernerkundung¶
Slide 14 definiert das übergeordnete Ziel der Fernerkundung: Sie liefert einen wissenschaftlich fundierten Überblick und Einblick in räumliche Muster der Erdoberfläche, wobei diese Muster oft als Proxies (Stellvertreter) für zugrundeliegende Prozesse dienen. Das Diagramm auf der Slide illustriert den Grundmechanismus: Die Sonne bestrahlt die Erdoberfläche, die Strahlung wird dort reflektiert und von einem Satellitensensor aufgezeichnet. Ein Feuer oder eine Kohlelagerstätte emittiert zusätzlich eigene Strahlung. Der Sensor im Weltraum fängt all diese Signale ein.
Wissenschaftlicher Kontext¶
Fernerkundung eingebettet in den wissenschaftlichen Kontext: Slide 15 erinnert daran, was Wissenschaft überhaupt ist - sowohl ein Wissensbestand (Body of Knowledge) als auch ein fortlaufender Prozess der Entdeckung. Sie strebt nach einem kohärenten und umfassenden Verständnis der Welt und ist ein globales menschliches Unterfangen. Das Science Council definiert Wissenschaft als "the pursuit and application of knowledge and understanding of the natural and social world following a systematic methodology based on evidence."
Slide 16 zeigt den klassischen wissenschaftlichen Prozess in sechs Schritten: (1) Frage stellen, (2) Hintergrundforschung durchführen, (3) Hypothese formulieren, (4) Hypothese testen, (5) Ergebnisse analysieren und Schlussfolgerungen ziehen, (6) Ergebnisse berichten. Dieser Prozess gilt auch für die Fernerkundung: Man formuliert eine Forschungsfrage (z.B. "Wie hat sich die Waldfläche in Österreich in den letzten 20 Jahren verändert?"), sammelt Fernerkundungsdaten, verarbeitet und analysiert sie, und berichtet die Ergebnisse.
Slide 17 zeigt die Realität des wissenschaftlichen Prozesses: Er ist nicht linear, sondern ein komplexes Zusammenspiel aus Exploration und Entdeckung, Testen von Ideen, Community-Analyse und Feedback sowie Benefits und Outcomes. Neue Technologien, praktische Probleme, Neugierde und überraschende Beobachtungen können den Prozess anstoßen. Die zentrale Schleife besteht aus Datensammlung, Hypothesenprüfung und Dateninterpretation.
Anwendungsbeispiele¶
Slide 18 zeigt ein konkretes Anwendungsbeispiel: Hurrikan-Schadenserhebung. Oben links sieht man eine Küstensiedlung vor einem Hurrikan - grüne Vegetation, intakte Gebäude, klares Wasser. Oben rechts dasselbe Gebiet nach dem Hurrikan: Vegetation abgerissen, Gebäude zerstört, Trümmer überall. Unten links ein Thermalbild des Hurrikans, das die Energieverteilung im Sturmsystem zeigt. Unten rechts ein Satellitenbild des Hurrikans aus dem Weltraum. Rechts unten eine Aufnahme des Hurrikanauges von der ISS. Dieses Beispiel zeigt mehrere Stärken der Fernerkundung gleichzeitig: Vorher-Nachher-Vergleiche, Beobachtung aus sicherer Entfernung, und Information jenseits des sichtbaren Spektrums.
Slide 19 zeigt ein weiteres Beispiel: Eine Überschwemmung, aufgenommen von DigitalGlobe. Man erkennt, wie weite Teile des Gebietes unter Wasser stehen, während einzelne Straßen und höher gelegene Bereiche noch erkennbar sind. Solche Aufnahmen sind für das Katastrophenmanagement unverzichtbar - sie liefern einen sofortigen Überblick über das Ausmaß der Schäden, der am Boden nur mit enormem Aufwand gewonnen werden könnte.
Stärken der Fernerkundung¶
Die Stärken der Fernerkundung sind prüfungsrelevant (Fragenkatalog F5, KERN). Zu den wichtigsten gehören:
Erstens, die großflächige Erfassung (Overview, Detect, Quantify): Fernerkundung ermöglicht es, große Gebiete systematisch zu erfassen - z.B. Wasserqualität, Bodenfeuchte oder Landnutzungsänderungen über ganze Länder oder Kontinente hinweg.
Zweitens, die wiederholte Beobachtung (Temporal Resolution): Satelliten überfliegen dasselbe Gebiet regelmäßig, sodass Muster und Prozesse über die Zeit erkannt werden können. So lassen sich Veränderungen wie Gletscherrückgang, Waldzerstörung oder Urbanisierung dokumentieren.
Drittens, die Erfassung jenseits des sichtbaren Lichts: Sensoren arbeiten im Infrarot, in Mikrowellen und anderen Wellenlängenbereichen. Dadurch können z.B. Laub- und Nadelbäume im NIR unterschieden werden, was im sichtbaren Licht nicht möglich ist.
Limitierungen der Fernerkundung¶
Ebenso prüfungsrelevant sind die Limitierungen:
Erstens, die Momentaufnahme (Snapshot in Time): Ein Fernerkundungsbild zeigt immer nur einen bestimmten Zeitpunkt. Der zeitliche Kontext kann fehlen - was vor oder nach der Aufnahme passiert ist, bleibt unsichtbar.
Zweitens, Fernerkundung ist nur eine von vielen Methoden: Sie liefert bestimmte räumliche, zeitliche und spektrale Auflösungen, die nicht immer ausreichen. Für manche Fragestellungen sind Feldmessungen oder andere Datenquellen besser geeignet oder notwendig als Ergänzung.
Drittens, Fehlerquellen: Messfehler des Sensors, inkorrekte Auswertung der Daten und menschliche Interpretationsfehler können die Ergebnisse verfälschen.
Der Remote-Sensing-Prozess: Plattformen, Sensoren, Datenverarbeitung¶
Plattformen und Sensoren¶
Slide 12 vermittelt einen ersten Eindruck von der Vielfalt der Satellitenflotte: Es gibt weit mehr Satelliten und Sensoren, als man zunächst denken würde. Die Slide zeigt zahlreiche geostationäre Satelliten verschiedener Länder und Organisationen: GOES-R (USA), MSG und METEOSAT (EUMETSAT, Europa), FY-1/3 (China), METEOR 3M (Russische Föderation), GMS-5/MTSAT-1R (Japan), COMS-1 (Südkorea), INSATs (Indien), und viele weitere. Dazu kommen polarumlaufende Satelliten wie Terra, NPP, Jason-1, Aqua, ENVISAT/ERS-2, SPOT-5 und andere, die auf niedrigeren Orbits fliegen. Geostationäre Satelliten kreisen in ca. 35.800 km Höhe und beobachten immer denselben Erdausschnitt, während polarumlaufende Satelliten in ca. 700-900 km Höhe die gesamte Erde systematisch abtasten.
Der Unterschied zwischen Plattform und Sensor ist prüfungsrelevant (Fragenkatalog F6, KERN). Die Plattform (Platform) ist das Trägersystem, an dem der Sensor befestigt ist - also z.B. ein Satellit, ein Flugzeug, eine Drohne oder ein Stativ. Der Sensor ist das eigentliche Messgerät, das die Fernerkundungsdaten erfasst. An einem Satelliten können mehrere verschiedene Sensoren montiert sein. Die Wahl der Plattform hängt von drei Faktoren ab: Welche Information wird benötigt? Wie viel Detail (räumlich, spektral, zeitlich) ist erforderlich? Welche Art von Detail (Spatial, Temporal, Spectral Resolution) wird gebraucht?
Der RS-Prozess im Überblick¶
Der Remote-Sensing-Prozess lässt sich als Kette zusammenfassen: Am Anfang steht eine Energiequelle (meist die Sonne), deren Strahlung die Atmosphäre durchquert, mit der Erdoberfläche interagiert (Reflexion, Absorption, Emission), wieder die Atmosphäre durchquert, und vom Sensor auf der Plattform aufgezeichnet wird. Die aufgezeichneten Rohdaten werden dann am Boden empfangen, vorverarbeitet (z.B. geometrische und radiometrische Korrekturen), analysiert (z.B. Klassifikation, Indizes) und schließlich als Informationsprodukte angewendet.
Slide 24 zeigt ein konkretes Beispiel eines Fernerkundungsprodukts: ein AVHRR Color Composite des NOAA-14 Satelliten von 1996. Die Darstellung ist ein Falschfarbenbild (RED=CH 2, GREEN=CH 1, BLUE=CH 3) eines Teils der US-Ostküste. Man sieht verschiedene Landbedeckungstypen in unterschiedlichen Farben - Vegetation, bebaute Gebiete, Gewässer - sowie die Bundesstaatsgrenzen als rote Linien. Solche Produkte sind das Ergebnis des gesamten RS-Prozesses: von der Aufnahme im All bis zur fertigen, interpretierbaren Darstellung.
In-situ-Daten und Ground Truth¶
Ein wichtiger Teil des RS-Prozesses, der oft übersehen wird, sind In-situ-Daten (In Situ Data). Slide 38 zeigt zwei typische Beispiele: links eine Spektroradiometer-Messung in einem Schilfgebiet, rechts eine GPS-Messung im Feld. Wissenschaftler formulieren Hypothesen und versuchen, diese systematisch und unvoreingenommen zu bestätigen oder zu widerlegen. Die dafür notwendigen Daten können direkt im Feld erhoben werden - das wird als In-situ- oder In-place-Datenerhebung bezeichnet. Diese Feldarbeit ist jedoch zeitaufwendig, teuer und oft ungenau.
Slide 39 benennt die konkreten Probleme der In-situ-Datenerhebung: Das Sampling-Design erfasst oft nicht die räumliche Variabilität des untersuchten Phänomens vollständig - einige Gebiete werden überbeprobt, andere unterbeprobt. Hinzu kommen die unsachgemäße Bedienung von Messgeräten, unkalibrierte Instrumente, und die generell hohen Kosten und der große Zeitaufwand.
Besonders wichtig ist die Unterscheidung zwischen In-situ-Daten und Ground Truth (Grundwahrheit) - auch dies ist prüfungsrelevant (Fragenkatalog F7, KERN). In-situ-Daten sind Daten, die direkt vor Ort im Feld erhoben werden, z.B. GPS-Messungen, Spektroradiometer-Messungen oder Blattflächenindex-Messungen mit einem Ceptometer. Ground Truth dagegen sind verifizierte, verlässliche Referenzdaten, die als "Wahrheit" für die Validierung von RS-Ergebnissen dienen. Der entscheidende Punkt: In-situ-Daten sind nicht automatisch Ground Truth - sie können fehlerhaft sein durch ungeeignetes Sampling-Design, falsche Bedienung von Messgeräten oder unkalibrierte Instrumente. Die Slide betont ausdrücklich: "In situ data is not the same as ground truth information."
Slide 40 zeigt typische In-situ-Messungen im Kontext von RS/EO: Links eine Spektroradiometer-Messung an Sojabohnen - das Gerät misst die spektrale Leistungsverteilung (Power Distribution) einer Quelle, also wie viel Strahlung bei welcher Wellenlänge reflektiert wird. Rechts eine Ceptometer-Messung des Blattflächenindex (Leaf Area Index, LAI) - ein Maß dafür, wie viel Blattfläche pro Bodenfläche vorhanden ist. Beide Messungen liefern Referenzdaten, die zur Kalibrierung und Validierung von Satellitenbildern genutzt werden können.
Elektromagnetische Strahlung als Informationsträger¶
Slide 33 leitet den zweiten Teil der Vorlesung ein mit der zentralen Frage: "But, what is it what we see and what we measure?" - Was ist es eigentlich, das wir sehen und messen? Die Antwort lautet: elektromagnetische Strahlung. Alles, was Fernerkundungssensoren aufzeichnen, ist letztlich EMR in verschiedenen Wellenlängenbereichen und Intensitäten. Die physikalischen Details - Wellenmodell, Teilchenmodell, elektromagnetisches Spektrum, Strahlungsgesetze - werden in L2 und L3 ausführlich behandelt. Die drei Grundformeln der EMR sind prüfungsrelevant (Fragenkatalog F9, KERN und PROF-TIPP): c = Lambda mal Ny (Lichtgeschwindigkeit = Wellenlänge mal Frequenz), Ny = c/Lambda (Frequenz = Lichtgeschwindigkeit geteilt durch Wellenlänge), und Q = h mal f (Energie = Plancksche Konstante mal Frequenz).























