Ein Bildsensor ist ein elektronisches Gerät, das ein Bild aufnehmen kann. Normalerweise arbeiten Bildsensoren, indem sie die Stärke und Intensität des Lichts erkennen. Die meisten Sensoren arbeiten mit sichtbarem Licht und Infrarotlicht. Es gibt spezielle Sensoren, die Röntgen- und Gammastrahlung erkennen können. Es gibt verschiedene Möglichkeiten, solche Sensoren zu bauen: Im Jahr 2020 waren die gebräuchlichsten Sensortechnologien CCD und CMOS.
Grundprinzip und Aufbau
Ein Bildsensor besteht aus einer Matrix winziger lichtempfindlicher Elemente, sogenannten Pixeln. Jedes Pixel enthält eine lichtempfindliche Fläche (z. B. eine Fotodiode oder einen Photoelektronen-Speicher), die bei Lichteinfall Elektronen erzeugt oder freisetzt. Diese Ladung ist proportional zur Lichtintensität und wird anschließend ausgelesen, verstärkt und in digitale Werte umgewandelt.
Typische Bauteile und Schichten sind:
- Fotodiode / Fotokathode: Wandelt Photonen in Elektronen um.
- Colour-Filter-Array (z. B. Bayer-Filter): Trennt Licht in Rot, Grün, Blau, damit Farbe rekonstruiert werden kann.
- Microlenses: Konzentrieren Licht auf die aktive Fläche des Pixels.
- Analog-Digital-Wandler (ADC): Wandelt das analoge Signal in digitale Werte um.
Wie ein Bildsensor funktioniert
Vereinfacht läuft der Prozess in folgenden Schritten ab:
- Licht fällt auf das Pixel und erzeugt Ladung (Photonen → Elektronen).
- Die erzeugte Ladung wird während der Belichtungszeit gesammelt (je länger, desto mehr Signal).
- Die Ladung wird ausgelesen und in eine Spannung oder einen Strom umgewandelt.
- Ein ADC digitalisiert das Signal, danach folgen Bildverarbeitungsschritte wie Demosaicing, Weißabgleich und Rauschunterdrückung.
Haupttypen von Bildsensoren
CCD (Charge-Coupled Device)
CCD-Sensoren verschieben die Ladungen pixelweise über die Chipfläche zu einem oder mehreren Auslesekanälen. Eigenschaften:
- Hohe Bildqualität, geringes Rauschen bei älteren Implementierungen.
- Gleichmäßige Auslesung; oft bessere Empfindlichkeit als frühe CMOS-Varianten.
- Höherer Energieverbrauch und aufwändigere Fertigung; weniger flexibel (z. B. schwierig, integrierte Peripherie auf dem Chip zu kombinieren).
CMOS (Complementary Metal–Oxide–Semiconductor)
CMOS-Sensoren integrieren pro Pixel Verstärker, Multiplexer und oft auch ADCs. Eigenschaften und Vorteile:
- Geringerer Stromverbrauch und günstigere Herstellung.
- Hohe Integrationsmöglichkeiten (z. B. On-Chip-Noise-Reduction, Serielle Schnittstellen).
- Schnellere Ausleseraten, hohe Frame-Raten, einfache Implementierung von Autofokus- oder HDR-Funktionen.
- Moderne CMOS-Sensoren erreichen oder übertreffen oft die Bildqualität von CCDs (z. B. durch Backside-Illuminated (BSI) und gestapelte (stacked) Sensoren).
Wichtige Detailvarianten: Backside-illuminated (BSI) zur besseren Lichtausbeute, gestapelte CMOS mit separater Logik- und Sensorschicht, sowie CMOS mit global shutter (keine Rolling-Shutter-Verzerrungen).
Infrarot- und Wärmesensoren (IR)
Für Infrarotaufnahmen gibt es verschiedene Sensorkonzepte, abhängig vom Wellenlängenbereich:
- Near-Infrared (NIR) / Silicon-basierte Sensoren: Siliziumdetektoren können nahes Infrarot bis etwa 900–1100 nm erfassen, oft mit IR-Sperrfiltern bei Consumer-Kameras entfernt für Nachtaufnahmen.
- InGaAs-Sensoren: Materialien wie Indium-Gallium-Arsenid detektieren SWIR (Short-Wave IR) bis ~1700–2600 nm. Eingesetzt in industrieller Bildgebung und Forschung.
- Microbolometer / Thermische IR-Sensoren: Erfassen Wärmestrahlung (LWIR, Long-Wave IR). Sie messen Temperaturunterschiede ohne Kühlung und werden in Wärmebildkameras verwendet.
Wichtige Kenngrößen
- Pixelgröße: Größere Pixel sammeln mehr Licht (bessere Empfindlichkeit, besseres Signal-Rausch-Verhältnis), kleinere Pixel ermöglichen höhere Auflösung.
- Auflösung: Anzahl der Pixel (Megapixel) bestimmt Detaildarstellung, aber nicht allein Bildqualität.
- Quantum Efficiency (QE): Anteil der Photonen, die tatsächlich in Ladung umgewandelt werden — höher ist besser.
- Dynamikumfang: Verhältnis zwischen größtem und kleinstem noch unterscheidbarem Signal — wichtig für kontrastreiche Motive.
- Rauschen: Shot-Noise (Photonenstatistik), Read-Noise (Ausleseelektronik) und Dark-Current (thermisch erzeugte Ladung) beeinflussen die Qualität.
- Shutter-Typ: Rolling Shutter (Pixelzeilen werden nacheinander ausgelesen) vs. Global Shutter (alle Pixel gleichzeitig) — wichtig bei schnellen Bewegungen.
Anwendungen
- Digitalfotografie und Smartphone-Kameras
- Video- und Filmproduktion
- Industrielle Bildverarbeitung, Qualitätskontrolle
- Medizinische Bildgebung (z. B. Endoskopie, Röntgen-Detektoren)
- Astronomie (lichtempfindliche CCD/CMOS für schwache Objekte)
- Sicherheits- und Überwachungssysteme
- Wärmebildkameras für Gebäudeinspektion, Feuerwehr, Militär
Moderne Entwicklungen
Aktuelle Trends sind unter anderem:
- Gestapelte CMOS-Sensoren mit separater Signalverarbeitungsschicht zur Leistungssteigerung.
- Verbesserte BSI-Techniken für höhere Lichtausbeute bei kleinen Pixeln.
- Global-Shutter-CMOS für verzerrungsfreie Hochgeschwindigkeitsaufnahmen.
- KI-basierte Bildverarbeitung on-chip für Rauschunterdrückung, HDR und bessere Farbwiedergabe.
Zusammenfassung
Bildsensoren sind die zentrale Komponente moderner Bildaufnahme: Sie wandeln Licht in elektrische Signale und bestimmen maßgeblich Bildqualität, Dynamikumfang, Rauschen und Empfindlichkeit. CCD- und CMOS-Technologien dominieren die Praxis, während spezielle IR- und Röntgensensoren für spezifische Wellenlängenbereiche entwickelt wurden. Die Wahl des Sensors hängt vom Einsatzgebiet ab — ob hohe Empfindlichkeit, hohe Geschwindigkeit, niedrige Kosten oder thermische Bildgebung im Vordergrund stehen.