Wenn wir den Sensor als das Herzstück unserer 
DSLR sehen, machen wir nichts falsch. 
Er ist für die Umwandlung des Lichts in elektrische Signale verantwortlich. Und ohne 
elektrische Signale erhalten wir kein Bild.
Viele, ja Millionen von Fotozellen, die später zu Pixeln werden wollen, erledigen 
diesen Job. Stellen Sie sich ein kleines Plättchen (i.w.S. eine Leiterplatte) vor, 
auf dem waagerecht wie senkrecht lichtempfindliche Zellen aufgebracht sind. Diese Anordnung, waagerecht 
und senkrecht, ergibt später die Anordnung der Pixel in unserem Bild als Breite und Höhe. 
Die zur Verfügung stehende Fläche variiert dabei durch unterschiedliche 
Sensorgrößen.
Zunächst kann der Sensor selbst "nur" Licht oder kein Licht (1 oder 0) unterscheiden. "Schlimmsten 
Falles" würde quasi ein Schwarz-Weiß-Bild entstehen. Damit das nicht passiert, haben die Hersteller 
vor dem Sensor einen Farbfilter (Bayer-Filter), durch den das Licht durch muß, montiert. Dieser Filter ist 
nach dem sogenannten Bayer-Muster als 
RGB-Matrix (Rot-Grün-Blau) aufgebaut. Dieses Muster ist den Zapfen auf 
der Netzhaut (siehe menschliches Auge) nachempfunden. Da die Anzahl der für die Farben verantwortlichen Zapfen bei 
jedem Menschen unterschiedlich ist, hat man nach einem internationalen Standard die Verteilung auf 25% Rot, 50% Grün 
und 25% Blau festgelegt. Jeder zweite Farbfilter ist also "Grün".
Nachdem das Licht den Filter passiert hat und von den Fotozellen umgewandelt wurde, werden die elektrischen Signale in 
einer Art Rechenzentrum bearbeitet. Hier findet die Konvertierung in ein Bildformat, meist 
jpg, und die sofortige 
automatische Bildbearbeitung statt. Unser Bild wird also schon in der Kamera bearbeitet, gefiltert, korrigiert,...
Wer diesen Prozeß nicht der Kameraautomatik (i.d.F. der Sensorsoftware) überlassen möchte, kann sich von der Kamera das 
sogenannte 
RAW-Format ausgeben lassen. Es stellt heute das Digitale Negativ dar und enthält fast reine Sensordaten.
      
zurück zu den anderen Tutorials