Der FotoVideoTec-Blog

Lose Gedanken und kurze Beiträge zu Themen der Foto- und Videotechnik
von Andreas Beitinger


Alternative Sensor-Seitenverhältnisse - Der Symbolfoto-Wahn - Wie analog war die analoge Fotografie? - Ist WebP der neue Standard für Bilder im Netz? - Gimbal – ein Wort, mehrere Bedeutungen - Dämlich platzierte Stativgewinde - Objektive mit Lichtstärke 22 - HEIC-Fotos unter Windows 10 öffnen - Das Ende des Filmlooks - Warum ist die Länge der Videoaufnahmen an vielen Kameras begrenzt? - Nikon AF-D gibt es nicht.


Alternative Sensor-Seitenverhältnisse

Jedes digitale Kamerasystem, egal ob DSLM oder DSLR, hat eine maximale Sensordiagonale. Der Hersteller darf den Sensor in einem neuen Kameramodell nicht plötzlich größer machen, weil dann der Bildkreis mancher vorhandener Objektive das Bild nicht mehr ganz ausleuchten würde.

Allerdings gehört zu jedem System auch immer ein scheinbar festes Sensor-Seitenverhältnis – obwohl es für diese Festlegung keinen technischen Grund gibt. So haben praktisch alle heutigen „Vollformat“-Kameras ein Seitenverhältnis von 3:2 und alle mFT-Kameras ein Seitenverhältnis von 4:3. Dabei würde es völlig ausreichen, wenn die Diagonale des Sensors zum System passt. Das Seitenverhältnis könnte der Hersteller für jedes Kameramodell anders festlegen, um es an die Bedürfnisse ganz verschiedener Nutzergruppen anzupassen. Es gibt ja unterschiedliche Fotografen, die z. B. das 3:2-Format, das 4:3-Format oder auch ein quadratisches 1:1-Format bevorzugen. Es gibt Videografen, die hauptsächlich in 4:3 filmen oder in 16:9 oder in einem der breiteren Kino-Seitenverhältnisse. Man kann natürlich alle diese Formate mit heutigen Kameras aufnehmen, indem man die Sensorfläche entsprechend beschneidet (direkt per Kameraeinstellung oder später in der Nachbearbeitung). Aber solche Crops bringen stets einen Verlust an nutzbarem Weitwinkel und einen Verlust an Bildqualität mit sich. Es wäre viel eleganter, wenn der Kamerasensor gleich das richtige Format für den geplanten Zweck hätte.

So richtig festgeschrieben sind die Seitenverhältnisse der Systeme nicht. Das „Vollformat“ und das „APS-C-Format“ haben sich aus der filmbasierten Fotografie ergeben und sind in der digitalen Welt keine offiziellen Standards. Für das Micro-Four-Thirds-Format existiert zwar ein Whitepaper, aber darin wird nur ein Bildkreis definiert – kein bestimmtes Seitenverhältnis. (Der Name des mFT-Systems bezieht sich nicht aufs Seitenverhältnis, sondern leitet sich etwas umständlich von den Durchmessern alter Kameraröhren ab.)
Die Hersteller könnten z. B. für Liebhaber des Quadratformates eine Kamera mit einem Sensor der Größe 30,6 x 30,6 mm auf den Markt bringen. Vorhandene „Vollformat“-Objektive würden das Format problemlos bedienen, weil es innerhalb desselben Bildkreises liegt wie die klassischen 24 x 36 mm. Damit hätte man gegenüber einem auf 24 x 24 mm beschnittenen Sensor immerhin 62 % mehr nutzbare Fläche zur Verfügung.
Genauso gibt es keinen Grund, warum eine Micro-Four-Thirds-Kamera nicht auch mal einen Sensor im 3:2-Seitenverhältnis mit 25,46 x 16,97 mm Größe haben sollte – wie es von Anwendern immer mal wieder gewünscht wird.

Die einzige praktische Umsetzung dieser Überlegung findet sich bisher in Form der (seltenen) Multiformat-Sensoren, die ein bisschen Übergröße haben und für jedes Seitenverhältnis nur den Ausschnitt mit der maximal zulässigen Diagonalen nutzen. Sensorformate, die gleich an bestimmte Zwecke oder Vorlieben angepasst wären, verbaut bisher niemand. Das könnte damit zu tun haben, dass es nur wenige Kamerasensor-Hersteller gibt – und dass für eine Vielzahl von Kameramodellen aus Effizienzgründen nur ganz wenige unterschiedliche Sensormodelle zur Verfügung stehen. Die Kamerahersteller können sich Größe und Format ihrer Sensoren also nicht frei aussuchen – schon gar nicht im unteren Preissegment. Aber vielleicht wagt sich wenigstens mal ein Hersteller von „Edelkameras“ an das Thema heran.

Erstellt am 13. Oktober 2022


Der Symbolfoto-Wahn

Dass Leser von Internetseiten zuerst auf die Bilder schauen und erst dann auf den Text, ist wahrnehmungspsychologisch kaum zu bestreiten. So ähnlich trifft das natürlich auch auf Zeitungsartikel und sogar auf Hintergrundbilder in Nachrichtensendungen zu. Wer Aufmerksamkeit für Inhalte sucht, arbeitet deshalb gern mit unterstützenden Fotos – selbst wenn zur Meldung gar kein authentisches Bildmaterial verfügbar ist. Bevor man die reservierte Fläche einfach leer lässt, benutzt man lieber ein Symbolbild.

Es gibt die ganz typischen Symbolfotos, die man auch gleich als solche erkennt, etwa den Stempel mit der Aufschrift „Fristverlängerung“ zum Ratgeber-Artikel über die Steuererklärung. Oder das Dach-Display eines Polizeiautos mit der angezeigten Schrift „Unfall“. Oder das obligatorische Bündel Dollar-Banknoten zum Bericht über die Finanzkrise in den USA. Oder gar Klassiker wie den lächelnden Arzt mit Stethoskop; der darf zu allem herhalten, was im allerweitesten Sinne mit Medizin zu tun hat. Der Informationsgehalt solcher Fotos ist Null, aber sie erregen immerhin eine minimale Aufmerksamkeit und richten keinen Schaden an. Das reicht schon.

Manchmal allerdings erkennt man Symbolfotos erst daran, dass ganz klein das Wort „Symbolfoto“ drunter steht. Und da wird es schwierig, denn nicht jeder Leser liest das Kleingedruckte. Wenn eine Meldung zu einem regionalen Verkehrsunfall mit dem Symbolfoto eines Notarzts bebildert wird, der Abgebildete aber nicht beim aktuellen Unfall im Einsatz war, kann das Verwirrung unter den Unfallbeteiligten stiften. Wenn die Meldung über öffentliche Toiletten mit dem Symbolfoto eines Klohäuschens illustriert wird, aber dieses in einer völlig anderen Stadt steht, fühlen sich die Leser getäuscht oder glauben gar an ein Versehen. Wenn zum Artikel über die jüngsten Ergebnisse der Krebsforschung eine Gruppe gut gestylter Labormitarbeiter-Models gezeigt wird, die mit dem tatsächlichen Forschungsteam nicht das Geringste zu tun haben, ist das schon beinahe unverschämt. Aber es wird genau so gemacht, Tag für Tag. Manche Leser regen sich in Leserbriefen darüber auf, wenn es allzu dreist ist. Erschreckend viele Leute merken es gar nicht – auch weil sie nicht damit rechnen.

Man mag sich fragen, wo die ganzen Symbolbilder plötzlich herkommen. In manchen Fällen handelt es sich vielleicht um überzählige Fotos, die der Hausfotograf mal bei anderer Gelegeneit geknipst hat. Die weitaus meisten stammen aber von sogenannten Stockfoto-Agenturen. Es würde ja gar nicht lohnen, wenn die Redaktionen alle ihre Symbolfotos selber aufnehmen müssten. Solange die Agentur bereits zu jedem aktuellen Thema eine Auswahl von Symbolbildern liefern kann, muss man als Redakteur nicht mehr lang nachdenken – was auch die häufig so unüberlegte Wahl erklärt.
Ohne das lukrative Symbolfoto-Geschäft wäre so mancher Berufsfotograf, dem die Porträt- und Hochzeits-Kundschaft weggebrochen ist, längst pleite. Man kann sich ausmalen, wie die erfolgreichen Stockfotografen jeden Trend riechen, um dann stets zu den Ersten zu gehören, die passendes Bildmaterial einstellen. Symbolfotos werden in Serie produziert, damit sich der Aufwand lohnt – nicht zuletzt, wenn Models tageweise gebucht werden. Dass dann derselbe ältere Herr mit gebückter Körperhaltung in einer Zeitung das Thema „Einsamkeit im Alter“ illustriert und in einer anderen Zeitung für die Überschrift „Diarrhö durch Fallobst“ herhalten muss, stört offenbar niemanden.

Erstellt am 19. Januar 2022


Wie analog war die analoge Fotografie?

Wenn die Technik irgendwas Neues hervorbringt, braucht es einen Namen. Und manchmal muss gleichzeitig auch das Alte benannt werden, damit man es vom Neuen abgrenzen kann. Solche Namensgebungen laufen nicht immer überlegt und logisch ab, sondern entstehen im allgemeinen Sprachgebrauch. Ein schönes Beispiel dafür ist die „analoge Fotografie“. Die damit bezeichnete Technik existiert zwar schon seit weit über hundert Jahren, aber der spezielle Begriff entstand erst um die Jahrtausendwende in Reaktion auf die Einführung der digitalen Fotografie. Irgendwie musste man die Dinger halt unterscheiden. Darüber, ob die Wortwahl „analog“ hier so glücklich war, kann man allerdings streiten.

In der Technik kennzeichnen die Begriffe „analog“ und „digital“ meist elektrische Signalarten und Speicherverfahren. Etwa eine Schallplatte ist ein analoges Medium, weil sie Tonfrequenzen direkt in Form von Rillentiefen speichert und beim Abspielen daraus ohne Umweg wieder hörbare Töne macht. Dagegen die Compact Disc ist ein digitales Medium, weil hier die analogen Tonsignale zuerst von einem AD-Wandler in ein digitales Raster überführt und als „Nullen und Einsen“ auf der CD gespeichert werden; zum Abspielen muss man aus dem Datenstrom per DA-Wandler wieder analoge Tonsignale machen.

Dass auch die digitale Fotografie ein digitales Verfahren ist, steht ja außer Zweifel: Bildinhalte werden hier in ein feines Schachbrettmuster von Pixeln unterteilt, für die jeweils Farb- und Helligkeitswerte als binäre Zahlen gespeichert werden können. Aber was soll an der analogen Fotografie eigentlich analog sein? Es handelt sich ja gar nicht um ein elektrisches Speicherverfahren, sondern um ein chemisches. Es gibt keine elektrischen Signale, die irgendwo analog aufgezeichnet und wiedergegeben werden könnten. Sollten wir da nicht eher von „chemischer Fotografie“ oder schlicht von „Film-Fotografie“ sprechen?

Im Grunde hat die Standbild-Fotografie einen ganzen Entwicklungsschritt übersprungen, nämlich den analog-elektrischen. Beim Bewegtbild war das anders: Zwischen dem chemischen (Kino-)Film und den heutigen digitalen Videosystemen gab es auch noch analoges Fernsehen und Video. Das war ein recht komplexes Verfahren, das Bilder in eine feste Zahl von Bildzeilen (nicht jedoch in einzelne Pixel) einteilte und die Inhalte der jeweiligen Zeilen als analoge Signale transportieren und speichern konnte. Einzelne analog-elektrische Kameras gab es zwar auch mal für stehende Fotos, aber das waren letztlich nur Abwandlungen der damaligen Videotechnik. Ein wirklich eigenständiges analog-elektrisches Verfahren für Fotos, das dann auch eine höhere Detailauflösung als die damaligen Videosysteme gehabt hätte, kam nie auf den Markt. In unseren Alltag eingezogen ist die elektronische Standbildspeicherung erst zu einer Zeit, als man die Bilder bereits digital speichern konnte (zunächst auf Disketten und Festplatten, später dann auf Speicherkarten).

Eine „analoge Fotografie“ im eigentlichen Sinne hat es also nie gegeben. Wir sind direkt von der chemischen zur digitalen Fotografie übergegangen. Warum sich für die alte Film-Fotografie trotzdem die Bezeichnung „analog“ durchgesetzt hat, ist nur noch schwer nachzuvollziehen. Es blieb ja nicht mal bei der allgemeinen Bezeichnung des Systems und der Kameras; teilweise liest man heute noch absurdere Unterbegriffe wie „analoge Objektive“ oder „analoge Blitzgeräte“.

Erstellt am 03. Januar 2022


Ist WebP der neue Standard für Bilder im Netz?

Für Fotos und andere Pixelgrafiken auf Internetseiten gibt es nur drei etablierte Dateiformate: JPEG, GIF und PNG. Alle drei haben Vor- und Nachteile, so dass bisher keines davon entbehrlich ist. Für alles, was im weitesten Sinne als Foto gilt, eignet sich JPEG (das ja auch außerhalb des Internets große Verbreitung hat). Die Kompression von JPEG ist aber nicht sehr effektiv und für Grafik mit glatten Kanten ungeeignet. Das GIF-Format wird gern für einfache Animationen genutzt, eignet sich aufgrund der begrenzten Zahl von Farbabstufungen aber nicht gut für Fotos. PNG kommt zum Einsatz, wenn Transparenz gebraucht wird oder wenn es eher um glatte Grafiken als um Fotos geht. Mit PNG bekommt man aber nur verlustfreie Kompression und daher oft unnötig große Dateien.

Nun gibt es mit WebP ein neues Format, das speziell für Webseiten optimiert ist (weniger für andere Anwendungen) und vielleicht das Zeug dazu hat, die drei herkömmlichen Formate im Internet abzulösen. Die Kompression von WebP ist je nach Bildinhalt etwa 30 % effektiver als die von JPEG, so dass die Dateien bei gleicher Qualität etwas kleiner werden können. Diese 30 % sind in der Praxis von eher geringer Bedeutung, weil die wenigsten Webdesigner sich in Sachen Bildqualität so exakt an die Grenzen herantasten. Allerdings hat WebP noch weitere Vorzüge, die es interessant machen. So wird in WebP Transparenz unterstützt – und zwar im Gegensatz zu PNG auch mit verlustbehafteter Kompression und somit datensparend. (Transparenz braucht man z. B. für Bildelemente, die nicht exakt Rechteck-Form haben sollen.) Außerdem kann man mit WebP einfache Animationen erstellen, die im Gegensatz zu GIF nicht an stufigen Farbübergängen leiden. Die Möglichkeit einer verlustfreien Kompression bietet WebP auch – womit es für Strichgrafiken und Grafiken mit harten Farbkanten mindestens so gut geeignet ist wie PNG. Im Idealfall könnte WebP also eines Tages JPEG, GIF und PNG für Bilder auf Internetseiten komplett ersetzen. Die Dateigrößen und somit Ladezeiten im Netz würden damit sinken. Am deutlichsten wären die Einsparungen in Verbindung mit Transparenzen, die man ja bisher nur mit relativ datenintensiven PNG-Dateien umsetzen kann (die jämmerliche 1-Bit-Transparenz von GIF mal ausgeklammert).

WebP wurde maßgeblich von Google entwickelt, allerdings unter eine freie Lizenz gestellt. Dadurch stellt die Integration des WebP-Formates für Softwarehersteller keine große Hürde dar. Viele aktuelle Bildbearbeitungsprogramme können das WebP-Format von sich aus exportieren. Für andere gibt es kostenlose PlugIns.
Eigentlich gibt es das WebP-Format schon seit über zehn Jahren. Richtig interessant geworden ist es aber erst durch steigende Browserunterstützung. Google hat WebP in seinen Chromium-Code integriert, auf dem z. B. Chrome, Opera und neuere Versionen von Microsoft Edge aufbauen. Auch die meisten Browser unter Android sowie aktuelle Versionen von Mozilla Firefox können WebP darstellen. Zumindest die jüngsten Versionen von Apple Safari beherrschen WebP nun ebenfalls.

Heißt das, WebP kann ab sofort bedenkenlos statt JPEG, GIF und PNG auf Webseiten verwendet werden? Leider dann doch nicht.
Längst nicht jeder Internetnutzer verwendet aktuelle Browser. Wer noch irgendeine Version des Internet Explorer, eine ältere Version von Edge oder eine ältere Version von Firefox als Standardbrowser hat, kann keine WebP-Bilder sehen. Edge gibt es erst gar nicht für ältere Windows-Versionen. Genauso läuft die neueste Version von Apple Safari nur auf relativ neuen macOS- bzw. iOS-Versionen, die ihrerseits nicht auf älterer Hardware installierbar sind. Laut einer weltweiten Statistik von Ende 2020 sollen rund 20 % der Internetnutzer noch kein WebP dargestellt bekommen. (Unter den Lesern von fotovideotec-blog.de sind es 23 % – Stand März 2021.) In einzelnen Browsern kann auch eine unvollständige Unterstützung von WebP gegeben sein, so dass dort nur einfache WebP-Bilder ohne Transparenzen und ohne Animation funktionieren. Anhand der folgenden Testbilder kann man sehen, was im eigenen Browser geht und was nicht:


Unter Webdesignern kursiert das Gerücht, man könne das Google-Ranking einer Seite etwas verbessern, indem man alle Bilder im WebP-Format anbietet. Ob das pauschal stimmt, vermag ich nicht zu sagen. Auf jeden Fall gibt es heute schon Webseiten, die in großem Stil WebP als Ersatz für JPEG verwenden. Das sind dann meist kommerzielle Seiten, die komplexe Fallback-Lösungen (Browserweichen) integriert haben und daher ein neues Format nicht scheuen müssen.
Für private Webseiten würde ich WebP vorerst nur an den Stellen nutzen, wo es handfeste Vorteile hat (z. B. größere Bilder mit Transparenzen). Dafür kann man sich dann jeweils eine simple Fallback-Lösung mittels „picture“-Element in HTML basteln. Eine allgemeine Verwendung von WebP im Webdesign finde ich derzeit noch nicht lohnend.
In einigen Jahren, wenn durch Upgrades und Ausmusterung veralteter Geräte die Fallback-Lösungen entbehrlich werden, mag die Situation anders aussehen. Die Zeit arbeitet für das neue Format.

Erstellt am 12. Februar 2021
Statistik ergänzt am 04. April 2021


Gimbal – ein Wort, mehrere Bedeutungen

Fachbegriffe werden manchmal sinnentstellend abgekürzt. Mit der Zeit kann dasselbe Wort je nach Fachgebiet eine andere Bedeutung annehmen. Ein gutes Beispiel aus den letzten Jahren ist der Begriff „Gimbal“, der sowohl unter Naturfotografen als auch unter Videofilmern häufig fällt. Allerdings meinen die beiden Gruppen damit unterschiedliche Sachen.

Laut Lexikon ist Gimbal ein englisches Wort, das sich mit „Kardanische Aufhängung“ ins Deutsche übersetzen lässt. Man versteht darunter die Kombination von zwei Drehgelenken, die sich im rechten Winkel überschneiden. Angewendet wird dieses Prinzip an Stellen, wo man ein Objekt in alle Richtungen drehen können soll. Auch die beiden heute als „Gimbal“ bezeichneten Geräte aus dem Foto- bzw. Videobereich arbeiten auf dieser konstruktiven Grundlage – allerdings mit unterschiedlichem Ziel.

Aus der Fototechnik kennt man schon länger den „Gimbal-Kopf“, der manchmal auch als „Gimbal-Neiger“ oder eben kurz als „Gimbal“ bezeichnet wird. Das ist ein spezieller Stativkopf, der rein mechanisch funktioniert. Vorteilhaft ist ein Gimbal-Kopf insbesondere, wenn man ein schweres Teleobjektiv verwendet. Die Besonderheit des Gimbal-Kopfes gegenüber Kugelköpfen oder herkömmlichen Neigern besteht darin, dass man die Kamera ausbalancieren und dann in ihrem eigenen Schwerpunkt neigen kann. So kann man die Kamera in jeder Position loslassen und sie kippt nicht mehr nach vorn oder hinten runter. Zudem wird ein ungewolltes seitliches Verkippen der Kamera verhindert. Sehr beliebt sind Gimbal-Köpfe unter Naturfotografen, die Wildtiere auf der Jagd oder Vögel im Flug fotografieren müssen.

In der Videotechnik heute gern benutzt werden „Gimbal-Stabilisierungssysteme“. Die meisten Filmer sagen dazu nur „Gimbal“. In Hersteller­Beschreibungen taucht noch der genauere Begriff „Brushless Gimbal Stabilizer“ auf – in Anspielung auf die bürstenlosen Elektromotoren, die in solchen Geräten verbaut sind. Anders als ein mechanischer Gimbal-Kopf für Fotografen ist ein Gimbal-Stabilisierungssystem für Videofilmer ein sehr raffiniertes elektronisches Gerät: Mit Hilfe eines Gyro-Sensors werden Wackelbewegungen in mehreren Achsen ermittelt und über die Motoren nahezu vollständig kompensiert. Das ermöglicht geschmeidige Kamerabewegungen aus der freien Hand (ähnlich wie mit mechanischen Steadycams, aber viel flexibler und mit weniger Übungsaufwand). Auch die stabilen Drohnenvideos, die heute allgegenwärtig sind, verdanken wir dem Prinzip der Gimbal-Stabilisierung.

Der Begriff „Gimbal“ ist nun in der Foto- und Videoszene doppelt belegt. Das ist nicht optimal, aber wird sich vermutlich auch nicht mehr ändern. Wir müssen einfach schauen, wie wir damit umgehen, wenn es in Fachgesprächen zu Missverständnissen kommt. Wer über die Doppeldeutigkeit des Wortes informiert ist, kann vermittelnd eingreifen. 

Erstellt am 07. Februar 2021


Dämlich platzierte Stativgewinde

Auch wenn nicht jeder Fotograf oder Filmer eines benutzt, ist das Stativ für viele Anwender doch immer noch elementar wichtig. Nicht umsonst findet man seitenlange Forendiskussionen zur Schwingungsanfälligkeit von Stativbeinen und zur Geschmeidigkeit von Stativköpfen. Umso erstaunlicher ist, dass die Platzierung des Stativgewindes am Kameraboden nur selten thematisiert wird – obwohl es hier je nach Hersteller und Modell zu erheblichen Defiziten kommen kann. Die Position des Stativgewindes steht auf der Prioritätenliste der Kamerakonstrukteure wohl ziemlich weit unten. Es wird immer irgendwo eingebaut, wo am Kameraboden noch Platz ist – selbst wenn diese Stelle für die praktische Anwendung klare Nachteile mit sich bringt.

Ein ideales Stativgewinde befindet sich mittig im Boden der Kamera (oder zumindest so, dass der Kameraboden in allen vier Richtungen noch wenigstens 2 cm Auflagefläche lässt). Der umgebende Kameraboden sollte möglichst hart und das Stativgewinde fest darin verankert sein. Durch das Festschrauben einer ausreichend dimensionierten Stativplatte sollten keine Akku- oder Speicherkartenfächer verdeckt werden. Die Stativplatte sollte auch nicht vorn mit einem dicken Objektiv oder hinten mit dem Klappdisplay kollidieren können.

Kameras mit ideal platzierten Stativgewinden sind selten. Wenn man Glück hat, bestehen nur kleinere Einschränkungen – etwa eine unnötige Gummierung des Bodens (die zusammen mit dem Gummi einer Stativplatte die Auflage schwammig macht) oder eine etwas reduzierte Auflagefläche in einer der Richtungen (wodurch gummierte Stativplatten nach dem Anziehen etwas schief sitzen). Auch eine Position etwas links oder rechts von der Objektivachse ist nicht ideal, aber für die meisten Anwendungsbereiche verkraftbar.
Ärgerlich wird es, wenn das Stativgewinde zu nah am Akkufach-Deckel liegt. Dann muss man die Stativplatte jedesmal für den Akkuwechsel abschrauben. Besonders an Kompaktkameras mit kleiner Bodenfläche sieht man das sehr häufig, aber auch einige größere Bridge- und Systemkameras sind betroffen.
Noch übler sind Stativgewinde, die ganz weit vorn oder hinten am Rand des Bodens eingebaut wurden. Die Stativplatte hat dann in einer Richtung gar keine Auflagefläche; die Schraube kann nur ziemlich schief und mit stark verminderter Festigkeit angezogen werden. Befindet sich das Stativgewinde am hinteren Rand, wird die Stativplatte hinten überstehen und kann ein dort befindliches Klappdisplay behindern. Befindet sich das Stativgewinde am vorderen Rand, wird sich die Kamera bei Verwendung schwererer Objektive nach vorn biegen – denn es gibt ja im vorderen Bereich keine Auflagefläche, die das Gewicht aufnimmt.

Ein dämlich platziertes Stativgewinde macht ein Kameramodell nicht gleich komplett untauglich für die Nutzung auf dem Stativ. Je nach Anspruch und Anwendungsbereich kann man sich mit der suboptimalen Stabilität und/oder dem eingeschränkten Bedienkomfort abfinden.
Will man das nicht, gibt es Abhilfe in Form von Zubehör. Es gibt Arca-kompatible Stativplatten in unterschiedlichen Größen, die mehrere Löcher für die Stativschraube haben und sich damit asymmetrisch befestigen lassen. Für verbreitete Kameras sind sogar „kameraspezifische“ Stativplatten und L-Winkel erhältlich, die bereits alle Besonderheiten und Defizite des jeweiligen Kameramodells berücksichtigen. Mit etwas Basteltalent kann man auch vorhandene Stativplatten so modifizieren, dass die Probleme umgangen werden. Etwa durch Versetzen der Schraubenposition oder Ausfräsen eines Teils der Fläche kann man Akku- und Speicherkartenfächer wieder zugänglich machen. Mit Hilfe von Powerknete kann man Zwischenteile formen, die sich spielfrei an den Kameraboden anpassen und aus der beschränkten Auflagefläche die bestmögliche Stabilität rausholen.

Trotzdem wäre schön, wenn all das nicht nötig wäre – also wenn bereits die Hersteller darauf achten würden, ihre Stativgewinde praxisgerecht zu platzieren. Solange sich nur einzelne Anwender damit auseinandersetzen, wird sich vermutlich nichts ändern. Ein hilfreicher Einstieg wäre vielleicht, wenn mehr Kameratester das Thema aufgreifen und es in ihren Artikeln und YouTube-Videos erwähnen.

Erstellt am 05. Februar 2021


Objektive mit Lichtstärke 22

Canon bringt zum spiegellosen R-System vermehrt Objektive auf den Mark, die man gemeinhin als „lichtschwach“ bezeichnen würde. Bereits ein Standardzoom mit Lichtstärke 4–7,1 ist ungewöhnlich, weil die obere Grenze für Wechselobjektive bisher stets bei Blende 6,3 lag. Auf die Spitze treiben es jedoch zwei Tele-Festbrennweiten, die es auf eine Offenblende von 11 bringen – was sich bei Verwendung des 2-fachen Telekonverters gar noch auf einen Wert von 22 verschlechtert.

Dass Canon jetzt auch so lichtschwache Objektive baut, könnte einen simplen Grund haben: weil sie es können. An Spiegelreflexkameras waren Objektive mit Lichtstärken jenseits der besagten 6,3 nicht mehr automatisch fokussierbar (egal, wieviel Licht zur Verfügung stand), da die feste Messbasis der Phasen-Autofokussensoren harte Grenzen setzte. Die spiegellosen Canons der R-Baureihe arbeiten nun mit einem sensorbasierten Dual-Pixel-Autofokus, dessen Messbasis flexibler ist. Laut Canon klappt die Autofokussierung mit der R5/R6 auch noch bei Blende 22, wenn man kleinere Einschränkungen (insbesondere den Verzicht auf randnahe Messfelder) in Kauf nimmt.

Die Meinungen in den einschlägigen Foren gehen auseinander. Wer z. B. im Studio gern mit knapper Schärfentiefe arbeitet, aber auf Reisen nicht so viel schleppen möchte, findet die Idee lichtschwacher Objektive durchaus charmant: Man kann an denselben Body sowohl schwere, lichtstarke als auch leichte, lichtschwache Objektive montieren und somit ohne Zweitsystem einen breiten Anwendungsbereich abdecken. Andere verweisen auf die die notwendigen hohen ISO-Werte sowie drohende Beugungsunschärfe bei Blende 22. Wer leichte Objektive will, so wird geglaubt, sollte lieber ein Kamerasystem mit kleinerem Sensor kaufen.

So ganz neu ist das Konzept der geringen Lichtstärke keineswegs. Wer noch die späte Zeit der analogen Fotografie erlebt hat, erinnert sich vielleicht: In den 1990er-Jahren gab es eine Reihe von Superzoom-Kompaktkameras für KB-Film (also „Vollformat“). Deren Brennweitenbereiche gingen meist bis 140 mm – und wir reden hier von echten 140 mm und nicht etwa von einem KB-Äquivalent. Um eine so lange Brennweite in ein leichtes Kameragehäuse zu bekommen, konstruierte man ein motorisch ausfahrendes Objektiv mit einer Offenblende von 11. Von Pentax gab es sogar ein Modell, das bis 200 mm bei Offenblende 16 ging – und das zu einer Zeit, als Negativfilm mit ISO 400 schon als hochempfindlich galt.

Vergleichen wir doch mal die lichtschwachen Objektive für das R-System mit den heute üblichen Objektiven im mFT-System (Cropfaktor 2). Für einen fairen Vergleich sollte man immer die vollständigen Äquivalenzwerte gegenüber dem KB-Format errechnen: Benutzt man an der mFT-Kamera z. B. 100 mm Brennweite bei Blende 5,6 und ISO 400, könnte man das nahezu gleiche Ergebnis auch an einer KB-Kamera mit 200 mm Brennweite, Blende 11 und ISO 1600 erzielen. Die äquivalente Brennweite sorgt für den gleichen Bildausschnitt, die äquivalente Blende sorgt für die gleiche Schärfentiefe, der äquivalente ISO-Wert sorgt für das (ungefähr) gleiche Rauschverhalten. Auch die Beugungsunschärfe verhält sich äquivalent: Wer an der mFT-Kamera keine Hemmung hat, Blende 11 zu verwenden, kann an der KB-Kamera ruhig Blende 22 verwenden.

Die vermeintlich lichtschwachen Objektive für das Canon-R-System dienen also langfristig der Skalierbarkeit des Systems nach unten. Kamerasysteme mit kleinerem Sensor könnten, wenn die Preisunterschiede der Sensoren mal keine große Rolle mehr spielen, ihre Daseinsberechtigung verlieren.
Bleibt abzuwarten, ob andere Kamerahersteller wie Nikon oder Sony nachziehen. Scheitern könnte es evtl. an deren anders aufgebauten Autofokus-Systemen. 

Erstellt am 03. Februar 2021


HEIC-Fotos unter Windows 10 öffnen

Neuere iPhones und iPads sowie einige Android-9-Geräte nehmen Fotos in einem neuen Format mit der Endung HEIC auf (das steht für HEIF mit HEVC-Kompression). Gegenüber dem veralteten JPEG-Format ermöglicht das HEIC-Format bei gleicher Qualität rund halb so große Dateien. Bisher werden HEIC-Dateien beim Export meist in JPEGs konvertiert, damit andere Programme und Geräte sie lesen können – aber damit gehen die technischen Vorteile von HEIC verloren. Schöner wäre, man könnte die HEIC-Bilder direkt verwenden und archivieren. Je mehr Smartphones mit HEIC-Bildformat auf den Markt kommen, desto wichtiger wird diese Möglichkeit.

Die Hersteller von Bildbearbeitungsprogrammen sind mit der direkten Unterstützung des HEIC-Formates noch zurückhaltend, weil sie dazu Lizenzen erwerben müssten. Ein zumindest teilweiser Ersatz ist die Integration direkt ins Betriebssystem. In macOS gibt es schon länger eine Unterstützung für das HEIC-Format; viele Programme unter macOS können das Format deshalb lesen. Inzwischen stellt Microsoft etwas Vergleichbares auch unter Windows 10 zur Verfügung. Man braucht dazu keine Software von externen Herstellern mehr.

Wer es schon mal ausprobieren möchte, aber noch keine eigenen HEIC-Dateien zur Hand hat, kann sich hier oder hier welche herunterladen.

Auf manchen Windows-10-Rechnern ist die HEIC-Unterstützung bereits ohne Zutun des Benutzers aktiv. Wenn nicht, muss sie manuell eingerichtet werden.
Damit es klappt, sollte mindestens die System-Version 1903 installiert sein. Um die Unterstützung für das HEIC-Format zu bekommen, müssen außerdem über den ‚Windows Store‘ zwei spezielle Apps installiert werden: ‚HEIF-Bilderweiterungen‘ und ‚HEVC-Videoerweiterungen vom Gerätehersteller‘.
Es genügen die hier verlinkten kostenlosen Apps; für deren Download muss man nicht mal im Windows Store angemeldet sein. Verwirrenderweise werden für HEVC und HEIF/HEIC auch kostenpflichtige Apps angeboten, aber die sind unnötig.

Ist die HEIC-Unterstützung in Windows 10 fertig eingerichtet und der Rechner neu gestartet, bekommt man HEIC-Dateien im Explorer und auf dem Desktop mit Vorschaubildern angezeigt. Mit den systemeigenen Programmen ‚Fotos‘ und ‚Paint‘ kann man sie öffnen. Auch einige weitere Programme, die auf den sogenannten WIC-Treiber zugreifen (z. B. Microsoft Word, Affinity Photo, IrfanView), können dann HEIC-Dateien importieren.

Im Wesentlichen bieten die Windows-Apps also die Möglichkeit, HEIC-Fotos zu öffnen. Mit ‚Paint‘ kann man im HEIC-Format sogar speichern – allerdings ohne Einstellmöglichkeit für Dateigröße/Qualität. Um alle Vorteile des HEIC-Formates auch beim Speichern nutzen zu können, bräuchte man eben doch eine Software, die das HEIC-Format nativ unterstützt.

Erstellt am 07. Dezember 2019


Das Ende des Filmlooks

Als Filmstudenten in den später 1990ern hatten wir kein Geld, um unsere Übungsfilme auf 35-mm-Film zu drehen. Video erfüllte zwar formal denselben Zweck, aber es konnte nicht mit dem Look edler Kinofilme mithalten. Daher waren wir ganz versessen auf alles, was unsere Filme optisch einem abgetasteten Kinofilm annäherte: Wir eliminierten in der Nachbearbeitung die Halbbilder, um ein dezentes Kino-Ruckeln zu bekommen. Die Perfektionisten unter uns verwendeten gar Fotoobjektive an Mattscheiben-Adaptern, um die geringe Schärfentiefe einer echten Filmkamera zu simulieren. Ob unser Publikum diese Bemühungen jemals zu schätzen wusste, ist unklar. Wir selber waren auf jeden Fall stolz drauf.

Noch vor zwanzig Jahren wurden Studiosendungen und Dokumentationen mit Videokameras gedreht und hatten „Videolook“, Fernsehfilme und Spielfilme waren auf Filmmaterial gedreht und hatten „Filmlook“. Heute gibt es diese klare Zuordnung nicht mehr. Mit Aufkommen der videofähigen DSLRs konnte plötzlich jeder Laie Filme drehen, die optisch den Kinofilmen auf DVD und Blu-ray nahe kamen. Irgendwann wurde auch YouTube überschwemmt von Videos mit „Filmlook“. Anfangs galt das für szenische Filme, später auch für auch jede Art von Familienfilmen, Vlogs und Erklärvideos.
Digitale Kameras haben Produktionsprozesse verändert. Viele Fernsehdokumentationen und sogar manche Studiosendungen werden heute in 25 fps produziert. Gleichzeitig sind aber die neuen Fernsehgeräte mit einer Bewegungsglättung ausgestattet, die das dezente Ruckeln beseitigt und damit selbst Kinofilmen einen „Videolook“ verpasst. Als Filmliebhaber mag man das schrecklich finden, aber die meisten anderen Leute stören sich daran nicht. Wenn man ihnen zeigt, wie die Filme im Original ohne Bewegungsglättung aussehen, erkennen sie darin keinen Vorteil. Ebenso wenig verstehen sie, was an einer extrem knappen Schärfentiefe besonders schön oder edel sein soll.

Sehgewohnheiten gelten nicht für die Ewigkeit. Es wächst immer wieder eine neue Generation von Zuschauern nach, die ganz anders geprägt wird als die Generationen davor. Und was man leicht übersieht: Einem ziemlich großen Teil der Zuschauer war das Thema Filmlook auch früher schon egal.
Es gibt mit Lichtsetzung, Farbdesign und Kontrastkurven auch heute viele künstlerische Einflussmöglichkeiten auf den Look von hochwertigen Filmen. Jedoch die althergebrachte Kino-Framerate und der „180 Grad Shutter“ vertragen sich nicht mehr mit einer immer höheren Bildauflösung. Die heutigen 4k- und UHD-Auflösungen lassen die technischen Defizite immer stärker in den Vordergrund treten. Wenn das Bild aufgrund knapper Schärfentiefe zum größten Teil verschwommen erscheint, kann dies auf großen Bildschirmen ziemlich stören. Erst recht stört es, wenn die Auflösung jedesmal sichtbar einbricht, sobald die Kamera zu schwenken beginnt. Gefragt sind mehr Schärfentiefe und kürzere Belichtungszeiten. Letztere führen aber zu einem starken Ruckeln, wenn man nicht gleichzeitig auch die Framerate erhöht.
Für uns Filmer ist das ein harter Einschnitt – denn ein großer Teil des Filmlooks, der uns einst so wichtig war, ist damit futsch. Aber man kann einem jungen Kinogänger nicht mehr plausibel erklären, worin der Vorteil liegen soll, wenn das Bild auf der Kinoleinwand ruckelt und bei jeder Bewegung unscharf wird – obwohl wir doch längst die Technologie haben, um es besser zu machen. Irgendwann müssen auch wir „Älteren“ das einsehen.

Erstellt am 12. November 2019


Warum ist die Länge der Videoaufnahmen an vielen Kameras begrenzt?

An vielen digitalen Fotokameras ist die Länge einer einzelnen Videoaufnahmen auf 29 Minuten und 59 Sekunden begrenzt – manchmal sogar noch weniger. Das ist ärgerlich, wenn man längere Ereignisse (Theaterstücke, Konzerte, Karnevalsumzüge etc.) ohne Unterbrechung aufnehmen möchte. Nur die „echten“ Videokameras und einige wenige Fotokameras erlauben zeitlich unlimitiertes Video.

Ursprünglich hatten diese Begrenzungen vor allem zollrechtliche Gründe. Nach den Zollregeln der Welthandelsorganisation werden Videokameras anders eingestuft als digitale Fotokameras. Kameras, die Videos von 30 Minuten Länge oder mehr aufnehmen können, gelten nach WHO-Regeln als Videokameras. In Gebieten wie der EU, die für die Einfuhr von Videokameras höhere Zollsätze erheben als für Fotokameras, wirkt sich die Unterscheidung auf die Höhe des Zollsatzes aus.
Noch bis Juni 2016 galt in der EU auf die meisten Videokameras ein Zollsatz von 4,9 Prozent, während digitale Fotokameras zollfrei waren. Um ihren Kunden in der EU den Mehrpreis zu ersparen, limitierten die Hersteller daher häufig die Video-Aufnahmedauer auf unter 30 Minuten. Inzwischen ist allerdings ein neues WHO-Abkommen in Kraft, das nach und nach viele elektronische Geräte – darunter auch Videokameras – zollfrei macht. Der Zollsatz wurde bereits um mehrere Stufen gesenkt und beträgt seit dem 1. Juli 2019 nur noch 1,6 %. Am 1. Juli 2020 sinkt er auf 0,8 % und ab 1. Juli 2021 fällt er dann ganz weg. Für Herkunftsländer, mit denen die EU weitergehende Abkommen geschlossen hat (z. B. Japan und Südkorea), ist der Zollsatz für Videokameras bereits jetzt auf Null. Also spielt die zollrechtliche Einstufung der Kameras inzwischen fast keine Rolle mehr.

Allerdings gibt es auch technische Gründe, die Aufnahmedauer zu begrenzen. Je größer die Sensoren sind, je höher die Auflösungen und je höher die Frameraten, desto stärker erwärmt sich der Sensor im Videobetrieb. Fotokameras, die nicht über ausreichende Wärmeableitung verfügen, können daher bei längerer Videoaufnahme überhitzen und müssen sich abschalten. Manche Hersteller begrenzen die Dauer der Videoaufnahme von vornherein; das können dann auch deutlich kürzere Werte als 30 Minuten sein.
Kameras, die trotz großem Sensor endlos aufnehmen sollen, brauchen aufwendige Kühlsysteme und werden dadurch größer und schwerer. Für Kunden, die gar keine langen Videoaufnahmen machen wollen, ist das ein schlechter Kompromiss.
Auch wenn die zollrechtliche Einstufung nicht mehr relevant ist, wird es daher auch weiterhin Kameras mit begrenzter Aufnahmedauer geben.

Erstellt am 08. November 2019


Nikon AF-D gibt es nicht.

Vor nicht so langer Zeit bin ich durch Zufall darüber gestolpert, dass Nikon gar keine AF-D-Objektive im Programm hat. Und auch noch nie hatte. Bis dahin hatte ich (und damit war ich nicht allein) das Kürzel AF-D häufig und ganz selbstverständlich in Forenbeiträgen benutzt: „Hast du die AF-S-Version oder die AF-D-Version?“ Nach etwas Recherche weiß ich heute, dass die Frage Unsinn ist.

Der Irrtum reicht wohl zurück in die 1990er-Jahre, als Nikon seine AF-Objektive um das D-Feature (Weitermeldung der Entfernungsinformation) bereicherte. Es gab also plötzlich neue Versionen mit dem ominösen D im Namen. Irgendjemand aus der Redaktion einer Fotozeitschrift kam dann wohl auf die Idee, die neuen Objektive als „AF-D“ zu bezeichnen - und dieses Kürzel hält sich seither hartnäckig im Sprachgebrauch von Nikon-Fotografen.

Eigentlich steht der Buchstabe D in der offiziellen Nikon-Objektivbezeichnung nicht mit einem Bindestrich hinter „AF“, sondern erst hinter der Angabe der Lichtstärke. Damals, bei Einführung des D-Features, konnte das allen ziemlich egal sein. Aber inzwischen hat Nikon tatsächlich einige Buchstaben mit Bindestrich hinter „AF“ eingeführt, und jetzt passt die Kombination „AF-D“ überhaupt nicht mehr in die Gesamtlogik.
Es gibt offiziell bei Nikon AF, AF-I, AF-S und AF-P. Die Buchstaben stehen dabei jeweils für eine andere Art von Fokusmotor im Objektiv. Fehlt der Buchstabe hinter dem AF, nutzt das Objektiv den AF-Motor im Kameragehäuse (gern auch als „Stangenantrieb“ bezeichnet).
Hinter der Lichtstärke-Zahl steht entweder gar kein Buchstabe oder D oder G oder E. Diese Buchstaben zeigen jeweils Stufen der Objektiv-Evolution: An den frühen AF-Objektiven fehlte noch dieser Buchstabe, D brachte die besagte Übermittlung der Entfernungsinformation, an Objektiven mit G wurde der mechanische Blendenring weggelassen, an Objektiven mit E wurde die mechanische Übertragung der Blende durch eine Elektronische ersetzt.

Ja, das klingt jetzt alles sehr nach Klugscheißerei. Ist es aber nicht. Oder zumindest nicht nur.
Allzu oft wird heute suggeriert, der Buchstabe D hätte etwas mit der Antriebsart zu tun, so als stünde „AF-D“ für Objektive ohne eigenen Fokusmotor. Das ist aber völliger Unsinn. Es gibt ja auch viele ältere AF-Objektive ohne „D“ – und umgekehrt gibt es Nikon-Objektive, die AF-S als Antriebsart und zusätzlich noch das D-Feature haben (z. B. das „AF-S Nikkor 80-200mm 1:2.8 D“). Also ist es doppelt falsch, so zu tun, als gebe es AF-D in Konkurrenz zu AF-S.

Das waren übrigens nur Beispiele. Es gibt noch mehr Überschneidungen der Bezeichnungen: AF-Objektive („Stangenantrieb“) gibt es ohne Buchstabe nach der Lichtstärke-Zahl oder mit D oder mit G. AF-I-Objektive gibt es nur mit D. AF-S-Objektive gibt es mit D, G oder E. AF-P-Objektive gibt es mit G oder E.

Erstellt am 15. August 2019
Bearbeitet am 05. Februar 2021


 

IMPRESSUM