Lose Gedanken und kurze Beiträge zu Themen der Foto- und Videotechnik
von Andreas Beitinger
Ein Hoch auf das Querformat - Nur Mut zum Abblenden! - Alternative Sensor-Seitenverhältnisse - Der Symbolfoto-Wahn - Wie analog war die analoge Fotografie? - Ist WebP der neue Standard für Bilder im Netz? - Gimbal – ein Wort, mehrere Bedeutungen - Dämlich platzierte Stativgewinde - Objektive mit Lichtstärke 22 - HEIC-Fotos unter Windows 10 öffnen - Das Ende des Filmlooks - Warum ist die Länge der Videoaufnahmen an vielen Kameras begrenzt? - Nikon AF-D gibt es nicht.
Vor Erfindung des Smartphones war das Fotografieren im Querformat unbestrittener Standard, denn in normaler Haltung lieferte nahezu jede Kamera Bilder im Querformat. Man konnte die Kamera zwar jederzeit ins Hochformat drehen, aber das war etwas weniger bequem und schon deshalb nur eine Ausnahme für bestimmte Motive. Für Video und Film war das Hochformat von vornherein tabu, weil Fernsehgeräte und Kinoleinwände passend zum menschlichen Sehfeld aufs Querformat festgelegt sind. Wer früher für große Diashows fotografierte, orientierte sich ebenfalls am Kinostandard, um breite Leinwände nutzen zu können; Aufnahmen im Hochformat wurden darin komplett vermieden oder notfalls nachträglich auf Querformat-Höhe umkopiert (wofür es spezielle Diarahmen gab). Das Querformat war also überall King.
Mit den Smartphonekameras hat sich diese Präferenz innerhalb weniger Jahre komplett umgekehrt. Die Standardhaltung eines Smartphones und damit auch die Standardorientierung der eingebauten Kamera ist das Hochformat. Wer dennoch im Querformat fotografieren will, muss das Gerät drehen und dabei eine etwas weniger praktische Bedienung in Kauf nehmen. Manche Anwender haben diese Möglichkeit anscheinend schon komplett vergessen oder verdrängt. Etwa auf Verkaufsportalen kriegt man regelmäßig Fotos von breiten Gegenständen zu sehen, die trotzdem im Hochformat (mit jeder Menge ungenutzter Bildfläche oben und unten) fotografiert wurden. Und die Absurdität endet nicht mal beim Foto, sondern hat sogar auf Videos im 16:9-Seitenverhältnis übergegriffen: Mit Smartphones wird heute hemmungslos und ganz selbstverständlich im 9:16-Hochformat gefilmt – egal, wie wenig sich im konkreten Fall der Bildinhalt dafür eignet. Am Anfang war das wahrscheinlich noch ein Versehen, weil die Nutzer nicht drüber nachdachten und Smartphones keine Warnung einblendeten. Inzwischen haben sich einige soziale Netzwerke schon ganz auf Hochformatvideo festgelegt – wodurch auch Filmer, die sonst vielleicht Querformat benutzt hätten, zum Hochformatfilmen gezwungen werden. Wenn dann so ein Handyvideo doch wieder Teil von traditionellen Medien wird (was z. B. täglich innerhalb der Fernsehnachrichten passiert), braucht es allerhand Tricks, um ein schmales Hochformatvideo ins Fernseh-Querformat einzupassen. So richtig schön sieht das mit den schwarzen oder unscharf gemachten Seiten natürlich nie aus. Wenn Profis heute Werbevideos drehen, die sowohl im TV als auch im Internet gezeigt werden sollen, greifen sie auf Kameras mit besonders hoher Auflösung zurück und schneiden aus dem Material später je eine Quer- und eine Hochformatversion des Videos. Technisch betrachtet ist das völlig unnötig, weil man auf Smartphones problemlos auch Querformatvideos abspielen könnte. Es liegt nur an den Vorgaben mancher sozialer Netzwerke und an der Einschätzung, dass heutige Zuschauer bereits zu faul sein könnten, ihr Gerät gelegentlich um 90° zu drehen. Erfahrene Filmer der alten Schule können nur noch ungläubig den Kopf schütteln. Aus ihrer Sicht ist Hochformatvideo von vornherein eine Missgeburt, die es nie hätte geben dürfen.
Das Querformat hat immer noch seine Stärken. Viele Motive passen einfach schon aufgrund ihrer Form besser ins Querformat. Dazu kommen die zahlreichen künstlerischen Möglichkeiten, Motivteile im Querformat nebeneinander in Beziehung zu setzen. Im Fall von großen Bildschirmen oder Leinwänden nutzt das Querformat zudem das menschliche Sichtfeld besser aus. Man kann aber auch die gestalterischen Aspekte ignorieren und stattdessen ganz technisch vom Wiedergabemedium aus denken: Smartphones und Tablets kann man nach Bedarf ins Hoch- oder Querformat drehen; schon deshalb ist es unverständlich, warum Leute auf die Idee kommen, für mobile Geräte müsse man jetzt alles im Hochformat machen. Wer vor dem Fernseher oder vor einem konventionellen Computer sitzt, hat diese Wahl nicht. Daher sollten Bilder und Videos, die vielleicht auch mal auf Fernsehgeräten gezeigt werden, immer Querformat haben. So reizt man die Bildqualität besser aus und spart sich hässliche Formatanpassungen.
Der Großteil der unpassenden Hochformatfotografie und -filmerei resultiert nicht aus einer bewussten künstlerischen Entscheidung. Sie ist manchmal das Ergebnis von fragwürdigen Vorgaben, noch häufiger aber von bloßer Gedankenlosigkeit. In früheren Zeiten musste man unbeholfene Kamerabesitzer gelegentlich daran erinnern, dass sie auch im Hochformat fotografieren können. Heute ist es an der Zeit, den Leuten wieder das Querformat ins Gedächtnis zu rufen.
Erstellt am 25. Juni 2024
Als man noch auf Negativ- oder Diafilm fotografierte, war das Abblenden zur Steigerung von Schärfe und Schärfentiefe sehr verbreitet. Es kursierte die Grundregel: „Sonne lacht, Blende acht.“ Für Landschaftsfotografie vom Stativ aus sowie in der Studiofotografie mit starken Blitzgeräten war selbst Blende 16 üblich – nicht zuletzt, um den Ausschuss aufgrund von Fehlfokussierungen zu reduzieren. Bewusst mit Offenblende fotografierte man vielleicht mal ausnahmsweise für ein freigestelltes Porträt oder eine freigestellte Blume. Ansonsten kamen große Blendenöffnungen nur dann zum Einsatz, wenn das Licht knapp war und man keine andere Wahl hatte. Der daraus resultierende Look mit sehr knapper Schärfentiefe und weiten unscharfen Bildbereichen war überhaupt nicht gewollt, sondern ergab sich aus den technischen Beschränkungen.
Dank moderner, rauscharmer
Bildsensoren kommt man heute eigentlich auch mit lichtschwachen Objektiven aus. Dennoch erfreuen sich
lichtstarke Festbrennweiten einer
größeren Beliebtheit als je zuvor. Denn eine
knappe Schärfentiefe und der „Available-Light-Look“ gelten heute unter Foto-Enthusiasten als etwas
besonders Schönes und Erstrebenswertes.
Wenn dieser spezielle Effekt mal nicht gewollt ist, wird trotzdem nicht
mehr weiter
abgeblendet als unbedingt nötig. Denn hochauflösende
Sensoren zeigen schon sehr früh eine Unschärfe durch Lichtbeugung an den
Blendenlamellen. Mit einem guten Objektiv wird selbst an einer „Vollformat“-Kamera das Schärfe-Maximum in Bildmitte zwischen Blende 4
und 5,6 erreicht. Schon bei Blende 8 sieht man im Vergleich einen
leichten Rückgang der Schärfe, mit Blende 11 noch mehr. Einen Blendewert
von 16 oder höher zu verwenden, erscheint dann aus technischer Sicht völlig
unverantwortlich. Man hat ja nicht in die teure Zig-Megapixel-Kamera
investiert, um sich die Schärfe jetzt durch eine ungünstige Wahl der
Blende zunichte machen zu lassen. (Alles bisher Gesagte gilt übrigens
für Sensoren in 24 x 36 mm Größe. Hat die Kamera einen kleineren
Sensor mit entsprechend höherer Pixeldichte, greift die Beugung sogar
noch entsprechend früher.)
Nun stellt sich die Frage, ob dieser pauschale Ansatz nicht etwas zu
kurz gedacht ist und es nicht manchmal auch gute Argumente für ein
stärkeres Abblenden geben kann.
Das gestalterische Ideal, so wenig
Schärfentiefe wie möglich anzustreben, ist von vornherein subjektiv. Fragt
man Menschen außerhalb der Fototechnik-Welt, ist ihnen zwar ein Porträt
mit freigestelltem Hintergrund willkommen, aber nicht unbedingt die
knappe Schärfentiefe innerhalb des Hauptmotivs. Wenn nur
noch die Augen scharf sind und die Nasenspitze bereits im Unscharfen verschwimmt,
finden das die meisten Betrachter nicht mehr so schön. Das spricht dafür,
gerade im Nahbereich eben nicht mehr mit Offenblende zu
arbeiten, sondern wenigstens auf 5,6 oder 8 abzublenden. Einen halbwegs
unscharfen Hintergrund kriegt man ja auch, indem man eine deutlich längere Brennweite
benutzt und genug Abstand zum Hintergrund hält. Blende 1,2 oder 1,4 lassen
sich dafür an anderer Stelle sinnvoll verwenden. So kann man damit z. B.
auf Ganzkörperfotos noch ein bisschen
Hintergrundunschärfe bekommen, ohne dafür mit langer Brennweite aus großer
Entfernung fotografieren zu müssen.
Vielleicht muss man sich endlich
auch wieder von der Idee
lösen, jedes einzelne Porträt müsse auf Teufel komm raus freigestellt sein. Es gibt ganz
unterschiedliche Porträt-Konzepte. Wenn man etwa eine Person in ihrer
Arbeitsumgebung, im Zentrum einer Stadt oder einem anderen typischen
Umfeld fotografiert, kann eine große Schärfentiefe das Mittel der Wahl
sein. Die Umgebung vor und hinter der Person ist dann ja Teil der
Bildidee und sollte dementsprechend gut und detailliert zu erkennen
sein. Wenn dazu im Einzelfall mal Blende 16 oder 22 nötig ist, sollte
man diese ruhig auch benutzen und technische Bedenken hintanstellen.
Dasselbe gilt, wenn gleich mehrere Personen in verschiedenen
Entfernungen zur Kamera stehen und keine davon durch Unschärfe
benachteiligt werden soll.
Werden keine Menschen fotografiert,
sondern z. B. Räume oder Produkte, ist der Bedarf an Schärfentiefe
häufig noch offensichtlicher. Wer Produktfotos für Webshops oder
Kataloge erstellt, will in der Regel das Produkt von vorn bis hinten
scharf sehen (von besonderen, eher auf Stimmung hin geplanten
Bildkonzepten mal abgesehen). Besonders beim
Fotografieren kleinerer
Gegenstände hat man einen ständigen Kampf mit der begrenzten
Schärfentiefe. Auch hier ist radikales
Abblenden das Mittel der Wahl.
Bleibt die bange Frage nach der Bildqualität. Dass man mit starkem
Abblenden das Qualitätsoptimum verfehlt, steht ja außer Frage; eine
simple Blendenreihe macht dies sichtbar. Man befindet sich
daher in einer Situation, wo man sich zwischen verschiedenen Übeln
entscheiden muss – in diesem Fall zwischen einer nicht ganz optimalen
Schärfe im Bereich der Fokusebene und zu schnell abfallender Schärfe
außerhalb der Fokusebene.
Je nachdem, wie die Bilder hinterher
genutzt werden, sind die Beugungsunschärfen oft gar nicht mehr zu sehen.
Etwa in einem Webshop ist die Auflösung der Bilder stark begrenzt.
Statt 24 oder 45 Megapixeln werden die Bilder höchstens in 2 oder 3
Megapixeln Größe eingebunden. Da sieht man einfach keine relevante Beugungsunschärfe
mehr. Dasselbe gilt sinngemäß auch für kleinere Drucke. Statt nach
Unschärfen auf Pixelebene zu suchen, kann es daher heilsam sein, sich
die Bilder im Endformat anzuschauen.
Außerdem wird oft vergessen,
dass es in der normalen Präsentation keinen Direktvergleich zweier
Bildversionen gibt. Von daher kann man Bilder trotz leichter
Beugungsunschärfen ruhig auch in größerem Format präsentieren. Wenn die
Betrachter nicht wissen, dass eine andere Blende noch einen Tick mehr
Schärfe ermöglicht hätte, werden sie diese höhere Schärfe nicht
vermissen. Was sie allerdings durchaus sehen können, ist Ungleichmäßigkeit
der Schärfe aufgrund einer zu großen Blendenöffnung. Die „ideale Blende“
sorgt zwar für optimale Schärfe in Bildmitte, aber zu den Ecken hin kann
die Schärfe schon wieder etwas abfallen. Das ist quasi ein
Direktvergleich innerhalb desselben Bildes. Für Motive mit vielen
Details bis zum Rand ist es oft besser, man hat dank Abblendung eine
etwas niedrigere – aber dafür gleichmäßigere – Schärfe über das gesamte
Bildfeld von der Mitte bis zu den Ecken. Als technisch orientierter
Fotograf muss man dazu natürlich seinen „inneren Pixelpeeper“
überwinden.
Erstellt am 25. Juni 2024
Jedes digitale Kamerasystem, egal ob DSLM oder DSLR, hat eine maximale Sensordiagonale. Der Hersteller darf den Sensor in einem neuen Kameramodell nicht plötzlich größer machen, weil dann der Bildkreis mancher vorhandener Objektive das Bild nicht mehr ganz ausleuchten würde.
Allerdings gehört zu jedem System auch immer ein scheinbar festes Sensor-Seitenverhältnis – obwohl es für diese Festlegung keinen technischen Grund gibt. So haben praktisch alle heutigen "Vollformat“-Kameras ein Seitenverhältnis von 3:2 und alle mFT-Kameras ein Seitenverhältnis von 4:3. Dabei würde es völlig ausreichen, wenn die Diagonale des Sensors zum System passt. Das Seitenverhältnis könnte der Hersteller für jedes Kameramodell anders festlegen, um es an die Bedürfnisse ganz verschiedener Nutzergruppen anzupassen. Es gibt ja unterschiedliche Fotografen, die z. B. das 3:2-Format, das 4:3-Format oder auch ein quadratisches 1:1-Format bevorzugen. Es gibt Videografen, die hauptsächlich in 4:3 filmen oder in 16:9 oder in einem der breiteren Kino-Seitenverhältnisse. Man kann natürlich alle diese Formate mit heutigen Kameras aufnehmen, indem man die Sensorfläche entsprechend beschneidet (direkt per Kameraeinstellung oder später in der Nachbearbeitung). Aber solche Crops bringen stets einen Verlust an nutzbarem Weitwinkel und einen Verlust an Bildqualität mit sich. Es wäre viel eleganter, wenn der Kamerasensor gleich das richtige Format für den geplanten Zweck hätte.
So richtig festgeschrieben sind die Seitenverhältnisse der Systeme
nicht. Das "Vollformat“ und das "APS-C-Format“ haben sich aus der
filmbasierten Fotografie ergeben und sind in der digitalen Welt keine
offiziellen Standards. Für das Micro-Four-Thirds-Format existiert zwar
ein Whitepaper, aber darin wird nur ein Bildkreis definiert – kein
bestimmtes Seitenverhältnis. (Der Name des mFT-Systems bezieht sich
nicht aufs Seitenverhältnis, sondern leitet sich etwas umständlich von
den Durchmessern alter Kameraröhren ab.)
Die Hersteller könnten z. B.
für Liebhaber des Quadratformates eine Kamera mit einem Sensor der Größe
30,6 x 30,6 mm auf den Markt bringen. Vorhandene "Vollformat“-Objektive
würden das Format problemlos bedienen, weil es innerhalb desselben
Bildkreises liegt wie die klassischen 24 x 36 mm. Damit hätte man
gegenüber einem auf 24 x 24 mm beschnittenen Sensor immerhin 62 % mehr
nutzbare Fläche zur Verfügung.
Genauso gibt es keinen Grund, warum
eine Micro-Four-Thirds-Kamera nicht auch mal einen Sensor im
3:2-Seitenverhältnis mit 25,46 x 16,97 mm Größe haben sollte – wie es
von Anwendern immer mal wieder gewünscht wird.
Die einzige praktische Umsetzung dieser Überlegung findet sich bisher in Form der (seltenen) Multiformat-Sensoren, die ein bisschen Übergröße haben und für jedes Seitenverhältnis nur den Ausschnitt mit der maximal zulässigen Diagonalen nutzen. Sensorformate, die gleich an bestimmte Zwecke oder Vorlieben angepasst wären, verbaut bisher niemand. Das könnte damit zu tun haben, dass es nur wenige Kamerasensor-Hersteller gibt – und dass für eine Vielzahl von Kameramodellen aus Effizienzgründen nur ganz wenige unterschiedliche Sensormodelle zur Verfügung stehen. Die Kamerahersteller können sich Größe und Format ihrer Sensoren also nicht frei aussuchen – schon gar nicht im unteren Preissegment. Aber vielleicht wagt sich wenigstens mal ein Hersteller von "Edelkameras“ an das Thema heran.
Erstellt am 13. Oktober 2022
Dass Leser von Internetseiten zuerst auf die Bilder schauen und erst dann auf den Text, ist wahrnehmungspsychologisch kaum zu bestreiten. So ähnlich trifft das natürlich auch auf Zeitungsartikel und sogar auf Hintergrundbilder in Nachrichtensendungen zu. Wer Aufmerksamkeit für Inhalte sucht, arbeitet deshalb gern mit unterstützenden Fotos – selbst wenn zur Meldung gar kein authentisches Bildmaterial verfügbar ist. Bevor man die reservierte Fläche einfach leer lässt, benutzt man lieber ein Symbolbild.
Es gibt die ganz typischen Symbolfotos, die man auch gleich als solche erkennt, etwa den Stempel mit der Aufschrift "Fristverlängerung“ zum Ratgeber-Artikel über die Steuererklärung. Oder das Dach-Display eines Polizeiautos mit der angezeigten Schrift "Unfall“. Oder das obligatorische Bündel Dollar-Banknoten zum Bericht über die Finanzkrise in den USA. Oder gar Klassiker wie den lächelnden Arzt mit Stethoskop; der darf zu allem herhalten, was im allerweitesten Sinne mit Medizin zu tun hat. Der Informationsgehalt solcher Fotos ist Null, aber sie erregen immerhin eine minimale Aufmerksamkeit und richten keinen Schaden an. Das reicht schon.
Manchmal allerdings erkennt man Symbolfotos erst daran, dass ganz klein das Wort "Symbolfoto“ drunter steht. Und da wird es schwierig, denn nicht jeder Leser liest das Kleingedruckte. Wenn eine Meldung zu einem regionalen Verkehrsunfall mit dem Symbolfoto eines Notarzts bebildert wird, der Abgebildete aber nicht beim aktuellen Unfall im Einsatz war, kann das Verwirrung unter den Unfallbeteiligten stiften. Wenn die Meldung über öffentliche Toiletten mit dem Symbolfoto eines Klohäuschens illustriert wird, aber dieses in einer völlig anderen Stadt steht, fühlen sich die Leser getäuscht oder glauben gar an ein Versehen. Wenn zum Artikel über die jüngsten Ergebnisse der Krebsforschung eine Gruppe gut gestylter Labormitarbeiter-Models gezeigt wird, die mit dem tatsächlichen Forschungsteam nicht das Geringste zu tun haben, ist das schon beinahe unverschämt. Aber es wird genau so gemacht, Tag für Tag. Manche Leser regen sich in Leserbriefen darüber auf, wenn es allzu dreist ist. Erschreckend viele Leute merken es gar nicht – auch weil sie nicht damit rechnen.
Man mag sich fragen, wo die ganzen Symbolbilder plötzlich herkommen. In
manchen Fällen handelt es sich vielleicht um überzählige Fotos, die der
Hausfotograf mal bei anderer Gelegeneit geknipst hat. Die weitaus
meisten stammen aber von sogenannten Stockfoto-Agenturen. Es
würde ja gar nicht lohnen, wenn die Redaktionen alle ihre Symbolfotos selber
aufnehmen müssten. Solange die Agentur bereits zu jedem aktuellen Thema eine Auswahl von Symbolbildern liefern kann, muss man als Redakteur nicht mehr lang nachdenken – was auch die häufig
so unüberlegte Wahl erklärt.
Ohne das lukrative Symbolfoto-Geschäft
wäre so mancher Berufsfotograf, dem die Porträt- und Hochzeits-Kundschaft
weggebrochen ist, längst pleite. Man kann sich ausmalen, wie die
erfolgreichen Stockfotografen jeden Trend riechen, um dann stets zu den Ersten zu gehören, die
passendes Bildmaterial einstellen. Symbolfotos werden in Serie
produziert, damit sich der Aufwand lohnt – nicht zuletzt, wenn Models
tageweise gebucht werden. Dass dann derselbe ältere Herr mit
gebückter Körperhaltung in einer Zeitung das Thema "Einsamkeit im Alter“
illustriert und
in einer anderen Zeitung für die Überschrift "Diarrhö durch Fallobst“ herhalten
muss, stört offenbar niemanden.
Erstellt am 19. Januar 2022
Wenn die Technik irgendwas Neues hervorbringt, braucht es einen Namen. Und manchmal muss gleichzeitig auch das Alte benannt werden, damit man es vom Neuen abgrenzen kann. Solche Namensgebungen laufen nicht immer überlegt und logisch ab, sondern entstehen im allgemeinen Sprachgebrauch. Ein schönes Beispiel dafür ist die "analoge Fotografie“. Die damit bezeichnete Technik existiert zwar schon seit weit über hundert Jahren, aber der spezielle Begriff entstand erst um die Jahrtausendwende in Reaktion auf die Einführung der digitalen Fotografie. Irgendwie musste man die Dinger halt unterscheiden. Darüber, ob die Wortwahl "analog“ hier so glücklich war, kann man allerdings streiten.
In der Technik kennzeichnen die Begriffe "analog“ und "digital“ meist elektrische Signalarten und Speicherverfahren. Etwa eine Schallplatte ist ein analoges Medium, weil sie Tonfrequenzen direkt in Form von Rillentiefen speichert und beim Abspielen daraus ohne Umweg wieder hörbare Töne macht. Dagegen die Compact Disc ist ein digitales Medium, weil hier die analogen Tonsignale zuerst von einem AD-Wandler in ein digitales Raster überführt und als "Nullen und Einsen“ auf der CD gespeichert werden; zum Abspielen muss man aus dem Datenstrom per DA-Wandler wieder analoge Tonsignale machen.
Dass auch die digitale Fotografie ein digitales Verfahren ist, steht ja außer Zweifel: Bildinhalte werden hier in ein feines Schachbrettmuster von Pixeln unterteilt, für die jeweils Farb- und Helligkeitswerte als binäre Zahlen gespeichert werden können. Aber was soll an der analogen Fotografie eigentlich analog sein? Es handelt sich ja gar nicht um ein elektrisches Speicherverfahren, sondern um ein chemisches. Es gibt keine elektrischen Signale, die irgendwo analog aufgezeichnet und wiedergegeben werden könnten. Sollten wir da nicht eher von "chemischer Fotografie“ oder schlicht von "Film-Fotografie“ sprechen?
Im Grunde hat die Standbild-Fotografie einen ganzen Entwicklungsschritt übersprungen, nämlich den analog-elektrischen. Beim Bewegtbild war das anders: Zwischen dem chemischen (Kino-)Film und den heutigen digitalen Videosystemen gab es auch noch analoges Fernsehen und Video. Das war ein recht komplexes Verfahren, das Bilder in eine feste Zahl von Bildzeilen (nicht jedoch in einzelne Pixel) einteilte und die Inhalte der jeweiligen Zeilen als analoge Signale transportieren und speichern konnte. Einzelne analog-elektrische Kameras gab es zwar auch mal für stehende Fotos, aber das waren letztlich nur Abwandlungen der damaligen Videotechnik. Ein wirklich eigenständiges analog-elektrisches Verfahren für Fotos, das dann auch eine höhere Detailauflösung als die damaligen Videosysteme gehabt hätte, kam nie auf den Markt. In unseren Alltag eingezogen ist die elektronische Standbildspeicherung erst zu einer Zeit, als man die Bilder bereits digital speichern konnte (zunächst auf Disketten und Festplatten, später dann auf Speicherkarten).
Eine "analoge Fotografie“ im eigentlichen Sinne hat es also nie gegeben. Wir sind direkt von der chemischen zur digitalen Fotografie übergegangen. Warum sich für die alte Film-Fotografie trotzdem die Bezeichnung "analog“ durchgesetzt hat, ist nur noch schwer nachzuvollziehen. Es blieb ja nicht mal bei der allgemeinen Bezeichnung des Systems und der Kameras; teilweise liest man heute noch absurdere Unterbegriffe wie "analoge Objektive“ oder "analoge Blitzgeräte“.
Erstellt am 03. Januar 2022
Für Fotos und andere Pixelgrafiken auf Internetseiten gibt es nur drei etablierte Dateiformate: JPEG, GIF und PNG. Alle drei haben Vor- und Nachteile, so dass bisher keines davon entbehrlich ist. Für alles, was im weitesten Sinne als Foto gilt, eignet sich JPEG (das ja auch außerhalb des Internets große Verbreitung hat). Die Kompression von JPEG ist aber nicht sehr effektiv und für Grafik mit glatten Kanten ungeeignet. Das GIF-Format wird gern für einfache Animationen genutzt, eignet sich aufgrund der begrenzten Zahl von Farbabstufungen aber nicht gut für Fotos. PNG kommt zum Einsatz, wenn Transparenz gebraucht wird oder wenn es eher um glatte Grafiken als um Fotos geht. Mit PNG bekommt man aber nur verlustfreie Kompression und daher oft unnötig große Dateien.
Nun gibt es mit WebP ein neues Format, das speziell für Webseiten optimiert ist (weniger für andere Anwendungen) und vielleicht das Zeug dazu hat, die drei herkömmlichen Formate im Internet abzulösen. Die Kompression von WebP ist je nach Bildinhalt etwa 30 % effektiver als die von JPEG, so dass die Dateien bei gleicher Qualität etwas kleiner werden können. Diese 30 % sind in der Praxis von eher geringer Bedeutung, weil die wenigsten Webdesigner sich in Sachen Bildqualität so exakt an die Grenzen herantasten. Allerdings hat WebP noch weitere Vorzüge, die es interessant machen. So wird in WebP Transparenz unterstützt – und zwar im Gegensatz zu PNG auch mit verlustbehafteter Kompression und somit datensparend. (Transparenz braucht man z. B. für Bildelemente, die nicht exakt Rechteck-Form haben sollen.) Außerdem kann man mit WebP einfache Animationen erstellen, die im Gegensatz zu GIF nicht an stufigen Farbübergängen leiden. Die Möglichkeit einer verlustfreien Kompression bietet WebP auch – womit es für Strichgrafiken und Grafiken mit harten Farbkanten mindestens so gut geeignet ist wie PNG. Im Idealfall könnte WebP also eines Tages JPEG, GIF und PNG für Bilder auf Internetseiten komplett ersetzen. Die Dateigrößen und somit Ladezeiten im Netz würden damit sinken. Am deutlichsten wären die Einsparungen in Verbindung mit Transparenzen, die man ja bisher nur mit relativ datenintensiven PNG-Dateien umsetzen kann (die jämmerliche 1-Bit-Transparenz von GIF mal ausgeklammert).
WebP wurde maßgeblich von Google entwickelt, allerdings unter
eine freie Lizenz gestellt. Dadurch stellt die Integration des
WebP-Formates für Softwarehersteller keine große Hürde dar. Viele
aktuelle Bildbearbeitungsprogramme können das WebP-Format von sich aus exportieren. Für andere gibt es kostenlose PlugIns.
Eigentlich gibt es das WebP-Format schon seit über zehn Jahren. Richtig
interessant geworden ist es aber erst durch steigende
Browserunterstützung. Google hat WebP in seinen Chromium-Code
integriert, auf dem z. B. Chrome, Opera und neuere Versionen von
Microsoft Edge aufbauen. Auch die meisten Browser unter Android sowie aktuelle Versionen von Mozilla Firefox
können WebP darstellen. Zumindest die jüngsten Versionen von Apple
Safari beherrschen WebP nun ebenfalls.
Heißt das, WebP kann ab sofort bedenkenlos statt JPEG, GIF und PNG auf Webseiten verwendet werden?
Leider dann doch nicht.
Längst nicht jeder Internetnutzer verwendet
aktuelle Browser. Wer noch irgendeine Version des Internet
Explorer, eine ältere Version von Edge oder eine ältere Version von
Firefox als Standardbrowser hat, kann keine WebP-Bilder sehen. Edge
gibt es erst gar nicht für ältere Windows-Versionen. Genauso läuft
die neueste Version von Apple Safari
nur auf relativ neuen
macOS- bzw. iOS-Versionen, die ihrerseits nicht auf älterer Hardware
installierbar sind. Laut einer weltweiten Statistik von Ende 2020 sollen
rund 20 % der Internetnutzer noch kein WebP dargestellt bekommen. (Unter
den Lesern von fotovideotec-blog.de sind es 23 % – Stand März 2021.) In
einzelnen Browsern kann auch eine unvollständige Unterstützung von WebP
gegeben sein, so dass dort nur einfache WebP-Bilder ohne Transparenzen
und ohne Animation funktionieren. Anhand der folgenden Testbilder kann
man sehen, was im eigenen Browser geht und was nicht:
Unter Webdesignern kursiert das Gerücht, man könne das Google-Ranking
einer Seite etwas verbessern, indem man alle Bilder im WebP-Format
anbietet. Ob das pauschal stimmt, vermag ich nicht zu sagen. Auf jeden Fall gibt
es heute schon Webseiten, die in großem Stil WebP als Ersatz für JPEG
verwenden. Das sind dann meist kommerzielle Seiten, die komplexe
Fallback-Lösungen (Browserweichen) integriert haben und
daher ein neues Format nicht scheuen müssen.
Für private Webseiten
würde ich WebP vorerst nur an den Stellen nutzen, wo es handfeste
Vorteile hat (z. B. größere Bilder mit Transparenzen). Dafür kann man
sich dann jeweils eine simple Fallback-Lösung mittels "picture“-Element
in HTML basteln. Eine
allgemeine Verwendung von WebP im Webdesign finde ich derzeit noch nicht lohnend.
In
einigen Jahren, wenn durch Upgrades und Ausmusterung veralteter Geräte die
Fallback-Lösungen entbehrlich werden, mag die Situation
anders aussehen. Die Zeit arbeitet für das neue Format.
Erstellt am 12. Februar 2021
Statistik
ergänzt am 04. April 2021
Fachbegriffe werden manchmal sinnentstellend abgekürzt. Mit der Zeit kann dasselbe Wort je nach Fachgebiet eine andere Bedeutung annehmen. Ein gutes Beispiel aus den letzten Jahren ist der Begriff "Gimbal“, der sowohl unter Naturfotografen als auch unter Videofilmern häufig fällt. Allerdings meinen die beiden Gruppen damit unterschiedliche Sachen.
Laut Lexikon ist Gimbal ein englisches Wort, das sich mit "Kardanische Aufhängung“ ins Deutsche übersetzen lässt. Man versteht darunter die Kombination von zwei Drehgelenken, die sich im rechten Winkel überschneiden. Angewendet wird dieses Prinzip an Stellen, wo man ein Objekt in alle Richtungen drehen können soll. Auch die beiden heute als "Gimbal“ bezeichneten Geräte aus dem Foto- bzw. Videobereich arbeiten auf dieser konstruktiven Grundlage – allerdings mit unterschiedlichem Ziel.
Aus der Fototechnik kennt man schon länger den "Gimbal-Kopf“, der manchmal auch als "Gimbal-Neiger“ oder eben kurz als "Gimbal“ bezeichnet wird. Das ist ein spezieller Stativkopf, der rein mechanisch funktioniert. Vorteilhaft ist ein Gimbal-Kopf insbesondere, wenn man ein schweres Teleobjektiv verwendet. Die Besonderheit des Gimbal-Kopfes gegenüber Kugelköpfen oder herkömmlichen Neigern besteht darin, dass man die Kamera ausbalancieren und dann in ihrem eigenen Schwerpunkt neigen kann. So kann man die Kamera in jeder Position loslassen und sie kippt nicht mehr nach vorn oder hinten runter. Zudem wird ein ungewolltes seitliches Verkippen der Kamera verhindert. Sehr beliebt sind Gimbal-Köpfe unter Naturfotografen, die Wildtiere auf der Jagd oder Vögel im Flug fotografieren müssen.
In der Videotechnik heute gern benutzt werden "Gimbal-Stabilisierungssysteme“. Die meisten Filmer sagen dazu nur "Gimbal“. In HerstellerBeschreibungen taucht noch der genauere Begriff "Brushless Gimbal Stabilizer“ auf – in Anspielung auf die bürstenlosen Elektromotoren, die in solchen Geräten verbaut sind. Anders als ein mechanischer Gimbal-Kopf für Fotografen ist ein Gimbal-Stabilisierungssystem für Videofilmer ein sehr raffiniertes elektronisches Gerät: Mit Hilfe eines Gyro-Sensors werden Wackelbewegungen in mehreren Achsen ermittelt und über die Motoren nahezu vollständig kompensiert. Das ermöglicht geschmeidige Kamerabewegungen aus der freien Hand (ähnlich wie mit mechanischen Steadycams, aber viel flexibler und mit weniger Übungsaufwand). Auch die stabilen Drohnenvideos, die heute allgegenwärtig sind, verdanken wir dem Prinzip der Gimbal-Stabilisierung.
Der Begriff "Gimbal“ ist nun in der Foto- und Videoszene doppelt belegt. Das ist nicht optimal, aber wird sich vermutlich auch nicht mehr ändern. Wir müssen einfach schauen, wie wir damit umgehen, wenn es in Fachgesprächen zu Missverständnissen kommt. Wer über die Doppeldeutigkeit des Wortes informiert ist, kann vermittelnd eingreifen.
Erstellt am 07. Februar 2021
Auch wenn nicht jeder Fotograf oder Filmer eines benutzt, ist das Stativ für viele Anwender doch immer noch elementar wichtig. Nicht umsonst findet man seitenlange Forendiskussionen zur Schwingungsanfälligkeit von Stativbeinen und zur Geschmeidigkeit von Stativköpfen. Umso erstaunlicher ist, dass die Platzierung des Stativgewindes am Kameraboden nur selten thematisiert wird – obwohl es hier je nach Hersteller und Modell zu erheblichen Defiziten kommen kann. Die Position des Stativgewindes steht auf der Prioritätenliste der Kamerakonstrukteure wohl ziemlich weit unten. Es wird immer irgendwo eingebaut, wo am Kameraboden noch Platz ist – selbst wenn diese Stelle für die praktische Anwendung klare Nachteile mit sich bringt.
Ein ideales Stativgewinde befindet sich mittig im Boden der Kamera (oder zumindest so, dass der Kameraboden in allen vier Richtungen noch wenigstens 2 cm Auflagefläche lässt). Der umgebende Kameraboden sollte möglichst hart und das Stativgewinde fest darin verankert sein. Durch das Festschrauben einer ausreichend dimensionierten Stativplatte sollten keine Akku- oder Speicherkartenfächer verdeckt werden. Die Stativplatte sollte auch nicht vorn mit einem dicken Objektiv oder hinten mit dem Klappdisplay kollidieren können.
Kameras mit ideal platzierten
Stativgewinden sind selten. Wenn man Glück hat, bestehen nur
kleinere Einschränkungen – etwa eine unnötige Gummierung des Bodens (die
zusammen mit dem Gummi einer Stativplatte die Auflage schwammig macht)
oder eine etwas reduzierte Auflagefläche in einer der Richtungen
(wodurch gummierte Stativplatten nach dem Anziehen etwas schief sitzen).
Auch eine Position etwas links oder rechts von der Objektivachse
ist nicht ideal, aber für die meisten Anwendungsbereiche verkraftbar.
Ärgerlich wird es, wenn das
Stativgewinde zu nah am Akkufach-Deckel liegt. Dann muss man die Stativplatte jedesmal
für den Akkuwechsel abschrauben. Besonders an Kompaktkameras mit
kleiner Bodenfläche sieht man das sehr häufig, aber auch einige größere Bridge-
und Systemkameras sind betroffen.
Noch übler sind Stativgewinde, die ganz weit vorn
oder hinten am Rand des Bodens eingebaut wurden. Die Stativplatte hat
dann in einer Richtung gar keine Auflagefläche; die Schraube kann nur
ziemlich schief und
mit stark verminderter Festigkeit angezogen werden. Befindet sich das
Stativgewinde am hinteren Rand, wird die Stativplatte hinten überstehen
und kann ein dort befindliches Klappdisplay
behindern. Befindet sich das Stativgewinde am vorderen Rand, wird sich die Kamera bei
Verwendung schwererer Objektive nach vorn biegen – denn es gibt ja
im vorderen Bereich keine Auflagefläche, die das Gewicht aufnimmt.
Ein dämlich platziertes Stativgewinde macht ein Kameramodell nicht
gleich komplett untauglich für die Nutzung auf dem Stativ. Je nach
Anspruch und Anwendungsbereich kann man sich mit der suboptimalen
Stabilität und/oder dem eingeschränkten Bedienkomfort abfinden.
Will
man das nicht, gibt es Abhilfe in Form von Zubehör. Es gibt
Arca-kompatible Stativplatten in unterschiedlichen Größen, die mehrere
Löcher für die Stativschraube haben und sich damit asymmetrisch
befestigen lassen. Für verbreitete Kameras sind sogar "kameraspezifische“ Stativplatten und L-Winkel erhältlich, die bereits
alle Besonderheiten und Defizite des jeweiligen Kameramodells
berücksichtigen. Mit etwas Basteltalent kann man auch vorhandene
Stativplatten so modifizieren, dass die Probleme umgangen werden. Etwa
durch Versetzen der Schraubenposition oder Ausfräsen eines Teils der
Fläche kann man Akku- und Speicherkartenfächer wieder zugänglich machen.
Mit Hilfe von Powerknete kann man Zwischenteile formen, die sich
spielfrei an den Kameraboden anpassen und aus der beschränkten
Auflagefläche die bestmögliche Stabilität rausholen.
Trotzdem wäre schön, wenn all das nicht nötig wäre – also wenn bereits die Hersteller darauf achten würden, ihre Stativgewinde praxisgerecht zu platzieren. Solange sich nur einzelne Anwender damit auseinandersetzen, wird sich vermutlich nichts ändern. Ein hilfreicher Einstieg wäre vielleicht, wenn mehr Kameratester das Thema aufgreifen und es in ihren Artikeln und YouTube-Videos erwähnen.
Erstellt am 05. Februar 2021
Canon bringt zum spiegellosen R-System vermehrt Objektive auf den Mark, die man gemeinhin als "lichtschwach“ bezeichnen würde. Bereits ein Standardzoom mit Lichtstärke 4–7,1 ist ungewöhnlich, weil die obere Grenze für Wechselobjektive bisher stets bei Blende 6,3 lag. Auf die Spitze treiben es jedoch zwei Tele-Festbrennweiten, die es auf eine Offenblende von 11 bringen – was sich bei Verwendung des 2-fachen Telekonverters gar noch auf einen Wert von 22 verschlechtert.
Dass Canon jetzt auch so lichtschwache Objektive baut, könnte einen simplen Grund haben: weil sie es können. An Spiegelreflexkameras waren Objektive mit Lichtstärken jenseits der besagten 6,3 nicht mehr automatisch fokussierbar (egal, wieviel Licht zur Verfügung stand), da die feste Messbasis der Phasen-Autofokussensoren harte Grenzen setzte. Die spiegellosen Canons der R-Baureihe arbeiten nun mit einem sensorbasierten Dual-Pixel-Autofokus, dessen Messbasis flexibler ist. Laut Canon klappt die Autofokussierung mit der R5/R6 auch noch bei Blende 22, wenn man kleinere Einschränkungen (insbesondere den Verzicht auf randnahe Messfelder) in Kauf nimmt.
Die Meinungen in den einschlägigen Foren gehen auseinander. Wer z. B. im Studio gern mit knapper Schärfentiefe arbeitet, aber auf Reisen nicht so viel schleppen möchte, findet die Idee lichtschwacher Objektive durchaus charmant: Man kann an denselben Body sowohl schwere, lichtstarke als auch leichte, lichtschwache Objektive montieren und somit ohne Zweitsystem einen breiten Anwendungsbereich abdecken. Andere verweisen auf die die notwendigen hohen ISO-Werte sowie drohende Beugungsunschärfe bei Blende 22. Wer leichte Objektive will, so wird geglaubt, sollte lieber ein Kamerasystem mit kleinerem Sensor kaufen.
So ganz neu ist das Konzept der geringen Lichtstärke keineswegs. Wer noch die späte Zeit der analogen Fotografie erlebt hat, erinnert sich vielleicht: In den 1990er-Jahren gab es eine Reihe von Superzoom-Kompaktkameras für KB-Film (also "Vollformat“). Deren Brennweitenbereiche gingen meist bis 140 mm – und wir reden hier von echten 140 mm und nicht etwa von einem KB-Äquivalent. Um eine so lange Brennweite in ein leichtes Kameragehäuse zu bekommen, konstruierte man ein motorisch ausfahrendes Objektiv mit einer Offenblende von 11. Von Pentax gab es sogar ein Modell, das bis 200 mm bei Offenblende 16 ging – und das zu einer Zeit, als Negativfilm mit ISO 400 schon als hochempfindlich galt.
Vergleichen wir doch mal die lichtschwachen Objektive für das R-System mit den heute üblichen Objektiven im mFT-System (Cropfaktor 2). Für einen fairen Vergleich sollte man immer die vollständigen Äquivalenzwerte gegenüber dem KB-Format errechnen: Benutzt man an der mFT-Kamera z. B. 100 mm Brennweite bei Blende 5,6 und ISO 400, könnte man das nahezu gleiche Ergebnis auch an einer KB-Kamera mit 200 mm Brennweite, Blende 11 und ISO 1600 erzielen. Die äquivalente Brennweite sorgt für den gleichen Bildausschnitt, die äquivalente Blende sorgt für die gleiche Schärfentiefe, der äquivalente ISO-Wert sorgt für das (ungefähr) gleiche Rauschverhalten. Auch die Beugungsunschärfe verhält sich äquivalent: Wer an der mFT-Kamera keine Hemmung hat, Blende 11 zu verwenden, kann an der KB-Kamera ruhig Blende 22 verwenden.
Die vermeintlich lichtschwachen Objektive für das Canon-R-System dienen also
langfristig der Skalierbarkeit des Systems nach unten. Kamerasysteme mit
kleinerem Sensor könnten, wenn die Preisunterschiede der Sensoren mal keine
große Rolle mehr spielen, ihre
Daseinsberechtigung verlieren.
Bleibt abzuwarten, ob andere Kamerahersteller
wie Nikon oder Sony
nachziehen. Scheitern könnte es evtl. an deren anders aufgebauten
Autofokus-Systemen.
Erstellt am 03. Februar 2021
Neuere iPhones und iPads sowie einige Android-9-Geräte nehmen Fotos in einem neuen Format mit der Endung HEIC auf (das steht für HEIF mit HEVC-Kompression). Gegenüber dem veralteten JPEG-Format ermöglicht das HEIC-Format bei gleicher Qualität rund halb so große Dateien. Bisher werden HEIC-Dateien beim Export meist in JPEGs konvertiert, damit andere Programme und Geräte sie lesen können – aber damit gehen die technischen Vorteile von HEIC verloren. Schöner wäre, man könnte die HEIC-Bilder direkt verwenden und archivieren. Je mehr Smartphones mit HEIC-Bildformat auf den Markt kommen, desto wichtiger wird diese Möglichkeit.
Die Hersteller von Bildbearbeitungsprogrammen sind mit der direkten Unterstützung des HEIC-Formates noch zurückhaltend, weil sie dazu Lizenzen erwerben müssten. Ein zumindest teilweiser Ersatz ist die Integration direkt ins Betriebssystem. In macOS gibt es schon länger eine Unterstützung für das HEIC-Format; viele Programme unter macOS können das Format deshalb lesen. Inzwischen stellt Microsoft etwas Vergleichbares auch unter Windows 10 zur Verfügung. Man braucht dazu keine Software von externen Herstellern mehr.
Wer es schon mal ausprobieren möchte, aber noch keine eigenen HEIC-Dateien zur Hand hat, kann sich hier oder hier welche herunterladen.
Auf manchen Windows-10-Rechnern ist die HEIC-Unterstützung
bereits ohne Zutun des Benutzers aktiv. Wenn nicht, muss sie manuell eingerichtet
werden.
Damit es klappt, sollte
mindestens die System-Version 1903 installiert sein. Um die
Unterstützung für das HEIC-Format zu bekommen, müssen außerdem über den
‚Windows Store‘ zwei spezielle Apps installiert werden:
‚HEIF-Bilderweiterungen‘ und
‚HEVC-Videoerweiterungen vom Gerätehersteller‘.
Es genügen die
hier verlinkten kostenlosen Apps; für deren Download muss man nicht mal
im Windows Store angemeldet sein. Verwirrenderweise werden für HEVC und
HEIF/HEIC auch kostenpflichtige Apps angeboten, aber die sind unnötig.
Ist die HEIC-Unterstützung in Windows 10 fertig eingerichtet und der Rechner neu gestartet, bekommt man HEIC-Dateien im Explorer und auf dem Desktop mit Vorschaubildern angezeigt. Mit den systemeigenen Programmen ‚Fotos‘ und ‚Paint‘ kann man sie öffnen. Auch einige weitere Programme, die auf den sogenannten WIC-Treiber zugreifen (z. B. Microsoft Word, Affinity Photo, IrfanView), können dann HEIC-Dateien importieren.
Im Wesentlichen bieten die Windows-Apps also die Möglichkeit, HEIC-Fotos zu öffnen. Mit ‚Paint‘ kann man im HEIC-Format sogar speichern – allerdings ohne Einstellmöglichkeit für Dateigröße/Qualität. Um alle Vorteile des HEIC-Formates auch beim Speichern nutzen zu können, bräuchte man eben doch eine Software, die das HEIC-Format nativ unterstützt.
Erstellt am 07. Dezember 2019
Als Filmstudenten in den später 1990ern hatten wir kein Geld, um unsere Übungsfilme auf 35-mm-Film zu drehen. Video erfüllte zwar formal denselben Zweck, aber es konnte nicht mit dem Look edler Kinofilme mithalten. Daher waren wir ganz versessen auf alles, was unsere Filme optisch einem abgetasteten Kinofilm annäherte: Wir eliminierten in der Nachbearbeitung die Halbbilder, um ein dezentes Kino-Ruckeln zu bekommen. Die Perfektionisten unter uns verwendeten gar Fotoobjektive an Mattscheiben-Adaptern, um die geringe Schärfentiefe einer echten Filmkamera zu simulieren. Ob unser Publikum diese Bemühungen jemals zu schätzen wusste, ist unklar. Wir selber waren auf jeden Fall stolz drauf.
Noch vor zwanzig Jahren wurden Studiosendungen und Dokumentationen
mit Videokameras gedreht und hatten "Videolook“, Fernsehfilme und Spielfilme
waren auf Filmmaterial gedreht und hatten "Filmlook“. Heute gibt es
diese klare Zuordnung nicht mehr. Mit Aufkommen der videofähigen DSLRs
konnte plötzlich jeder Laie Filme drehen, die optisch den Kinofilmen auf DVD und
Blu-ray nahe kamen. Irgendwann wurde auch YouTube überschwemmt von
Videos mit "Filmlook“. Anfangs galt das für szenische Filme, später auch für auch jede Art von Familienfilmen, Vlogs und
Erklärvideos.
Digitale Kameras haben Produktionsprozesse verändert. Viele
Fernsehdokumentationen und sogar manche Studiosendungen werden
heute in 25 fps produziert. Gleichzeitig sind aber die neuen Fernsehgeräte
mit einer Bewegungsglättung ausgestattet, die das dezente Ruckeln beseitigt
und damit selbst Kinofilmen einen "Videolook“ verpasst. Als
Filmliebhaber mag man das schrecklich finden, aber die meisten anderen
Leute stören sich daran nicht. Wenn man ihnen zeigt, wie die
Filme im Original ohne Bewegungsglättung aussehen, erkennen sie darin
keinen Vorteil. Ebenso wenig verstehen sie, was an
einer extrem knappen Schärfentiefe besonders schön oder edel sein soll.
Sehgewohnheiten gelten nicht für die Ewigkeit. Es wächst immer wieder eine neue
Generation von Zuschauern nach, die ganz anders geprägt wird als die
Generationen davor. Und was man leicht übersieht: Einem ziemlich großen Teil der Zuschauer war das Thema Filmlook
auch früher schon egal.
Es gibt mit Lichtsetzung, Farbdesign und
Kontrastkurven auch heute viele künstlerische Einflussmöglichkeiten auf
den Look von hochwertigen Filmen. Jedoch die althergebrachte Kino-Framerate und
der "180 Grad Shutter“ vertragen sich nicht mehr mit
einer immer höheren Bildauflösung. Die heutigen 4k- und UHD-Auflösungen
lassen die technischen Defizite
immer stärker in den Vordergrund treten. Wenn das Bild
aufgrund knapper Schärfentiefe zum größten Teil verschwommen erscheint,
kann dies auf großen Bildschirmen ziemlich stören. Erst recht stört es,
wenn die Auflösung jedesmal sichtbar einbricht, sobald die Kamera zu schwenken
beginnt. Gefragt sind mehr Schärfentiefe und
kürzere Belichtungszeiten. Letztere führen aber zu einem starken Ruckeln, wenn
man nicht gleichzeitig auch die Framerate erhöht.
Für uns Filmer ist
das ein harter Einschnitt – denn ein großer Teil des Filmlooks, der
uns einst so wichtig war, ist damit futsch. Aber man kann einem
jungen Kinogänger nicht mehr plausibel erklären, worin der Vorteil
liegen soll, wenn das Bild auf der Kinoleinwand ruckelt und bei jeder
Bewegung unscharf wird – obwohl wir doch längst die Technologie haben, um es
besser zu machen. Irgendwann müssen auch wir "Älteren“ das einsehen.
Erstellt am 12. November 2019
An vielen digitalen Fotokameras ist die Länge einer einzelnen Videoaufnahmen auf 29 Minuten und 59 Sekunden begrenzt – manchmal sogar noch weniger. Das ist ärgerlich, wenn man längere Ereignisse (Theaterstücke, Konzerte, Karnevalsumzüge etc.) ohne Unterbrechung aufnehmen möchte. Nur die "echten“ Videokameras und einige wenige Fotokameras erlauben zeitlich unlimitiertes Video.
Ursprünglich hatten diese Begrenzungen vor allem zollrechtliche
Gründe. Nach den Zollregeln der Welthandelsorganisation werden
Videokameras anders eingestuft als digitale Fotokameras. Kameras, die
Videos von 30 Minuten Länge oder mehr aufnehmen können, gelten nach
WHO-Regeln als Videokameras. In Gebieten wie der EU, die für die Einfuhr
von Videokameras höhere Zollsätze erheben als für Fotokameras, wirkt
sich die Unterscheidung auf die Höhe des Zollsatzes aus.
Noch bis
Juni 2016 galt in der EU auf die meisten Videokameras ein Zollsatz von
4,9 Prozent, während digitale Fotokameras zollfrei waren. Um ihren
Kunden in der EU den Mehrpreis zu ersparen, limitierten die Hersteller
daher häufig die Video-Aufnahmedauer auf unter 30 Minuten. Inzwischen
ist allerdings ein neues WHO-Abkommen in Kraft, das nach und nach viele
elektronische Geräte – darunter auch Videokameras – zollfrei macht. Der
Zollsatz wurde bereits um mehrere Stufen gesenkt und beträgt seit dem 1.
Juli 2019 nur noch 1,6 %. Am 1. Juli 2020 sinkt er auf 0,8 % und ab 1.
Juli 2021 fällt er dann ganz weg. Für Herkunftsländer, mit denen die EU
weitergehende Abkommen geschlossen hat (z. B. Japan und Südkorea), ist
der Zollsatz für Videokameras bereits jetzt auf Null. Also spielt die
zollrechtliche Einstufung der Kameras inzwischen fast keine Rolle mehr.
Allerdings gibt es auch technische Gründe, die Aufnahmedauer zu
begrenzen. Je größer die Sensoren sind, je höher die Auflösungen und je
höher die Frameraten, desto stärker erwärmt sich der Sensor im
Videobetrieb. Fotokameras, die nicht über ausreichende Wärmeableitung
verfügen, können daher bei längerer Videoaufnahme überhitzen und müssen
sich abschalten. Manche Hersteller begrenzen die Dauer der Videoaufnahme
von vornherein; das können dann auch deutlich kürzere Werte als 30
Minuten sein.
Kameras, die trotz großem Sensor endlos aufnehmen
sollen, brauchen aufwendige Kühlsysteme und werden dadurch größer und
schwerer. Für Kunden, die gar keine langen Videoaufnahmen machen wollen,
ist das ein schlechter Kompromiss.
Auch wenn die zollrechtliche
Einstufung nicht mehr relevant ist, wird es daher auch
weiterhin Kameras mit begrenzter Aufnahmedauer geben.
Erstellt am 08. November 2019
Vor nicht so langer Zeit bin ich durch Zufall darüber gestolpert, dass Nikon gar keine AF-D-Objektive im Programm hat. Und auch noch nie hatte. Bis dahin hatte ich (und damit war ich nicht allein) das Kürzel AF-D häufig und ganz selbstverständlich in Forenbeiträgen benutzt: "Hast du die AF-S-Version oder die AF-D-Version?“ Nach etwas Recherche weiß ich heute, dass die Frage Unsinn ist.
Der Irrtum reicht wohl zurück in die 1990er-Jahre, als Nikon seine AF-Objektive um das D-Feature (Weitermeldung der Entfernungsinformation) bereicherte. Es gab also plötzlich neue Versionen mit dem ominösen D im Namen. Irgendjemand aus der Redaktion einer Fotozeitschrift kam dann wohl auf die Idee, die neuen Objektive als "AF-D“ zu bezeichnen - und dieses Kürzel hält sich seither hartnäckig im Sprachgebrauch von Nikon-Fotografen.
Eigentlich steht der Buchstabe D in der offiziellen
Nikon-Objektivbezeichnung nicht mit einem Bindestrich hinter "AF“,
sondern erst hinter der Angabe der Lichtstärke. Damals, bei Einführung des
D-Features, konnte das allen ziemlich egal sein. Aber inzwischen hat
Nikon tatsächlich einige Buchstaben mit Bindestrich hinter "AF“
eingeführt, und jetzt passt die
Kombination "AF-D“ überhaupt nicht mehr in die Gesamtlogik.
Es gibt
offiziell bei Nikon AF, AF-I, AF-S und AF-P. Die Buchstaben stehen
dabei jeweils für eine andere Art von Fokusmotor im Objektiv. Fehlt der Buchstabe hinter dem AF,
nutzt das Objektiv den AF-Motor im Kameragehäuse (gern auch als "Stangenantrieb“ bezeichnet).
Hinter der Lichtstärke-Zahl steht entweder
gar kein Buchstabe oder
D oder G oder E. Diese Buchstaben zeigen jeweils Stufen der
Objektiv-Evolution: An den frühen AF-Objektiven fehlte noch dieser
Buchstabe, D brachte die besagte Übermittlung der
Entfernungsinformation, an Objektiven mit G wurde der
mechanische Blendenring weggelassen, an Objektiven mit E wurde
die mechanische Übertragung der Blende durch eine
Elektronische ersetzt.
Ja, das klingt jetzt alles sehr nach Klugscheißerei. Ist es aber
nicht. Oder zumindest nicht nur.
Allzu oft wird heute suggeriert, der
Buchstabe D hätte etwas mit der Antriebsart zu tun, so als stünde "AF-D“
für Objektive ohne eigenen Fokusmotor. Das ist aber völliger Unsinn. Es
gibt ja auch viele ältere AF-Objektive ohne "D“ – und umgekehrt gibt es Nikon-Objektive, die
AF-S als Antriebsart und zusätzlich noch das D-Feature haben (z. B. das "AF-S
Nikkor 80-200mm 1:2.8 D“). Also ist es doppelt falsch, so zu tun, als
gebe es AF-D in Konkurrenz zu AF-S.
Das waren übrigens nur Beispiele. Es gibt noch mehr Überschneidungen
der Bezeichnungen:
AF-Objektive („Stangenantrieb“) gibt es ohne Buchstabe nach der Lichtstärke-Zahl oder mit D
oder mit G.
AF-I-Objektive gibt es nur mit D. AF-S-Objektive gibt es mit D, G
oder E. AF-P-Objektive gibt es mit G oder E.
Erstellt am 15. August 2019
Bearbeitet am 05.
Februar 2021