Pentax K-1 Erfahrungsbericht

Seinerzeit bekam ich von Pentax die K-7 zum Test. Und war sehr unzufrieden. Und das schrieb ich in meinem damaligen Blog öffentlich. Ich bekam dafür viel Kritik von etlichen Pentaxfanboys, die sich persönlich auf den Schlips getreten fühlten.

Und auch Pentax war wohl so unglücklich über die verschiedenen Blogartikel (nicht nur meine) dass sie bei den Nachfolgemodellen bei der Selektierung der Tester etwas genauer hingeschaut haben.

Wenn ich jetzt schreibe, dass Pentax es endlich geschafft hat die tollste Kleinbild-DSLR ever zu bauen, dann bekomme ich vermutlich wieder virtuell Haue von diversen Pentaxnutzern und Fotografen anderer Marken, die dann schreiben: „Das kann ja gar nicht sein! Und dieses oder jenes ist bei Canon, Nikon, Olympus oder Sony ja viel besser“.

Hmmm…wollen wir doch mal sehen ob ich meinen, für Aussenstehende vielleicht etwas übertrieben klingenden, Standpunkt nicht doch zumindest erklären kann ohne einen Flamewar auszulösen.

Ehre wem Ehre gebührt!

Nach vielen Jahren des vergeblichen Wartens ist Pentax endlich mit einer Kleinbild-DSLR im Markt. Und was für einer!

Nur zur Info: Ich schreibe diesen Artikel ohne dass ich von Pentax etwas dafür bekommen habe. So wie immer. Er reflektiert einfach meine Meinung. Ich habe meine K-1 Anfang Oktober 2016, also vor einem knappen Jahr, direkt und höchstselbst bei Ricoh im Onlineshop gekauft. Und seitdem benutze ich sie ständig. Sie macht Spaß.

Sie hat mich dazu gebracht meine komplette Nikon D750 Ausrüstung (inkl. dem hervorragenden AF-S 14-24/2,8 und dem AF-I 300/2,8 nebst Telekonverter!) zu verkaufen und zusätzlich zu den noch vorhandenen Pentaxlinsen zwei neue Objektive anzuschaffen: Ein DFA 28-105/3,5-5,6 als Kit und (etwas später) ein DFA 150-450/4,5-5,6.

Aber wie hat sie das gemacht?

  • Mit pfiffiger und dabei eigentlich völlig egaler LED Beleuchtung im SD-Kartenschacht und über dem Bajonett. Geekfaktor. Total cool. 😀
  • Mit einer neuartigen und ebenfalls eigentlich total egalen Klappdisplayaufhängung
  • Mit einem eingebauten Bildstabilisator, der gleichzeitig bei Bedarf jedes Objektiv zum Shift-Objektiv oder zum nachgeführten Sternebeobachtungsfernrohr macht. Oder der dazu benutzt werden kann um einen AA Filter zu simulieren, den Horizont gradezurücken oder die Farbtiefe des Bildes auf echtes RGB zu erhöhen. Sigma würde da von 3x36MP, also 108MP sprechen, aber das ist natürlich Unsinn. Es kommen ja nur 36MP grosse Dateien mit voller, echter RGB Farbinformation pro Pixel heraus.
  • Mit einer Gehäuseabdichtung, die mir bei der Segelfotografie und bei Schietwetter sehr gelegen kommt.
  • Mit einem Autofokus, der zwar noch nicht perfekt an den einer Nikon D500 oder D5 herankommt, der aber zumindest im Vergleich zu früheren Pentaxen deutlich (!) zugelegt hat, sodass man jetzt kein Bild mehr verpasst. Auch Fell ist inzwischen kein Thema mehr! Kein Pumpen und kein Nachdenken mehr. Endlich! Partytauglicher AF.
  • Mit dem wie üblich sehr durchdachten Userinterface – und für alles wichtige ein Knöpfchen.
  • Mit WLAN und einer gut funktionierenden App.
  • Mit dem eingebauten GPS.
  • Und mit all den anderen Kleinigkeiten die mittlerweile zum Standard geworden sind. Sowohl in Software als auch in der Hardwareausstattung.
  • Falls bei mir mal Bedarf da sein sollte gäbe es ein hervorragendes f/2,8 Zoom-Objektiv-Lineup
  • Die schönen Pentaxfarben und die JPG Qualität.
  • Ein richtig schöner, heller Prismensucher der alten Schule. Jetzt sogar mit LCD Overlay. Yeah!
  • und einer endlich zuverlässig funktionierenden Blitzsteuerung

Bei alledem ist die K-1 im direkten Vergleich (Nikon D800, D810, Canon 5DS, Sony A7R) unschlagbar günstig und portabel.

Obwohl die Kamera allein fast 1kg auf die Waage bringt ist das Ausrüstungsgesamtgewicht deutlich geringer.

Das liegt zum einen daran, dass man die Bildstabilisierung nicht in jedes Objektiv einbauen muss und zum anderen daran, dass es für Pentax eine ganze Menge kleiner, leichter Objektive gibt. Zum Beispiel die FA Limited Serie. Oder die FA und F Festbrennweiten mit Autofokus. Die f/2,8 Pendants von Pentax sind günstiger als die entsprechenden Objektive der anderen Hersteller. Und ich meine damit nicht die Tamrons für Nikon, Canon auf denen zumindest das 24-70/2,8 und 15-30/2,8 von Pentax wohl basieren sondern die entsprechenden Originalhersteller f/2,8 Objektive.

Ein Zoom als Ersatz für ein Nikon AF-I 300/2,8?

Das geht. Glaubte ich am Anfang selbst nicht, denn bei der Segelfotografie benötige ich ein Tele um die 500mm mit f/4-f/5,6 Anfangsblende. f/2,8 wäre zu schwer um es stundenlang aus der Hand zu benutzen, f/8 oder mehr erlaubt mir nicht genug Freistellung.

Um auf die benötigte Brennweite zu kommen habe ich das 300er an der Nikon in der Regel mit dem TC17eII 1,7x Telekonverter verwendet. Damit einher geht natürlich ein Licht- und Qualitätsverlust. Mit Telekonverter war das 300/2,8 ein 510/4,8, dass ich jedoch auf 5,6 abblenden musste um wieder knackige Bilder zu bekommen. Kurz: In dieser Kombination ist das AF-I 300/2,8 ein 510/5,6.

Zwischen 450mm und 510mm ist nicht so viel Unterschied. Das Pentax D-FA 150-450 ist offenblendig schon knackscharf und der Nikon-Objektiv-Kombi mindestens ebenbürtig. Da man an Bord des Pressebootes die Position nicht schnell wechseln kann ist ein Zoomobjektiv sogar von Vorteil. Und es ist abgedichtet und wiegt ein ganzes Kilogramm weniger. Preislich ergibt sich kein Vorteil. AF-I 300/2,8 + TC17eII kosten etwa genausoviel wie ein DFA 150-450.

Für die Party danach

schmeisst man einfach das 28-105er oder ein 50/1,4 an die Kamera und fotografiert weiter. Mit leichtem Gepäck und überragender Bildqualität.

Im Zoo mit der Familie

oder wenn ich einfach ein kleines leichtes Tele mitnehmen will benutze ich das 99 EUR Tamron 70-300/4-5,6 Plastikeimermakrotele, dass ab f/8 hinreichend scharf – und natürlich mittels Sensorwackeldackel auch noch stabilisiert ist. AF Speed? Reicht locker aus für alles was ich bisher gemacht hab.

Als Superweitwinkel nutze ich aktuell ein Walimex 14/2,8, bin allerdings mit der Verzeichnung bei geometrischen Motiven noch nicht so ganz glücklich. Dafür ist es günstig, klein, leicht und knackscharf. Sollte ich mal mehr brauchen könnte ich auf ein Irix 15mm (auch ohne AF, nicht ganz so billig und vor allem nicht so leicht) oder gleich auf das Pentax Original 15-30/2,8 (mit AF, supergut, dicht aber NICHT billig) upgraden.

50er, 35er, 24er oder 28er?

Da kann ich mich immer nicht entscheiden, wenn ich aus dem Haus gehe. Meist wirds bei mir das FA 50/1,4, Gelegentlich das DA 35/2,4, dass auch an Kleinbildformat eine recht gute Figur macht und dabei unschlagbar leicht und billig ist. Tja – oder das DFA 28-105 bleibt einfach dran. Für alles. Obwohl ich schonmal über das 24-70 nachgedacht hatte. Eine kompakte leichte Reportagekombi ist das dann allerdings nicht mehr. Mal sehen – kann ja noch werden. Eilt ja nicht.

Endlich angekommen

Tja – und so bin ich nun scheinbar endlich angekommen bei „meiner“ Spiegelreflexkamera. Ich verspüre keinen Bedarf mir eine andere Kamera zu kaufen. Und das seit fast einem Jahr. Kannte ich so bisher nicht, aber so ist das, wenn einem endlich die Kamera gebaut wird, die man sich seit 2006 gewünscht und in Foren mitspezifiert hat.

Hab ich Verbesserungswünsche?

Ja. Habe ich. Erstens: Die Startzeit der Kamera könnte manchmal einen Tick flotter sein, wobei ich hier noch nicht genau weiss ob das nicht ein Bedienerproblem ist. Und zweitens: das nächste Modell darf gerne etwas leichter sein. Dabei aber bitte keine Features weglassen oder an der Stabilität rütteln! Ansonsten ist alles super.

Ich beginne langsam einfach nur Bilder zu machen. Hätte ich mal früher mit Anfangen sollen. Aber ging ja nicht. Meine Kamera ist erst vor einem Jahr fertig geworden, leider. 😀

Oh – und dann wär da ja noch diese neue Super Leica M10, auf die man sparen könnte…

Deckenbeamer ohne Kabel

In diesem Artikel werde ich beschreiben, wie man einen Deckenbeamer ohne umständliche Verkabelung anschliessen kann.

Dank einer Kombination aus Chromecast, Bluetooth-Audioverbindung mit apt-x und Funk-LED-Leuchtmitteln reichen ein einziges Stromkabel und drei kleine Löcher in der Decke aus um einen Beamer an der Decke zu betreiben.

Kein Schlitzeklopfen oder Kabelkanäle verlegen nötig.

Doch von Anfang an: Ich habe keinen grossen Fernseher und möchte auch keinen grossen Fernseher im Wohnzimmer stehen haben. Dennoch möchte ich das Heimkino nicht missen.

Also kaufte ich mir vor einiger Zeit einen kompakten Beamer.

Jedesmal, wenn ich einen Film „in groß“ sehen wollte war dann die folgende Prozedur angesagt:

  1. Beamer auf ein altes Lampenstativ montieren
  2. Stativ an der richtigen Stelle aufbauen
  3. Bild auf die Projektionsfläche (Wand) ausrichten und scharfstellen
  4. Stromkabel anschliessen
  5. HDMI-Kabel ansschliessen
  6. Das Audiokabel für den Rückkanal zur Stereoanlage anschliessen
  7. Film vom Abspielgerät abspielen.
  8. Am Ende alles wieder aufräumen

Da dies, wie ihr sicher bemerkt habt, ziemlich umständlich ist, vereinfachte ich die Prozedur: Statt alles immer wieder auf- und abzubauen stellte ich den angeschlossenen Beamer nach Gebrauch einfach in eine Ecke und schaltete lediglich die Mehrfachsteckdose aus.

Unglücklicherweise sah das nicht besonders aufgeräumt aus und alle stolperten regelmässig über die Füsse des Lampenstativs.

Als Aternative bietet sich eine Deckenmontage an. Allerdings finde ich Kabelkanäle an der Decke nicht sonderlich hübsch. Auch nicht diese superflachen.

In einen weiteren Optimierungsschritt versuchte ich daher die Anzahl der Kabel zu reduzieren. Der Beamer würde neben einer Deckenlampe montiert werden. Strom wäre also über ein kurzes, nicht störendes Kabel am Montageort vorhanden.

Die Stromquelle konnte ich nutzen, weil die Philips Hue Deckenlampe drahtlos ein- und ausgeschaltet werden kann. Es wäre schliesslich fatal, wenn die Lampe leuchten muss, damit der Beamer läuft! Gleichzeitig wäre es genauso fatal wenn der Beamer anginge sobald man die Deckenbeleuchtung einschaltet. Aber auch das ist kein Problem, weil der Beamer, wenn der Strom eingeschaltet wird nicht automatisch angeht, die Lampe jedoch schon.

Das Audiokabel habe ich durch eine Bluetooth-Funkstrecke mit apt-x ersetzt, was ganz ausgezeichnet funktioniert. Sowohl in Sachen Latenz als auch von der Qualität her. Der Versuch, das HDMI Kabel durch drahtlose HDMI-Bridges zu ersetzen scheiterte leider an Preis und Qualität. Erst gab es keine zuverlässigen Lösungen, dann waren sie mir zu teuer (~200 EUR+). Und man hätte ein weiteres Stromkabel zum Betrieb der Empfangsseite am Beamer gebraucht und somit ein HDMI-Kabel durch ein Stromkabel ersetzt und nichts gewonnen.

Bei der Betrachtung meiner Anwendungsfälle kam die Idee auf, dass sich das Problem durchaus auch mit drahtlosen TV-Sticks lösen lassen könnte. Die Anwendungsfälle sind:

  • Filme von DVD oder NAS abspielen
  • Games von der Playstation oder Wii zocken
  • Bei iTunes gekaufte oder geliehene Filme abspielen
  • Webseiten anzeigen
  • Bilder Slideshows abspielen
  • Videos von Online Videoplattformen wiedergeben
  • Präsentationen vom Notebook oder Tablet aus anzeigen
  • Die Übertragungslösung muss Beamerseitig über USB mit Strom versorgt werden können, da ein weiteres Stromkabel oder eine klobige Verteilerdose unbedingt vermieden werden soll.
  • Die Wiedergabe sollte von allen möglichen Geräten möglich sein. Zumindest jedoch von:
    • Android Smartphone & Tablet
    • Mac OS X
    • iOS Geräten
    • Evtl. auch mit Linux, Windows 7++ und ggf. Windows Phone 8.1++ (optional)
  • Wiedergabe der Videomedien mit einer Auflösung von min. 720p mit min. 30fps.

Ausprobiert habe ich dann die folgenden Stick-Lösungen:

  • FireTV Stick
  • AppleTV (trotz 220V Anschluss, aber die hatte ich nunmal schon)
  • Chromecast
  • RenkCast

Das vorläufige Ende vom Lied war: Die AppleTV flog aus der Konkurrenz raus, weil sie weder aus den gewünschten Online Videotheken streamen noch über USB mit Strom versorgt werden kann und eigentlich auch nur mit Apple Geräten sinnvoll verwendet werden will. Der RenkCast lief mir zu instabil und zu langsam und die EZShare App wirkte etwas altbacken und schlecht gepflegt. Der FireTV Stick schliesslich ist dem Chromecast auf den ersten Blick recht ähnlich, hat aber einige deutliche Unterschieden unter der Haube:

  • Apps werden auf dem Stick installiert statt auf dem Smartgerät
  • Eine Fernbedienung ist nötig um den FireTV zu bedienen.
  • Unterstützt nur Miracast, was qualitativ nicht optimal ist. (hohe Anforderungen an Abspielhardware, oft  hohe Latenz, Ruckler und asynchrone Video/Audio Spuren)
  • Man benötigt ein Amazon- statt ein Google-Konto

Und so fiel die Wahl auf den auch nicht so ganz perfekten (weil neugierigen) Chromecast Stick, der aber inzwischen tatsächlich alle Usecases ausser den Punkt mit der Playstation/Wii erfüllt. Und das ganz ohne Fernbedienung und von jedem Gerät auf dem entweder der Chrome Browser, die Chromecast App oder Android läuft.

So hängt der Beamer nun an der Decke, nur mit einem Stromkabel angeschlossen und alles funktioniert tadellos, ohne ruckeln und ohne Gestänge zwischen Bild und Betrachter.

Links Zum Weiterlesen (englisch):

Screen mirroring with Chromecast

Chromecast vs. Miracast

Miracast explained: How is it different from Chromecast and AirPlay?

Performance Spielereien

Bildschirmfoto 2016-05-18 um 20.50.41„WordPress ist total lahm und lässt sich mit HTTPS nicht vernünftig nutzen und Apache mit PHP ist ja auch nicht mehr so optimal“ hat mir ein Bekannter neulich erzählt.

Ich war anderer Meinung und habe Lust bekommen,  Performanceoptimierung zu betreiben, mit Software herumzuspielen und auszuprobieren ob die These stimmt – oder widerlegt werden kann.

Zu Anfang lag da noch ein alter Blog rum. Dieser hier. Oll, langsam, die Leserzahlen egal – ein idealer Kandidat für meinen Versuch.

Stylesheet aufräumen

Zunächst habe ich das Stylesheet aufgeräumt und viele schwere und unnütze Webfonts durch einen leichtgewichtigeren ersetzt. So kam ich von ~7MB, die in 12s auf etwa 6,1MB, die laut Webpagetest Performance Messtool in 11s geladen waren. 11s – eine halbe Ewigkeit. In der Auswertung sah ich, dass vor allem die Bilder auf der Webseite einen grossen Anteil (>50%!) am gesamten Seitenvolumen hatten.

Lazy Loading und Bilder komprimieren

Um dem entgegenzuwirken suchte ich eine Möglichkeit die Bilder im nicht sichtbaren Teil der Webseite erst zu Laden, wenn sie benötigt werden (oder kurz vorher). Also ein sogenanntes „Lazy Loading“ einzurichten. Hierfür gibt es ein passendes WordPress Plugin („Lazy Load“), mit dem der Job recht flott erledigt war. So werden beim Seitenaufruf erstmal nur die Thumbnails geladen, aber nicht mehr die kompletten Bilder.

Den Standardwert für die Bildkomprimierung habe ich ausserdem von 95% auf 80% gesenkt, ansonsten hätten viele Bilder doch zu sehr an Qualität eingebüsst. In einem Fotoblog darf man ruhig wenig komprimierte JPEGs zeigen, auch wenn diese Dateien dann etwas grösser ausfallen.

Diese Massnahmen haben die Ladezeit aber immerhin auf etwa 6s gedrückt und die Gesamtseitenkapazität auf etwa 700kB reduziert. Damit könnte man leben. Wenn da nicht diese 3s Time to first Byte in der Webpagetest Auswertung gewesen wären. In 3s laden moderne Webseiten inkl. Rendering im Browser. In 3s treffen Finanzalgorithmen Millardenentscheidungen in hunderten von Transaktionen. In 3s ändert sich die Welt.

Schneller!!!

Meine Vermutung war, dass eines der installierten Plugins dafür verantwortlich ist, dass es so lange dauert bis WordPress das erste Byte an den Browser ausliefert. Ich probierte also alle Plugins der Reihe nach durch (Messen, deaktivieren, messen…jeweils mehrere Zyklen) und identifizierte auf diese Art zwei Plugins die Zeit stehlen.

Interessanterweise kostete das W3 Total Cache Plugin fast 2s, obwohl es eigentlich zur Performanceverbesserung gedacht ist. Das veraltete Statistikplugin, dass im Hintergrund lief und Dinge tat, von denen ich keine Ahnung hatte und dabei alles bremste kostete nochmal etwa 1s.

Jetzt hatte ich also eine WordPress instanz, die etwa ein Zehntel der ursprünglichen Grösse hatte und in einem viertel der Zeit lädt. Blöderweise hatte ich dadurch den Cache und die Lesestatistik eingebüsst. Suboptimal. Ersteres bremste jetzt bei jedem weiteren Seitenaufruf und letzteres verhindert, dass ich sehe welche Artikel am meisten gelesen werden (schade, aber zu verschmerzen).

Johnny Cache alias Varnish.

Ich dachte über eine Architekturänderung nach. Bisher lief der Apache Webserver im Standalone Modus und machte alles alleine. Für das Caching habe ich spaßeshalber einen Varnish Cache davorgehängt – und siehe da: Die Ladezeiten beim zweiten Aufruf waren wieder da wo sie hin sollten: Im Keller. Ganz unten. Top!

Und dank neuem, passiven Statistikplugin sehe ich jetzt wieder die Seitenaufrufe, aber ohne störende Nebenwirkungen auf die Time-to-first-Byte (TTFB).

Und HTTPS?

SSL hätte ich ja auch gerne noch, dachte ich so. Vor allem im Hinblick auf die vielen Browserfeatures die in den Chromes, Firefoxes und Edges dieser Welt Stück für Stück nur noch per HTTPS zur Verfügung stehen bzw. stehen werden. Also flugs einen HA-Proxy als SSL Terminator vor den Varnish Cache geklemmt, ein LetsEncrypt SSL Zertifikat installiert – und erstmal nur Probleme gehabt: Redirect Loops, Security Warnungen wenn Seiteninhalte teilweise per HTTP geladen wurden, Browserfehler…Blöd.

Um die Warnungen vor gemischt geladenem Content zu verhindern habe ich das „SSL Insecure Content Fixer“ Plugin installiert und einige Plugins mit hartkodiertem Protokoll in den URLs (z.b. das Google Translate Plugin) per Hand angepasst. Die Redirect Loop Probleme waren eine Mischung aus fehlerhafter HA-Proxy, Varnish und WordPress Config gepaart mit einer WordPress Default URL die mit „http://“ begann.

Nachdem nun alle Probleme ausgemerzt sind läuft die Kiste. Genauer: das Blog ist flott geworden. Flotter als es jemals war.

In Zahlen: First Load: ~3,8s, 670kB. Second Load: 2,7s, 64kB.

Und das mit ein paar wenigen nicht so komplizierten Handgriffen. Die These meines Bekannten ist damit hinreichend widerlegt. Oder?

Auf jeden Fall war es ein Grund seit langer Zeit wieder einmal einen Artikel hier zu posten.

Serverprobleme behoben und ‚was fürs Auge

Desktop Ansicht
Desktop Ansicht
Desktop Ansicht

Ein Plugin machte in den letzten Tagen etwas Probleme, was dazu geführt hat das einige von euch den Blog nicht angezeigt bekamen bzw. eine Fehlermeldung gesehen haben. Das sollte mittlerweile behoben sein.

Und weil ich eh schon am Server dran war habe ich gleich noch ein wenig das Aussehen vom pawlik.viewing Blog angepasst. Webfonts und ein grauer Seitenhintergrund sind die augenfälligsten Neuerungen.

Mobile Ansicht
Mobile Ansicht

Ausserdem wurde die Ansicht für Smartphones mit Auflösungen bis 767px an der kurzen Kante angepasst. Die Android-User mit ihren Briefmarkengrossen Full-HD Fernsehern werden das leider nicht mitbekommen – an der Deviceerkennung bastle ich noch. Ebenso am eigenen WordPress Theme, denn mittlerweile habe ich das Bootstrap Theme von Konstantin Obenland so oft modifiziert (und währenddessen so einige Dinge gefunden, die man anders machen könnte), dass ich mir auch gleich ein Neues basteln kann.

Performance: Die Startseite (zur Zeit ~860kB) sollte mit einer DSL Leitung beim ersten Laden innerhalb von 3 Sekunden fertig geladen sein, bei weiteren Ladevorgängen sollte die „Fully loaded“ Zeit unter 1 Sekunde liegen. Caching und grössenoptimierung sei Dank.

Falls irgendwas nicht sauber angezeigt wird, trotz Tests kann das leider immer mal passieren, einfach einen Kommentar hinterlassen oder eine eMail schicken – wär totaaaaal nett. 🙂

Bis demnächst & Viel Spaß

K.!

Alte Objektive, neue Gehäuse: Das PC-Nikkor 35/2,8 an der D800.

PC-Nikkor 35/2,8 Shiftobjektiv
PC-Nikkor 35/2,8 Shiftobjektiv
PC-Nikkor 35/2,8 Shiftobjektiv

Manchmal lohnt es sich, seine alten Objektive einfach aufzuheben.
Vor einigen Jahren habe ich aus einer Laune heraus in der Gebrauchttheke eines Fotoladens ein 35mm f/2,8 PC-Nikkor Shiftobjektiv erstanden.

Ich benutzte es damals an der D200 ein, zwei Mal, dann zwischendurch an einem Tilt-Adapter an den Olys. Mehr zum ‚rumspielen als für „ernsthafte“ (gibt es sowas?) Fotos – und dann vergaß ich es wieder für eine ganze Weile in der Fototasche. Vor einigen Tagen beim Aufräumen ist es mir dann wieder in die Hände gefallen.

Was mich unerwartet schwer Beeindruckt hat ist, daß es an der D800 ein hervorragendes 35mm Weitwinkel ist, das wirklich knackig scharf bis in die Ecken abbildet. Und das sogar an dem extrem anspruchsvollen 36MP Sensor der D800, bei dem z.B. das AF-S 50/1,4 erst ab 2,8 wirklich brauchbar wird! Ich hätte jedenfalls nicht erwartet, dass dieser alte Klumpen aus Metall und Glas so gut performt. Erstaunlich.

Eine einfach zu korrigierende, leichte tonnenförmige Verzeichnung und ebenso einfach wegzurechnende chromatische Abberationen hat das PC-Nikkor 35/2,8 zwar, aber das stört mich nicht weiter.

Umständlicher ist da schon das Handling. Wegen dem vorne am Objektiv liegenden, nicht gerasteten Blendenring, der nicht vorhandenen Springblende und der fehlenden Blenden- und Brennweitenübertragung bleibt einem eigentlich nichts anderes übrig, als manuell zu Belichten und Zeit, Blende und ISO selbst zu wählen.

Die Freiheit, den Horizont ohne stürzende Linien so ins Bild legen zu können wie man möchte wiegt die Umständlichkeit bei der Bedienung aber zum großen Teil wieder auf.

Zeit sollte man sich beim Fotografieren ohnehin immer nehmen um das bestmögliche Bildergebnis zu erzielen. Ganz besonders gilt das auch für die verwacklungsempfindliche D800 und ein manuelles Objektiv wie dieses.

Mindestens 2 Striche unterm Maximum bleiben, sonst wirds am Rand matschig.
Mindestens 2 Striche unterm Maximum bleiben, sonst wirds am Rand matschig.

Wichtig ist auch, mindestens zwei Striche unter der maximalen Aussteuerung des Shiftobjektivs zu bleiben, sonst werden die Ränder matschig. Das beste Bildergebnis erhält man, wenn man überhaupt nicht shiftet und eine bis zwei Stufen abblendet.

Ein paar Knipsbildchen von vorhin…Soweit ich mich erinnern kann sind alle drei Bilder bei f/8 entstanden.
Der o2-Tower o2-Tower und U-Bahn Georg-Brauchle-Ring U-Bahn Georg-Brauchle-Ring Crop 3 von der unteren rechten Ecke des Bildes "U-Bahn Georg-Brauchle-Ring" Crop 2 vom linken Rand des Bildes "U-Bahn Georg-Brauchle-Ring" Crop 1 aus der Mitte von Bild "U-Bahn Georg-Brauchle-Ring"

Vom Winter direkt in den Sommer in Bayern! Frühling fällt dieses Jahr wohl aus.

Telefonica GermanyWas für ein Wetter. In wenigen Tagen ging es von 0 auf 100. Naja – jedenfalls fast. Bis zu 20 Grad zeigte mein Autothermometer am Sonntag.

Kein Wunder also, dass mein Kopf den ganzen Tag über nach Ibuprofen schrie. Dennoch habe ich es Nachmittags bei dem traumhaften Sommerwetter kurz in die Berge geschafft und eine kleine Tour von Wegscheid/Lenggries zur Kotalm und zurück gehen können.

Die wegen schmelzendem Schnee gesperrten Skipisten mit den ausgeschalteten Liften und die natürlich ebenfalls geschlossenen Almbetriebe wirkten ein wenig wie eine Filmkulisse. Menschen waren auch nicht viele unterwegs. Nur hin und wieder kamen mir ein paar abfahrende Tourenskifahrer und Rodler den Hang entgegen.

Die Landschaft sah aus wie Winter, die Temperaturen aber sagten eindeutig: SOMMER! So ein verlassenes Skigebiet bei sommerlichen Temperaturen ohne Jacke hochzumarschieren war echt ein Erlebnis! Schön und skurril zugleich.

Bayrische Berge Schnee und Sommersonne Skipistenkulisse Bayrische Berge

Was war sonst los in den letzten Tagen in der Fotowelt?

Nach Nikon mit der Coolpix A hat Ricoh/Pentax jetzt auch so etwas angekündigt. Eine APS-C Kompaktknipse ohne eingebautem Sucher, Ricoh GR V genannt. Minimal kleiner als die Coolpix A und mit einer ähnlich lichtschwachen, nicht wechselbaren 18,3mm f/2,8 Festbrennweite (entspricht vom Bildeindruck etwa einem 28mm f/4,3 an Kleinbild). Sorry – aber das können sowohl Sony mit der RX1 als auch Fuji mit der X100/X100s heute schon besser. Rechnet man bei der Sony den fehlenden Sucher und den aberwitzigen Preis von weit über 2000 EUR mit rein gibt es wohl auch weiterhin nur die Fuji X100(s) die man als Kompakte mit grossem Sensor ernsthaft in Erwägung ziehen kann. 800 bzw. 1000 EUR sind jedenfalls sowohl für die Nikon Coolpix A als auch für die GR V ohne Sucher zu teuer.

Pentax hat das Firmwareupdate 1.11 für die Q ohne Angaben zu den Gründen vorerst zurückgezogen und Nikon denkt über einen Passwortschutz für Objektiv/Kamerakombinationen nach. Muss ich dann Bald beim Objektivwechsel erst eine PIN eingeben, bevor ich das nächste Foto machen kann? Hallo Nikon – habt ihr da wirklich nachgedacht? Sicherlich – sich Gedanken zum Diebstahlschutz zu machen ist sicherlich eine gute Idee – aber wenn, dann doch bitte so, dass die Useability nicht darunter leidet!

Bei Sony tut sich im Moment nix, eine Nex-7n wird rumort ist aber noch nicht wirklich greifbar, auch wenn sich Sonyalpharumors schonmal an den Spezifikationen austobt.

Das lange erwartete, deutlich viel zu späte Fuji XF 55-200 soll laut Fuji Rumors übrigens morgen (17.4.) endlich offiziell angekündigt werden – laut der im Internet verfügbaren, quasi-offiziellen Fuji Roadmap hätte das Objektiv aber schon längst im Handel sein sollen. Warten wir mal ab ob und wann es denn wirklich kommen wird. Das ist für mich jedenfalls die spannendste Linse für  das Fuji X System, weil durch sie das Fuji System zu einem vollwertigen Mirrorless System von Weitwinkel bis Tele komplettiert wird. Danach brauch ich erstmal nix mehr. Ausser vielleicht…aber das kennt ihr ja schon.

Habt euch lieb & geniesst das Leben und fotografiert was Schönes!

Bis Bald.

Die Sache mit der leichten Kameraausrüstung…

5_20120208-224237-001Immer wieder lese ich, daß die Leute keine Lust mehr haben ihre schwere Kameraausrüstung mit sich herum zu tragen. „Mirrorless“ sei das gelobte Land, alles sei jetzt „klein und leicht“. Die neue „Freiheit“ so „toll“. „Die Zukunft“. Sogar „Paradigmenwechsel“ will der eine oder andere erkannt haben. Schöne neue Welt.

Allerdings gipfelt das Miniaturisieren und Erleichtern der Ausrüstung oft in Konzessionen an das Streben nach dem bestmöglichen Bildergebnis. Sicher – die Beste Kamera ist die, die man dabei hat. Aber man kann es auch übertreiben.

So schreibt beispielsweise Jonathan Posner, dass er als Fashionfotograf seine Canon 5D Mark II gegen eine aktuelle Olympus O-MD E-M5 getauscht hat, weil sie nahezu die gleiche Bildqualität bietet. Genau hier liegt aber der Hase im Pfeffer: Olympus hat 2 Jahre gebraucht um das hinzubekommen, was bei anderen Herstellern  damals schon möglich war. Statt nach dem besten Kompromiss zwischen Gewicht und optimalst möglichem Bildergebnis zu suchen wird nun oft darauf geachtet, dass man das gleiche (oder geringfügig schlechtere) Bildergebnis mit kleinerem und leichterem Equipment hinbekommt.

Im Fall von Jonathan’s Canon ist das sogar durchaus nachvollziehbar, denn rein vom Bildeindruck hat sich zwischen der 5DII und der 5dIII nicht wirklich etwas entscheidendes verändert und so wird die Olympus ihm bis zum Ende der Laufzeit der 5D III das Gefühl geben, technisch weiterhin auf Augenhöhe zu sein.

Mir als auch-Nikon-Benutzer ginge das anders. Denn eine D800 hat nunmal heute schon die doppelte Auflösung einer OM-D. Auch der AF ist Spontan-Action-Tauglich. Da ist der Unterschied heute schon zu deutlich zu sehen – und die Technik schreitet weiter voran. Noch findet der technologische Fortschritt in der Weiterentwicklung von Bildprozessor und Sensortechnik bei APS-C und Kleinbild statt. Das hat sich m.M.n. noch immer nicht geändert. Von einem Paradigmenwechsel zu sprechen halte ich daher für verfrüht.

Ich versuche stets das technisch beste Gerät zu kaufen, das im Rahmen meiner Möglichkeiten heute verfügbar ist – statt eine Kamera, die heute die Bildqualität liefert die Andere  bereits vor 2 Jahren boten würde ich mich eher für eine Kamera entscheiden, die auf dem technischen Stand von Heute und gleichzeitig möglichst klein und leicht ist.

Möglichst wenig mit mir herumtragen wenn ich Fotografieren gehe ist zwar auch immer mein Ziel – aber wenn es das Bildergebnis erfordert, dann kann „möglichst wenig“ auch mal 4,5 Kilogramm für ein 300/2,8 plus D800 mit Batteriegriff sein. Oder 10kg im Rucksack, wenn noch ein wenig Lichtkrempel und ein, zwei weitere Objektive hinzu kommen. Oder auch mal nur das Smartphone. Das ist eh immer da.

Meistens ist allerdings meine Fuji X-Pro1, die letztes Jahr meine Nex-7 abgelöst hat, in der Fototasche. Sie bietet mir einfach die hübscheren, cleaneren Files, die interessanteren Objektive und die angenehmere Bedienung, die ich bei der Nex immer vermisst habe. Ausserdem besitzt sie diesen wunderbaren Hybridsucher, der es mir überlässt wie ich mein Motiv sehen will. Und sie ist klein und leicht genug um sie nicht als schwer zu empfinden und hat High-ISO-Eigenschaften auf dem Niveau einer Nikon D3.

Ganz ersetzen kann die Fuji aber meine DSLR (noch) nicht. Dafür müsste der Autofokus noch um einiges schneller werden und die Objektivpalette noch um ein paar schöne 2,8er Zooms und lichtstarke, lange Telelinsen ausgebaut werden. Auch ein Klappdisplay wäre nötig sowie ordentlich konfigurierbares Auto-ISO.

Und das ist genau der Punkt: Es gibt nicht „die perfekte Kamera für alles“ sondern immer nur das jeweils richtige Spielzeug für einen bestimmten Zweck. Wenn man das verstanden hat, dann wird man weder auf die DSLR Knipser schimpfen noch sich über mangelnde Objektive bei Sony, veraltete Technik bei Olympus oder fehlenden AF-Speed bei Fuji beschweren.

Und genau darum ging es im Kern wohl auch bei Jonathan Posners Blog Artikeln, als er von seinem Wechsel von der 5D II auf die Olympus OM-D berichtete: Für ihn sind es gleichwertige Werkzeuge für seine Fashion-Fotografie, wobei die Olympus den Vorteil hat deutlich kleiner, leichter und billiger zu sein – bei vergleichbarer Bildqualität und mit gleich guten Objektiven bei ähnlicher Bildwirkung. Ich frage mich allerdings, wie lange er mit seiner OM-D wirklich arbeiten wird. Selbst der EVF und Mirrorless Fanboy Kirk Tuck hat mittlerweile wieder eine dicke Knipse zusätzlich – eine Alpha 99.

Vielleicht hätte ich seinerzeit mit dem Verkauf meiner Olympus warten sollen – ich hätte heute sicher eine OM-D. Andererseits hätte ich auch lange nicht soviel erlebt wie bei dem Ausflug zu Sony und dem anschliessenden Wechsel zur Fuji – und ich hätte trotzdem weiterhin eine DSLR Ausrüstung. Einfach weil bestimmte Dinge mit einer „Grossen, Schweren“ einfach besser funktionieren. Noch. 🙂

Eins vielleicht noch zum Schluss: „Klein und Leicht“ kann auch bedeuten, dass man einfach nur ein einziges Objektiv und einen Akku mitnimmt. Da ist dann unter Umständen eine Nikon D800 mit 50/1,4 deutlich kleiner und leichter als die komplette Olympusausrüstung inkl. Stativ…

Man kann Gewicht also auch mit Nachdenken und der Beschränkung aufs Notwendige ersetzen ohne sich dabei in seiner kreativen Freiheit einzuschränken oder neue Kameras zu kaufen. Die beste Kamera ist schliesslich die, die man dabei hat und oft gibt bewusste Selbstbeschränkung beim Equipment auch der kreativität neue Impulse.

 

RAID-Backupkonzepte für die Bildbearbeitung

Desktop RAID System von WD

Desktop RAID System von WDWenn man Abends mit ein paar befreundeten Fotografen zusammensitzt und bei einem Glas Rotwein und einer Rucola-Pizza mit Parmaschinken und Parmesankäse verschiedene Themen andiskutiert, dann kann es passieren, dass man sich auch mal Gedanken über Datensicherung macht. Ernsthaft. 🙂

Die Frage war: „RAID oder nicht RAID – und wenn ja, warum? Oder doch lieber ein NAS? Ein Cloud-Backup? Oder einfach USB-Platten?“

Alles für den optimalen Schutz der eigenen Bilddatenbank mit den geliebten fotografischen Werken.

Meine erste Antwort war: „Erstmal Mac OS X mit Timemachine“. Das verwirrte meinen Bekannten dann doch etwas. Vermutlich hatte er erwartet, dass auf seine einfache Frage wie aus der Pistole geschossen irgendein Festplattenhersteller genannt werden würde.

Also konzentriere ich mich hier auf Backuplösungen und weniger auf die Backupsoftware. Nur soviel: Stressfreier als mit Timemachine und Mac OS X kann man sein Betriebssystem, seine Programme und seine Daten nicht sichern und wiederherstellen! Das ist eine exzellente Grundlage um sich anschliessend mit dem Thema „Art des Datenspeichers“ auseinanderzusetzen.

Zum Thema RAID (Redundant Array of Independent Disks) fielen mir auf dem Nachhauseweg dann ein paar Anmerkungen ein von denen die ein oder andere vielleicht auch für die Leser vom pawlik.viewing-Blog interessant sein könnte.

Mehrere Aspekte sind wichtig:

– Datensicherheit / Ausfallsicherheit / Langlebigkeit
– Schreib/Lesegeschwindigkeit
– Kosten pro GB
– Unterschiedliche Raid Varianten (Striping, Mirroring, Striping mit Parity, Mirrored Stripeset…)
– Schutz vor Viren
– Schutz vor Umwelteinflüssen / Offsite Backup nötig?

Im Prinzip hatte ein weiterer Bekannter, der mit am Tisch saß schon recht, dass ein RAID in erster Linie dafür konzipiert wurde, um als eingebauter Speicher zum Beispiel in einem Serversystem, als Storage-Basis für Virtuelle Maschinen oder in einem Videoschnittplatz genutzt zu werden.

Jedoch bietet RAID durchaus Vorteile auch im Backup- oder SAN/NAS Bereich.

Zu dem Punkt warum ich mein weekly backup auf einem RAID statt einer einfachen USB Festplatte oder einer DVD- oder Bluraydisk sichere komme ich gleich.

Zunächst nochmal zur Auffrischung eine Erklärung der verschiedenen RAID-Varianten.

Am weitesten verbreitet im Enduser-Bereich sind RAID 0 , 1, 5 und 10.

Im Videoschnittbereich kommen häufig Rechnerkonfigurationen mit RAID 0 (Striping), Raid 5 (Striping mit Parity) oder RAID 10 (Mirrored Stripeset) zum Einsatz.

Warum? Beim RAID 0 (Striping) addieren sich die Schreibgeschwindigkeiten mit jeder zusätzlichen Spindel (Festplatte) im Stripeset, da die zu schreibenden Bytes auf mehrere Platten verteilt werden.

Um es einfach zu machen: Block 1 auf Platte 1, Block 2 auf Platte 2, Block 3 auf Platte 3, Block 4 auf Platte 1, Block 5 auf Platte 2 usw. Die Schreibvorgänge 1-3, 4-6 etc. laufen dabei jeweils parallel ab.

RAID 0 ist auch sehr billig in puncto Kosten pro GB, da der gesamte Plattenplatz zur Verfügung steht.

Jedoch ist ein Stripeset sehr anfällig: Fällt eine Platte aus ist alles weg.

Sicherer ist RAID 1 (Mirroring): Sämtliche Daten werden jeweils auf der ersten und der zweiten Platte geschrieben. Fällt eine aus kann die Information von der Kopie auf der anderen Platte wiederhergestellt werden. Fallen beide aus ist natürlich alles weg. Dieses Verfahren ist mitunter sogar langsamer, bringt jedoch auf keinen Fall einen Geschwindigkeitsvorteil gegenüber einer 1-Platten-Lösung.

Die Kosten pro GB sind allerdings deutlich höher, da immer nur die Hälfte des insgesamt verfügbaren Plattenplatzes effektiv genutzt werden kann.

Um die Vorteile von Raid 0 und 1 zu kombinieren hat man RAID 5 (Striping mit Parity) erfunden. Hierbei kommen jeweils 3 Platten pro Raid 5-Set zum Einsatz. Aus der Information von zwei Platten kann man die dritte Platte wiederherstellen.

Ausserdem bekommt man eine fast doppelt so schnelle Schreibgeschwindigkeit wie mit nur einer Platte, weil die Information immer auf zwei Platten verteilt wird und dann nur noch die Parity Information auf die nächste geschrieben werden muss (stark vereinfacht ausgedrückt).

Kostentechnisch ist es ein guter Kompromiss. Es stehen etwa 66% des verfügbaren Speicherplatzes für Nutzdaten zur Verfügung.

Will man die Schreib/Lesegeschwindigkeit noch weiter erhöhen ist RAID 10 (Mirrored Striping) sinnvoll: Ein Stripeset aus beliebig vielen Festplatten wird auf ein anderes Stripeset aus genauso vielen Platten gespiegelt.

Kostentechnisch ist dies nicht wirklich optimal, da genau wie beim mirroring nur die hälfte des Plattenplatzes nutzbar ist. Dafür ist es ausfallsicher UND schnell.

Mein wöchentliches Langzeitbackup

Für mein wöchentliches Langzeitbackup habe ich mich für ein externes, per Firewire 800 angebundenes RAID (gemirrored) entschieden, da es mir dann egal sein kann ob eine der beiden Platten mit der Zeit nicht mehr lesbar ist.

Für Festplatten habe ich mich entschieden weil sie dauerhafter Daten Speichern als DVD-Rohlinge und vermutlich sogar als Bluray Disks. Gegen Bluray Disks habe ich mich vor allem aus Kostengründen entschieden (ich müsste erstmal einen Bluray-Brenner anschaffen und die Rohlinge sind auch nicht grade günstig). Der Hauptgrund: ich traue den Dingern noch nicht so recht.

Sollte doch mal eine Festplatte ausfallen tausche ich einfach die defekte Platte aus und alles bleibt erhalten. Hätte ich nur eine einzelne Platte könnte es sein, dass das Langzeitbackup (Datenendlager…) irgendwann Grütze wird und alles verloren ist, was nicht mehr auf der aktuellen Festplatte oder im inkrementellen Timemachine Backup vorhanden ist.

Hinzu kommt, dass mein langzeit Backup RAID nicht ständig angeschaltet ist und somit, falls es doch mal ein Virus auf den Rechner schafft, das Backup erstmal nichts davon mitbekommt.

Vor jeder Sicherung wird der Virenscanner angeschmissen, dann das RAID eingeschaltet – so kann (fast) nichts passieren.

Ebenso könnte ich mir vorstellen, mein Timemachine Backup auf ein RAID auszulagern. Mit dem Gedanken habe ich schon gespielt. Jedoch spielen mehrere Überlegungen eine Rolle: Ein weiteres RAID ist teuer. Zwischen 300 und 600 EUR wäre ich dafür los.

Ausserdem erstelle ich ohnehin wöchentliche Backups. wenn also die Timemachine Platte und GLEICHZEITIG meine Systemfestplatte abschmiert gehen mir maximal 7 Tage und die Historie auf dem Rechner verloren.

Da dies jedoch sehr unwahrscheinlich ist, sehe ich das Timemachine Backup eher als Archiv gegen versehentliches Löschen an. Und das darf ruhig mal kaputtgehen.

Die Timemachineplatte kann auch die ganze Zeit mitlaufen, da es nichts ausmacht, wenn doch mal ein blöder Virus die Daten auf der Platte über den Jordan schickt. Vor allem aber will ich nicht alle Stunde die Platte anschalten, damit Timemachine sein Backup erstellen kann.

Nur die „Site Redundancy“ hab ich noch nicht gelöst.

Cloud Backup Services sind mir bisher nicht sicher genug und/oder zu teuer. Hinzu kommt, dass mein Internetupstream zur Zeit nur bei 5 mbit/s liegt und die zu sichernden Datenmengen die GB Grenze in der Regel um ein Vielfaches überschreiten: Der Upload einer einzigen Vollsicherung würde Tage dauern.

Auch eine Festplatte alle paar Wochen irgendwohin zu schicken kommt für mich nicht in Frage, so wichtig ist das nun auch nicht.

Nach einem Wohnungsbrand oder einem ähnlich fatalen Ereignis hätte ich vermutlich ganz andere Probleme als eine verlorene Bilddatenbank auf einem kaputten Rechner…

Aber das mag jeder durchaus anders bewerten und für sich seine eigene Entscheidung treffen.

Von NAS Systemen halte ich nur dann etwas, wenn die Netzwerkanbindung zwischen den Systemen ausreichend schnell ist und zwingend mehrere Nutzer mit den gleichen Dateien arbeiten müssen. Und selbst dann kann es Zuhause sinnvoller sein die Daten über den Rechner zu Teilen, an dem die Platte hängt statt ein dediziertes NAS zu kaufen.

400 mbit/s sollten zwischen Computer und NAS allerdings mindestens übertragen werden können, damit ein NAS Spass macht. In der Regel bedeutet das: Gigabit Ethernet oder Fibrechannelanbindung. Mit einer einfachen, handelsüblichen Gigabit-Ethernet-Anbindung liegt die Datenübertragungsrate etwa bei 80-90 MByte/s.

Manche NAS Systeme die heute im Handel erhältlich sind unterstützen aber nur das ältere 100 mbit Ethernet – mit Datenübertragungsraten von nur 8-9 MByte/s.

Viel zu wenig um ‚zig Gigabytes von Daten sinnvoll übertragen zu können. Ausserdem bietet ein NAS, wenn es ständig am Netz hängt, keinen zuverlässigen Schutz gegen Viren oder Würmer.

Weil die schnelleren, Netzwerkbasierten Übertragungswege relativ teuer in der Anschaffung sind und ich nicht von mehreren Rechnern in einer verteilten Umgebung auf den Datenbestand zugreifen muss habe ich mich für das oben genannte RAID System mit Firewire 800 anbindung entschieden.

Alternativen für die lokale Anbindung sind Systeme mit USB 3.0 oder Thunderbolt, diese Anschlussarten müssen jedoch sowohl vom Computer als auch vom RAID System unterstützt werden. Speziell Thunderbolt ist auf dem Mac zu empfehlen, jedoch kostet ein WD MyBook Studio RAID mit Thunderbolt aktuell etwa 130 EUR mehr als das gleiche RAID System mit Firewire 800.

Ende Gut, alles Gut?

Heute Morgen meldete sich übrigens mein Bekannter per eMail: Sein Rechner bootet nicht mehr, die SSD ist kaputt. Zum Glück hat er das Wichtigste wiederhergestellt bekommen. Sieht so aus als wären die Tipps grade zur richtigen Zeit gekommen.

Fehler im Kamerapark – Verkäufe die einem fehlen.

Eines der letzten Bilder mit dem ZF.2

FotokramIn einem Fotoforum bin ich kürzlich über die Frage gestolpert: „Welche Objektive / Kameras die ihr mal besessen habt vermisst ihr am meisten?“

Nicht, dass es nicht schon genug „ausgefallene“ Themen gäbe – aber kennt ihr das nicht auch? Ihr hattet mal ein Superobjektiv oder eine Top-Kamera mit der ihr echt gute Bilder gemacht habt. Ein Stück Technik mit Seele, die euch begeistert, in ihren Bann zog. Euch Inspiration und den Bildern diesen magischen Glanz verliehen.

Und trotzdem habt ihr das Gerät irgendwann veräussert. Vielleicht um auf die nächste Kamerageneration upzugraden oder ein anderes Objektiv auzuprobieren oder um die Reparatur am Auto zu bezahlen oder was auch immer.

Ich habe rückblickend einige Fehler dieser Art gemacht – manche sogar öfter. Nachher ist man meistens klüger.

Silberne M8Da war zum Beispiel die M8…

…mit der mich eine regelrechte Hassliebe verband. Ich hasste es, wenn der Speicherkartenleser mal wieder rumzickte. Ich hasste es diese verflixten UV/IR-Sperrfilter benutzen zu müssen und ich hasste es vor der RAW-Bearbeitung erstmal zu Rätseln was mit welchem Objektiv und welcher Blende aufgenommen worden war um dann den entsprechenden Korrekturfilter in Cornerfix einzustellen. Und das vierteljährliche Nachjustieren des Meßsuchers. Und das fiese Rauschen und das „Vertical Line Problem“ ab ISO800.

Schwarze M8 - meine erste.Alles in allem waren meine Leicas gefühlt mehr in der Werkstatt als in der Kameratasche aber ich liebe die Bilder, die mit der M8 entstanden sind. Alle. Ohne Ausnahme. Und die Leute liebten es von mir mit dieser Kamera fotografiert zu werden. Deswegen machte ich gleich zweimal den Fehler – erst mit einer schwarzen, dann mit einer silbernen. Aber irgendwie vermisse ich sie doch, dieses verfluchte Biest!

S5pro ohne AA-FilterOder die Fuji S5pro ohne AA-Filter

Ich war ein grosser Fan der Fuji S5pro. Der Sensor war Spitze, die Dynamik suchte seinerzeit ihresgleichen. Die Kameratechnik war auf D200 Niveau – nur der AntiAliasing-Filter war etwas zu dick und ich konnte meine Nikon-Akkus nicht weiterverwenden, musste die Original-Fuji-teuer-Akkus benutzen.

Ein begnadeter Fototechniker und Wissenschaftler aus der Münchner Gegend hatte eines Tages ein Ersatzglas erfunden, mit dem man den AA-Filter komplett ersetzen konnte und dennoch nicht auf alle anderen Features verzichten musste. Ich liess meine S5pro umbauen. 300 EUR hat mich das gekostet. Und es war gut. Bis ich auf die D700 upgraden wollte. Es kam wie es kommen musste: ich verkaufte die S5pro und vermisste sie ein paar Wochen später bereits wieder. Aber nochmal diese Tortur mit dem Umbau durchstehen, warten, zahlen? No way.

Voigtländer Color-Heliar 75/2,5Und dann war da noch das Voigtländer Color-Heliar 75/2,5

Ein solches Objektiv wird es nicht mehr geben. Jedenfalls nicht in nächster Zeit. Klein, leicht, bezahlbar, handlich und brachial gut mit buttercremigem Bokeh. In silber. WOW! Der Nachfolger ist das genaue Gegenteil: sauteuer, gross, schwer und das Bokeh – nunja: nicht mehr ganz so hübsch. Dafür ist es ein 1,8er und statt M39 mit Adapter hat es direkt ein richtiges M Bajonett. Die alte Version bekommt man nicht mehr. Jedenfalls nicht mehr die exzellenten. Bestenfalls noch ein gutes Exemplar. Ich hatte ein exzellentes.

Mein grösster Fehler bisher…

…waren eigentlich zwei: erstens, dass ich mein Zeiss ZF.2 35/2 verkaufte. Viel zu billig, es wollte keiner. Jedenfalls nicht zu einem angemessenen Preis. Ich hätte es behalten sollen. Und zweitens: mein letztes silbernes Pentax FA77/1,8 limited aus Japanischer Fertigung. Heute ist beides so dermassen im Preis gestiegen, dass ich es mir wahrscheinlich nicht nochmal leisten würde.

Beim 77er hatte ich nochmal Glück, denn ich konnte eines bekommen – wenn auch nur im Tausch für ein anderes, liebgewonnenes Stück Glas und Metall, dass ich vermutlich irgendwann vermissen werde. Aber noch ist es nicht so weit.

Eines der letzten Bilder mit dem ZF.2C’est la vie! Wat fott is, is fott. Die Zeit heilt alle Wunden. Sagen sie. Vielleicht. Aber die Hauptsache ist doch schlussendlich, dass alles in Bewegung bleibt und man weiter Spaß an der Fotografie hat! 🙂

Makrospass in der Mittagspause mit dem Nex-Tamron 18-200 VC

Vorhin hab ich ein wenig mit dem wider erwarten erstaunlich guten Tamron 18-200 VC an der Nex-7 herumgespielt, die Abbildungsleistung dieses „Suppenzooms“ ist so gar nicht typisch für dieses Objektivgenre – überhaupt nicht „suppig“ sondern eher „supi“!

In der Mitte ist es bei allen Brennweiten schon ab Offenblende knackscharf, an den Rändern um 1-2 Stufen abgeblendet sehr brauchbar. Verzeichnung und CAs werden im JPEG-Modus direkt in der Kamera korrigiert, das Bokeh ist für ein solches Objektiv beachtlich cremig.

Der eingebaute Bildstabilisator ist für Fotos super – packt zu und stabilisiert zuverlässig. Für Videoaufnahmen gefiel mir der Bildstabilisator des Sony SEL 18-200 OSS jedoch etwas besser, da er bei Schwenks nicht ruckartig anfängt sondern smoother, für das Auge angenehmer, die Bewegung ausgleicht. Dennoch – Das Teil macht echt Spass und auch die Makrofähigkeiten sind interessant. Könnte meine Urlaubslinse werden. 🙂

Die Verarbeitung ist Prima, es wackelt nix, alles ist straff und passgenau verarbeitet, das Objektiv fühlt sich wertig an mit seinen gummierten Fokus- und Zoomringen und einem Gehäuse, dass sich anfühlt wie Metall. Da wirken die Plastikinnentuben, die beim Zoomen sichtbar werden schon fast ein wenig deplaziert. 🙂

Es ist deutlich kompakter als das Sony-18-200er, jedoch nicht wirklich klein. Daher wird die Nex-7 etwas kopflastig, wenn man ans lange Ende zoomt. Kein wirkliches Problem – eher eine Randnotiz. Die Kombination liegt nichts desto trotz ausgezeichnet in der Hand und spielt mit dem Panasonic 14-140 an mFT in einer Liga!

Apropos mFT/APS-C/Kleinbilformat: Falk Lumo hat in seinem Blog mal wieder einen neuen Artikel gepostet – zum Thema: Fullframe-Mystery revisited und warum Pentax unbedingt Kleinbild digital bringen muss…der nächste, der das so sieht.