Donnerstag, 10. Juni 2010

Steve Midas Jobs berührt die Videotelefonie

Manche Dinge klingen wie eine Verheißung - aber es stellt sich heraus: keiner will sie haben.
Andere Dinge klingen wie etwas, das man nicht braucht - und werden für die Menschheit unverzichtbar.

Mobiltelefone und das Internet sind gängige Beispiele für den zweiten Fall: Ich glaube, kein einziger Science Fiction Autor hat vor der Durchsetzung des Internets auch nur die Idee in Erwägung gezogen, dass soetwas einmal benötigt werden wird (und ich meine Internet, nicht den großen Super-Positronen-Dingsbums, von dem man alle Informationen abrufen kann, inklusive der Antwort auf die Frage nach dem Leben, dem Universum und dem ganzen Rest) Und niemand von uns, die wir uns noch an die Vor-Handy-Ära erinnern können, seien wir ehrlich, hätte einen Schilling drauf gewettet, dass Handtelefone einmal jemanden außer Vertretern und Angebern interessieren würden.

Was wie eine gute Idee geklungen hat, waren hingegen diese beiden Dinge: Tablet PCs und Video-Telefonie. Schon seit Anfang der 90er Jahre wurden immer wieder Tablet PCs angekündigt (ab 2001 unter diesem Namen), die man mit Stift oder Finger auf einem Touchscreen bediente - Das klingt doch gut: Ein Ding, das ich halten kann wie ein Notizbuch, wo ich keinen Tisch und keine Maus brauche. Aber - warum auch immer - niemanden hat's interessiert. Videotelefonie: als Killerapplikation angekündigt im Zuge der UMTS-Frequenz-Versteigerung (Erinnert sich noch wer? Damals konnte der Staat noch richtig gut Geld einnehmen: allein in Deutschland 50 - in Worten Fünfzig Milliarden Euro nur für die Genehmigung, die Frequenzen benutzen zu dürfen, was ist dagegen die Griechenland Hilfe? - der IWF hat einen Kredit von 30 Milliarden € gewährt)  In jedem, wirklich jedem Science Fiction Film seit den frühen 40ern wird nur mit Bild telefoniert. Hat irgendwer selbst schon einmal ein Video-Gespräch geführt? Jedes  moderne Telefon hat vorne eine Kamera und kann Videocalls. Weiß das überhaupt jemand?

Dann kam Steve Jobs: er nannte den Tablet PC "iPad" und obwohl das Ding weniger kann als ein gängiges Telefon, rannten ihm seine Glaubensbrüder die Store-Türen ein. Keiner kanns erklären.

Und jetzt das: Steve Jobs nennt Video-Telefonie "FaceTime", tut so, als habe er grad was Großartiges erfunden und ist in seiner Hybris überzeugt, dass er es genauso wie mit allen anderen Apfel-Devotionalien schafft, es in Gold zu verwandeln. Dass das ganze nur von iPhone zu iPhone funktioniert (klar, das iPad hat ja keine Kamera ;-P und Telefone anderer Hersteller sind Häresie), wird die Apfeljünger nicht stören, sie haben ja alle die alte Netscape-Weisheit verinnerlicht:

it's not a bug, it's a feature!



Samstag, 27. März 2010

The Great 3D Swindle

Oh ja, 3D ist die Lösung, ich weiß. Aber von welchem Problem?

Zuerst: Was heißt hier 3D? Alles flach, keine 3. Dimension. Was wir heutzutage mit Avatar und Alice zu sehen bekommen, ist bestenfalls eine 3D-Simulation. Eigentlich sollte es "stereoskopische Filme" heißen, aber das klingt nach 19. Jahrhundert. Und genau so alt ist die ganze Chose auch. Das einzige, das sich geändert hat, sind die Computerprogramme, die die beiden Bilder bauen. Aber bei aller Computertechnik bleibt der 3D-Effekt so spannend wie eine 3D-Postkarte aus Mariazell. Wenn das schon toll wäre, müssten diese Dinger ja einen reißenden Absatz finden. Da sie das aber nicht tun, bleibt die Frage: wozu 3D im Film?

Schnitt

Film ist die großartigste Erfindung seit der Einführung der Schrift. Film ist viel genialer, als sich das die Brüder Lumiere einst vorstellen konnten, denn im Film werden nicht einfach bewegte Szenen eingefangen, im Film funktioniert etwas, das man eigentlich nicht erwarten konnte: Der Schnitt. Interessanterweise ist das was bei einem Filmschnitt passiert, genau die Art und Weise, wie unser Sehen funktioniert: Wir leben nicht in einem kontinuierlichen Strom eines bewegten Bildes, das in unsere Augen strömt, wir leben in Szenen.

Sakkaden

Bei jeder Augenbewegung passiert etwas unerwartetes: das Bewusstsein für das gesehene Bild wird abgeschaltet: Die Augen stehen still, wir sehen - das Bewusstsein wird abgeschaltet - die Augen bewegen sich - die Augen stehen still - das Bewusstsein wird wieder eingeschaltet. Das "Loch" dazwischen wird zum Verschwinden gebracht, indem die Erinnerung daran einfach nicht existiert. Die "Szenen" schließen nahtlos aneinander an. Wer das nicht glaubt, mache folgendes Experiment: er oder sie stelle sich vor einen Spiegel und beobachte die eigenen Augen. Man blicke sich abwechselnd ins linke und ins rechte Auge: Niemals werden wir auch nur einen kleinen Ruck der Augenbewegung erhaschen: jedes Mal, wenn sich das Auge bewegt, wird unser Bewusstsein kurz ausgeschaltet. Diese Augenbewegungen mit eingebautem "Schnitt" nennt man Sakkaden.

Unser Sehsystem hat nun die Erwartungshaltung, dass die Welt nach der Augenbewegung genau die gleiche ist wie vorher. Diese Erwartung ist so stark, dass sie z.B. verhindert, dass wir in den bekannten 5-Fehler-Suchbildern die Unterschiede schnell erkennen. Und diese Erwartungshaltung ist es auch, die bewirkt, dass wir uns nach einem Filmschnitt in der gleichen Geschichte wiederfinden, und uns nicht jedes mal neu im "Raum" orientieren müssen. (Wer kennt Lynchs Mulholland Drive? Schon einmal vor und zurückgespult und beobachtet, was nach einem unverdächtigen Schnitt plötzlich alles anders ist? Und: man bekommt es beim ersten mal nicht mit!)

Ton, Farbe, 3D

Der Schnitt ist das zentrale Element im Film, alles andere gruppiert sich zwanglos herum: Ton, Farbe, 3D. Ja, wir tendieren dazu, gesprochene Worte mit den Ohren zu hören und nicht zu lesen. Trotzdem können wir die Dialoge in einem Stummfilm auch mitlesen, weil wir sie in unserem Kopf sozusagen "hören". Wir sehen in Farbe. Wir können auch S/W sehen, das funktioniert, weil die Bildinformation: Formen, Bewegung, Bedeutungsinhalte - an einer anderen Stelle und von anderen Nervenbahnen verarbeitet werden als die Farbe. Farbe ist sozusagen ein Goodie der Evolution, mit der sie unter den Säugetieren nur uns Affen so reich beschenkt hat.

Und wir besitzen Richtungshören und stereoskopisches Sehen. Und hier liegt der Hase im Pfeffer. Beide Fähigkeiten werden heute im Kino bedient: Surround Sound hat ziemlich unaufgeregt die Multiplex-Säle durchwachsen, 3D-Bild wird wieder einmal propagiert. Beides birgt seine Tücken. Das Problem mit dem Richtungshören lässt sich leicht von guten Sound-Designern lösen. Schlechte machen dagegen gern folgenden Fehler: Das Bild schaut so aus: Person A im Zentrum, spricht, von links nähert sich nur indirekt an den Reaktionen As erkennbar, sprechend, Person B. Schnitt. Jetzt sind beide Personen zu sehen. Beide im Zentrum. Wenn der Herr Tontechniker in Szene 1 die Stimme von ganz weit links kommen lässt, ist das toll, aber was passiert dann? Schnitt. Unsere Augen denken, aha eine Sakkade. Kein Problem fürs Sehen, aber plötzlich springt der Ton der Stimme ins Zentrum. Die Ohren machen keine Sakkaden (die können wir ja auch nicht so gut bewegen). Wie gesagt, mit ein paar Tricks geht das schon. Wir sind ja Augentiere und keine Ohretiere, so wichtig sind die Richtungsinformationen dann doch wieder nicht.

Ganz anders verhält es sich mit dem stereoskopischen Sehen. Wiederum könen wir Tiefe und Entfernung auch ohne 3D-Brille sehen: Wir rennen auch mit einem Auge nicht gleich gegen jede Wand: Das Sehsystem verarbeitet verschiedene Hinweise auf den Verdächtigen "Entfernung". Hauptsächlich Perspektiven, das "Wissen" über die wahre Größe von Dingen und Menschen (niemand glaubt, dass der Typ im Hintergrund ein Mensch mit 10cm Körpergröße ist) und die Verschiebung im Blickfeld, wenn wir uns (respektive die Kamera) bewegen. Zusätzlich wertet das Sehsystem noch die leicht unterschiedlichen Blickwinkel beider Augen, die Muskelanstrengung beim Betrachten nähergelegener Objekte sowie den Fokussieraufwand der Linse aus. Diese Zusatzfeatures, die wir den eng beieinander stehenden Augen zu verdanken haben, bemerken wir im Alltag kaum: sie bleiben meist unbewusst. Was auch gut so ist, denn sonst würden wir dauernd bemängeln, dass wir immer irgendetwas doppelt sehen: fokussieren wir auf die Nähe, sind Dinge in der Entfernung doppelt, fokussieren wir auf die Entfernung, sind Dinge in der Nähe doppelt. Dass uns das nicht weiter stört, hängt auch vor allem damit zusammen, dass wir nur entweder nah oder fern scharf sehen. der Rest der Szene ist in gnädige Tiefenunschärfe gehüllt. Das ist der Punkt.

Wenn man uns im Kino 3D-Effekte aufs bebrillte Auge drückt, hat man die Wahl, Vorder- und Hintergrund scharf zu zeigen: das ist unnatürlich und irritierend. Oder: z.B. den Hintergrund unscharf zu zeigen. Wenn wir aber dann den Hintergrund ansehen wollen (weil wir zum Beispiel selbst entscheiden wollen, was wir ansehen wollen) dann bleibt er unscharf. Das ist unnatürlich und irritierend. Die einzige Möglichkeit, die uns bleibt: nur mehr ganz genau das anzusehen, das man uns vorschreibt. So will ich Kino aber nicht sehen.

Wenns nur um den 3D-Effekt geht, halte ich mich an den alten View Master