If I had to name the single most frustrating aspect of internet browser usage experience it would be this: Why can’t you handle online documents like any other document in an application‽

I mean, come on: How hard can it be to just know that a browser tab may have unsaved changes (usually form input) and in that case just ask the user if he really is sure, that he wants to close the tab (or navigate away) without saving?

I think this is an atavism from the old times in the web, where a browser would just be used as a viewport for reading documents online. But those times are gone. And if you really want the user to switch to browser based apps, it would be a pretty important thing to make them behave and not destroy work.

It really annoys the crap out of me. Statistically I lose some work almost every day because of this idiosyncrasy. It just happens too often, that one closes the wrong tab or the whole browser accidentally. In case of a closed tab, sometimes a good browser lets you just undo the action and reopen the tab without any data loss. But this doesn’t always work; and never does if it’s the whole browser you quitted.

So please implement something like the security dialog which is found in almost every desktop application:

There are unsaved changes in this/some tab(s), are you sure, you want to close this/these tab(s)? Yes | No

It would in addition probably make sense to provide a standard compliant way to mark a document as having unsaved changes, aka being dirty for the cases where the editing is not done by just filling in form fields and the browser wouldn’t otherwise have a way of knowing about the changes.

Thank you!

(It may be that there are significant reasons that this has not been widely implemented. If so, I would be happy to learn about them.)


Addendum:

I was asked by @Johanstormarn, why I wouldn’t use a greasemonkey-script or other kind of extension/add-on to my browser.
Well: First of all, I don’t know of any such script. But more important: I do not think, that it is the users responsibility to provide such functionality. What we are seeing is a trend towards using the browser as os for apps. There hardware-APIs on the way. W3C is talking about accessibility and defining standards for webapps (local storage etc). So I think a fundamental standardized dirty-mechanism is not a too devious thing to ask for.
And @presroi told me, that any website could implement that on it’s own.
I don’t dispute the fact, that every website could build such a security question with javascript. But: I don’t know of any somewhat relevant site that does this. This suggests, that it either is too difficult/timeconsuming to do or the programmers just don’t give a damn (or don’t even recognize that there may be a problem). Additionally I do not think it would help user-experience, if a user first had to test, if a site does implement something like that and then had to rely on a possibly broken implementation (I really don’t think an average user would perform tests before writing a comment). In addition to that, it would not be standardized; moreover: the tab would habe to use js-dialogs, which are handled differently. And you can’t prevent someone from closing a tab regardless what javascript is saying. So I come back to the point above: Regarding the incline in webapps, this really should be standard browser behavior.
Dieser Text ist mir etwas wert:

Zu kurz gesprungen, Eric Schmidt

Montag, 16. August 2010

In Google and the Search for the Future im WSJ gibt es lesenswerte Einlassungen von Google-CEO Eric Schmidt zur Zukunft des Internets:

“Mr. Schmidt is surely right, though, that the questions go far beyond Google. “I don’t believe society understands what happens when everything is available, knowable and recorded by everyone all the time,” he says. He predicts, apparently seriously, that every young person one day will be entitled automatically to change his or her name on reaching adulthood in order to disown youthful hijinks stored on their friends’ social media sites.”

In der Tat dürfte fraglich sein, ob allen klar ist, was das Elefantengedächtnis des Netzes für uns in der Zukunft bedeuten wird. Denn Jahr für Jahr werden Menge und Aussagekraft der über uns verfügbaren Information genauso steigen wie die automatischen Aggregations- und Auswertungsmöglichkeiten dieser Daten — insbesondere unter dem Gesichtspunkt der sich selbst beschleunigenden technologischen Entwicklung (zum Themenkomplex Exponentialität und Technologische Singularität werde ich beizeiten auch mal ausführlicher schreiben).

Die obigen Aussagen von Eric Schmidt sind in der interessierten Öffentlichkeit als recht wagemutig aufgenommen worden, bemerkenswerterweise allerdings nur aufgrund ihrer — sagen wir mal — Unkonventionalität. Dabei beunruhigt mich weniger der Vorschlag an sich, als die Tatsache, daß offenbar auch der Google-Chef höchstselbst nur sehr unklare Vorstellungen über diese Zukunft hat. Ganz inbesondere läßt er (bewußt?) außer acht, daß eines der zentralen Privatsphären-Probleme der Zukunft eben nicht die plumpe namensbasierte Archivsuche sein wird. Diese ließe sich in der Tat vermutlich durch (ggf. mehrfache) Namens-/Identitästwechsel einigermaßen in den Griff kriegen, auch wenn dafür bisher kein gesellschaftlich-kulturelles Fundament besteht.

Die wichtigere und schwierigere Frage aber stellt und beantwortet Schmidt nicht: Was passiert mit den aus archiviertem und auswertbaren Aufmerksamkeits- und Geolokalisierungsdaten, Bild-/Ton- und Video-Material von Personen (siehe hierzu Gesichtserkennung: Normen vs. normative Kraft des Faktischen)?

Denn Nutzungs- und Bewegungsprofile lassen sich ebenso wenig mal eben austauschen wie vor allem unser Aussehen und unsere Stimme. Ich kann mir kaum vorstellen (aber vielleicht reicht da schlicht meine Imaginationskraft nicht), daß wir später alle paar Jahre rein prophylaktisch nicht nur unseren Namen ändern, sondern auch noch plastische Chirurgie an uns vornehmen lassen.

Es gilt also die Frage zum Umgang mit biometrischen und anderen (un-)mittelbar persönlichen/personenbezogenen Daten noch wesentlicher unter diesen Gesichtspunkten zu diskutieren. Vor allem erwarte ich von großen Datenaggregatoren aber natürlich auch von Datenschützern und Politik, daß sie sich mit diesen Fragen beschäftigen — und zwar in einem transparenten Verfahren. Bisher hat leider insbesondere die deutsche Diskussion zu StreetView & Co gezeigt, daß man Entwicklungen nicht bemerkt, bevor alles schon passiert ist. Daraus müssen wir dringend lernen!


Nachtrag: netzpolitik.org hat das Thema auch aufgegriffen und verweist auch auf Danah Boyds Ausführungen über den Aspekt des Reputationsverlusts.


Es dauert ganz schön lange, bis die deutschen News sowas aufgreifen:

Dieser Text ist mir etwas wert:

Es tut mir außerordentlich leid: Ich kann es nicht lassen, über das Thema Google Street View und die von Desinformation, Hysterie und Deutscher Angst geprägte Debatte zu bloggen. Diesmal aber mit potentiell konkretem pekuniären Mehrwert für alle First-Mover, nämlich einer ausbaufähigen Geschäftsidee, deren Grundzüge ich hier skizzieren möchte. Denn: „Nichts ist so schlecht, daß es nicht auch eine gute Seite hat“!

Meine Idee ist simpel, aber IMHO <eigenlob intensität=“heftigst”>mindestens grenzgenial</eigenlob>. Kurz gesagt ist die These, daß die Kohorte der StreetView-Gegner eine hochinteressante Zielgruppe ist. Und zwar nicht nur für gezielte gecrowdsourcete „Nachrüstung“ der StreetView-Bilder der von Google auf Basis eingereichter Widersprüche verpixelter/gelöschter Häuser, sondern weit darüber hinaus.

Ich gehe davon aus, daß Google seine Maps-API in Kürze um eine Funktion streetview.isvisible(address) erweitern wird (ich bitte, dies als Feature-Request zu verstehen), die für jede Adresse zurückliefert, ob das Haus dort erlaubterweise sichtbar ist oder nicht (sollte Google das Potential dieser Abfragemöglichkeit nicht sehen, dürfte diese mittels Bildanalyse iVm reversem Geocoding von der Community umgesetzt werden können, davon gehe ich mal aus).

[Einschub: Ich stelle gerade fest, daß man wohl über das Property GStreetviewData.code feststellen kann, ob für einen Position Daten verfügbar sind, habe das aber noch nicht intensiver angeschaut.]

Dann kann man gezielt alle Straßenzüge eines Zielgebietes darauf abprüfen und durch Kopplung diverser verfügbarer Adreßdatenbanken/Telefonbüchern eine Datenbank der SpießerStreetView-Verweigerer erstellen, um diese einzeln anschreiben/anmailen zu können. Hilfsweise könnte man an die Bewohner der Häuser eben nicht-individualisierte Quasi-Hauswurfsendungen schicken.

Ich gehe fest davon aus, daß eine ganze Reihe weitsichtiger Unternehmen hier sofort normes Potential entdecken. Denn diese Target-Group dürfte aufgrund spezieller Charakteristika hochinteressant sein. So darf man annehmen, daß die Zielgruppe besonders auf Sicherheit, Recht und Ordnung erpicht ist. Was für eine Chance für Rechtsschutzversicherungen! Und die Zielgruppe schaut möglicherweise zu einem Großteil den ganzen Tag aus dem Fenster, um Falschparker anzuzeigen — hier kann man also hervorragend Kameras zur Beweissicherung vermarkten. Ganz abgesehen natürlich von dem hohen Bedarf an Alarmanlagen, der hier generiert werden könnte (insb. wenn man zeitgleich die Daten gewissermaßen als Add-On zu http://pleaserobme.com verfügbar macht. Auch Schneider könnten davon profitieren. Warum? Weil Pro-StreetView-Papst denjenigen, die ihr Haus nicht in der Öffentlichkeit zeigen wollen nicht zu Unrecht rät, dann doch einfach eine Burka drüberzuwerfen (übrigens eine wertvolle facettenreiche großartige Analogie). Usw. usf. — ihr seht, man muß es nur weiterdenken!

Dieser Text ist mir etwas wert:

Link-Dump zu Google Street View

Donnerstag, 12. August 2010

Aus meiner Sicht ist der Umgang mit Google Street View ein Lackmustest für die Zukunftsfähigkeit und ein pointiertes pars-pro-toto für die Qualität (?) des öffentlichen Diskurses. Weitere eigene Ausführungen erspare ich mir hier an dieser Stelle. Wer mag, kann gern meine Blog-Beiräge dazu nachlesen:

Anbei habe ich mal einen kleinen Link-Dump zur Debattenlage angefangen, den ich vermutlich die nächsten Tage noch etwas erweitern werden. Was mich bei vielen unten aufgeführten Contra-Beiträgen erschrickt, ist die Melange aus Uninformiertheit, non-disclosed Eigeninteressen (Rache der Verlage für Google News? Daseinsberechtigungsrechtfertigungsversuche von Datenschutzbehörden, politischer Populismus) bis hin zu Antikapitalismus und das Klima der diffusen Angst, welches durch teils fast schon demagogische Verkürzungen, Falschdarstellungen und Insinuierungen erzeugt wird. Leider verstärkt sich der negative Effekt auf die breite Bevölkerung noch durch einigermaßen suboptimale Öffentlichkeitsarbeit seitens Google („hörenswert“ sowohl in diesem Zusammenhang wie auch hinsichtlich der krassen Fehlinformationen in der Bevölkerung der der WDR5-Beitrag mit Google-Pressesprecherin Lena Wagner). Insgesamt ist die Diskussion ein lebendiges Beispiel warum dieses Land immer mehr den Anschluß an die Zukunft verliert.

Viel Spaß bei der Lektüre. Wenn ihr ergänzende Fundstücke habt: Immer her an mich! Danke!

Dieser Text ist mir etwas wert:

Wave gestrandet — wird Google kurzatmig?

Donnerstag, 5. August 2010

Als ich eben in meinen Feeds die Meldung Google Halts Wave Development, Shutting It Down By End of Year las, konnte ich zunächst nicht glauben, daß Google sein revolutionäres Produkt Wave einstellt. Hier die offizielle Meldung: Update on Google Wave.

Google Wave war ein ambitioniertes Experiment: Es war gedacht als Kommunikationsplattform der nächsten Generation, sollte Mail, Chat/Messenger, Foren und Wiki gewissermaßen kombinieren. Ich hatte lange auf ein solches Tool gehofft, muß aber zugeben, daß ich Wave nicht so häufig und intensiv genutzt habe, wie ich vorher gedacht hätte. Zum einen dauerte es sehr lange, bis nennenswerte Nutzerzahlen für den Test freigeschaltet wurden. In der ersten Phase von Wave, wo ich die Developer-Sandbox genutzt hatte, kannte ich nur mich und meinen Testaccount; danach wurde es langsam mehr, aber eine kritische Masse wurde nicht erreicht. Insofern ein Henne-Ei-Problem: Solange nicht genug Leute das Teil nutzen, nutzt man es selbst auch nicht.

Insofern rächt sich auch die Inkonsequenz von Google, Wave nicht direkt mit den korrespondierenden Diensten wie Mail, Chat und Groups enger zu verzahnen, gewissermaßen deren Nutzer vorsichtig zu Wave überzuleiten. Das wäre auch ein Signal gewesen, daß Wave wirklich als langfristiges Produkt ausgelegt ist. Denn warum sollte ich meine Kommunikation in einen Dienst verlagern, von dem ich nicht wissen kann, ob er in einigen Monaten noch existiert und bei dem ich keine brauchbare Möglichkeit habe, meine dort erzeugten Daten zu sichern (eine Skepsis, die nun auch noch bestötigt wird).

Insofern bin ich recht enttäuscht und auch überrascht, daß Google hier keinen langen Atem beweist. Gerade angesichts obiger Aspekte (hinzu kommen Kinderkrankheiten, suboptimales Frontend und fehlendes Rechtemanagement) und unter Berücksichtigung der revolutionären Ansätze hat Google hier meines Erachtens (jedenfalls nach meinem jetzigen Kenntnisstand) einen enormen Fehler begangen, das Projekt in dieser Form einzustampfen.

Ich hoffe sehr, daß diese Kurzatmigkeit sich bei Google nicht verschlimmert. Schon bei Buzz mußte man recht erratisches Spontanmanagement zur Kenntnis nehmen. Und bei Orkut, FriendConnect und Latitude hat Google auch nicht unbedingt eine überzeugende Figur gemacht. Weiß die linke Hand dort nicht, was die rechte tut? Gibt es unternehmensintern dort zu wenig strategische Abstimmung? Oder kam Wave einfach nur zu früh, war die Welt darauf noch nicht vorbereitet? Vielleicht hat Google CEO Eric Schmidt ja recht, wenn er heute bei anderer Gelegenheit sagt: “People Aren’t Ready for the Technology Revolution”.

Die Frage ist: Is Google ready for the Technology Revolution?


Siehe auch:

Dieser Text ist mir etwas wert:

Vor kurzem hatte ich folgenden Blog-Eintrag geschrieben: Was fehlt: Qualitativ ausdifferenziertes Soziales Meta-Netzwerk. Dank eines Tweets von Jens Best wurde ich aufmerksam auf die Story Google Me: Mitarbeiter enthüllt erste Details, in der auch die unten angezeigte ausführliche und sehr lesenswerte Präsentation The Real Life Social Network v2 des Google-User-Experience-Researchers Paul Adams eingebettet war.

Die Präsentation ist sowohl für Profis als auch Neulinge im Bereich Sozialer Netzwerke m.E. Pflichtlektüre; sie geht auf Schwachstellen und Erfordernisse hinsichtlich einer zeitgemäßeren Online-Repräsentation von persönlichen Netzwerkstrukturen ein und deutet an, wo die Fahrt hingehen könnte — auch wenn ich nach wie vor einige Aspekte zu wenig berücksichtigt finde (angefangen bei der Erforderlichkeit einer simplen Grundeinstellung, damit beispielsweise neu hinzugefügte Kontakte nicht per Default potentiell kompromittierende (möglicherweise Jahre) alte Einträge einsehen können bis hin zu halb- oder gar vollautomatischer Metrik hinsichtlich der Intensität und des Types einer Verbindung).

Da mich das Thema jedenfalls fasziniert, habe ich mir sicherheitshalber sofort auch das im August erscheinende Buch von Paul Adams Social Circles: How Offline Relationships Influence Online Behavior and What It Means for Design and Marketing (Voices That Matter) vorbestellt… :-)

Als kleine Ergänzung empfehle ich von Philip Banse in der heutigen Breitband-Sendung „Facebook-Killer? Spekulationen um Googles Social Network“ den drk_20100717_1442_991aa7de.mp3 . Man darf — unabhängig von der Frage, ob/was Google in diesem Segment plant und umsetzen wird — auf die weiteren Entwicklungen gespannt sein. Nach meiner Einschätzung droht Facebook mittelfristig (wenn es nicht die Kurve kriegt) am eigenen Erfolg zu scheitern, da die Wehklagen über schwierige Bedienbarkeit und intransparente Einstellungen zum Persönlichkeitsschutz zunenehmen, während gleichzeitig die Anforderungen an individuell präziserer Sichtbarkeitssteuerung von Daten angesichts stark steigender Nutzerzahlen immer komplexer und dringlicher werden und Facebook dieses Problem meines Erachtens nicht hinreichend ernst nimmt bzw. es nicht konsequent und schnell genug angeht. Schau’n mer mal…

Dieser Text ist mir etwas wert:

Soeben erfuhr ich bei der Lektüre der Stormarn-Beilage des Hamburger Abendblatts: Bargteheide-Land will wissen, wie langsam das Internet wirklich ist — Amt hat E.on Hanse beauftragt, eine Analyse zu erstellen (Paywall durch First-Click-Free via Googe-Suche umgehen).

Das Amt reagiert nun auf die Unzufriedenheit der Bürger und die vielen Anfragen nach einer besseren Internetversorgung. Die Verwaltung hat den Strom- und Erdgasversorger E.on Hanse mit der Erstellung einer Machbarkeitsstudie beauftragt. Das Unternehmen wird prüfen, wie noch bestehende Lücken bei der Internetversorgung im gesamten Amtsgebiet geschlossen werden können.

Dazu gibt es zum einen folgenden Fragebogen, den Bürger/Unternehmen bis zum 27.08.2010 absenden können; ferner sollen die Bürgermeister Auskunft hinsichtlich gemeindespezifischer Bandbreiten-Anforderungen (beispielsweise bzgl. Gewerbegebieten) geben und es werden 30 Internet-Diensleister befragt.

Ich möchte festhalten, daß ich in der Tat mit Blick auf technische digitale Spaltung zwischen Stadt und Land grundsätzlichen Optimierungsbedarf hinsichtlichtlich der Breitbandversorgung sehe und daher alle Maßnahmen, die zur Verbesserung der Situation geeignet sind, begrüße und unterstütze.

Etwas schade finde ich, daß ausgerechnet der Fragebogen qualitativ nicht das hergibt, was er könnte und meines Erachtens müßte. Folgende Aspekte fehlen aus meiner Sicht:

  • Es fehlt die wichtige Frage, welchen Upstream-Bandbreite man hat und welchen man erwünscht/benötigt (Upstream ist zB für Webentwickler/Medienkleingewerbe kampfentscheidend, nicht Downstream).
  • Es fehlt die Frage, ob man eine feste IP braucht (ausgerechnet die teilweise ja vorhandenen schnellen Anbieter wie KabelDeutschland bieten das nicht; feste IPs sind aber für Unternehmen sehr wichtig).
  • Es wird zwar gefragt, welche Downstream-Bandbreite man hat; aber gerade bei Kabel-Kunden ist es so, daß aufgrund der technischen Rahmenbedingungen die nominelle Bandbreite und die reale teils stark voneinander abweichen (ich habe z.B. nominell 32 MBit/s Downstream und 2 MBit/s Upstream; aber der Anschluß erreicht faktisch aufgrund Bandbreitenteilung mit anderen nur ca. 8-1 down); würde ich also meine nominelle Bandbreite “>16” ankreuzen, entspräche das nicht meiner faktischen Bandbreite.

Unabhängig davon hoffe ich, daß der Bedarf nicht nur auf konkreten Fragebogenantworten basierend berechnet wird, da ich mir nicht sicher bin, ob alle Umfrageteilnehmer wirklich abschätzen können, wie sich die Bandbreitenerfordernisse in Zukunft entwickeln werden (siehe auch meine Ausführungen zu Breitband im Bericht vom JU-Deutschlandrat) bzw. wissen, was in unmittelbarer Nähe in Bargteheide bereits für Bandbreiten verfügbar sind oder werden usw.

Mich würden nun zum einen Infos von „Lesern auf dem Land“ :-) interessieren, wie vor Ort mit der Thematik umgegangen wird , zum anderen natürlich gern allgemeine Rückmeldungen zur Thematik. Ich bin gespannt.

Dieser Text ist mir etwas wert:

The Web is Agreement

Donnerstag, 15. Juli 2010

Ich habe mir überlegt, gelegentlich ein paar (gar nicht zwingend brandaktuelle) Dinge zu posten, die vielleicht in die Kategorie Inspiration/Serendipität fallen. Ein schönes Fundstück, das schon seit Jahren großformatig ausgedruckt an meiner Bürowand hängt, ist “The Web is Agreement” von Paul Downey. Wenn man es in Ruhe betrachtet, wird es zum Quell freier Assoziationsströme. Bei jedem Betrachten eröffnen sich neue Perspektiven. Schaut selbst (unbedingt auch die flickr-Version mit Tag-Map anschauen; weitere Links dazu auf thewebisagreement.com; Material ist CC):

Dieser Text ist mir etwas wert:

Gerade habe ich mir mal wieder ein paar Minuten Zeit genommen, um meine geöffneten 2read-Tabs „wegzulesen“. Darunter ein Interview in der Welt mit Annabella Weisl, ihres Zeichens “Strategic Partner Manager Google Book Search” mit der — wie ich finde recht niedlichen — Überschrift „Am Strand wird sich das Taschenbuch bewähren“.

Das Interview gibt wenig Neues her — im Prinzip wird eigentlich im Wesentlichen erklärt, was Google Books ist und welche Implikationen es für Bibliotheken und Verlage hat. Dabei wird auch auf die bekannte unterschiedliche Zugänglichmachung von gemeinfreien Werken und Büchern aus dem aktuellen Verlagsprogramm eingegangen:

Bei uns ist kein einziges Buch eines urheberrechtlich geschützten Titels ohne die ausdrückliche Genehmigung des Rechteinhabers vollständig einsehbar. Man kann allenfalls hineinschauen, um sich einen Eindruck zu verschaffen.

Offenbar war diese ganze Thematik aber für Jacques Schuster, der das Interview führte, wohl zu neu oder unübersichtlich, so daß er sich folgende, eine bedrohliche Uninformiertheit offenbarende, Frage stellte (die Frau Weisl höflich aber intern sicher kopfschüttelnd beantwortet hat):

WELT ONLINE: Kommen wir noch einmal zum Stand der Digitalisierung. Bei meiner Recherche habe ich festgestellt, dass manche eingescannten Bücher im Grunde unleserlich sind, weil immer wieder Seiten fehlen und man oft den Inhalt des Buches gar nicht mitbekommt.

Annabella Weisl: Wenn Seiten fehlen, dann werden Sie wahrscheinlich in Büchern aus dem Verlagsprogramm geblättert haben. Wir wollen Ihnen aus diesem Bereich nur eine Kostprobe bieten. Sie sollen entscheiden, ob Sie das Buch kaufen wollen oder nicht. Gesamte Inhalte eines Buches zeigen wir nur bei gemeinfreien Büchern.

Oder habe ich nur hochdidaktische und geschickt getarnte Maieutik übersehen? Ich glaube nicht…

Es sind dies solche Sachverhalte, die einen an dem vorgeblichen Qualitätsjournalismus zweifeln lassen. Internetkompetenz oder zumindest eine gewisse Recherche und Vertrautmachen mit dem Thema scheinen dort als obsolet eingestuft zu werden (vielleicht weil man meint, daß man sowieso von allem genug Ahnung hat, da man Qualitätsjournalist ist?). Es ist dieselbe Kategorie wie das Reinfallen auf Twitter-Fake-Accounts. Es zeigt, daß man Funktionsweisen und Mechanismen der betrachteten Dienste nicht erfaßt, seine Hausaufgaben nicht gemacht hat.

Schlimmer: Solche Fehler sind von jedem Wissenden (iSv Menschen, die ihre Internetsphäre verstanden haben) sofort zu entlarven und befördern daher die Annahme oder Extrapolation, daß nämlich der Qualitätsjournalismus (der ja letztlich als Begründung für das Leistungsschutzrecht herhalten soll) ein Fall für die rote Liste bedrohter Medienbiotope ist.


In lockerer Folge blogge ich hier kurze Notizen zum Qualitätsjournalismus, siehe auch Teil 1 und Teil 2.

Dieser Text ist mir etwas wert:

Unter der Überschrift „Gesichtserkennung: Machen, was machbar ist?“ fragt @Johanstormarn:

„Datenschutz ist ein wichtiges Thema, aber es ist absehbar, dass die Macht des Möglichen den Datenschutz in der heutigen Form außer Kraft setzen wird. Wenn also die normative Kraft des Faktischen zuschlagen wird, warum dann nicht heute schon den Nutzen nutzen?“

Dieselbe Frage habe ich mir auch schon gestellt (siehe in diesem Zusammenhang Lächerliche Lex Google: OpenLiveStreetView3D wird kommen und Laßt uns über die wirklichen Probleme reden…).

Hinsichtlich der Frage, warum Google zwar (selbstverständlich) technisch über hochwertige Bilderkennungstechnologie verfügt, diese Endnutzern auch via Picasa verfügbar macht, sie aber bei Diensten wie Google Goggles bewußt unter Hinweis auf Datenschutzproblematiken nicht aktiviert, vermute ich, daß insb. Google nach den Erfahrungen mit zunehmender Problematisierung seiner (All)macht (Krake, Analytics, StreetView, unameit) neue Funktionalitäten vermutlich nicht mehr ganz so blauäugig-naiv-technobegeistert aktiviert, weil es weiter am “don’t be evil”-Slogan zehren würde. Sprich: Google verzichtet derzeit schlicht darauf, sich noch intensiver ins Visier von Datenschützern und Politik zu befördern.

Aber natürlich ist es nur eine Frage der Zeit, bis Google Gesichtserkennung im großen Stil implementieren wird. Ohnehin sollte man klar und deutlich sagen: Professionelle Gesichtserkennung ist jetzt ja schon für jeden machbar. Zum einen kann man mit Picasa sein eigenes Bildarchiv in kürzester Zeit scannen lassen; zum anderen wird aber niemand davon abgehalten, beispielsweise gezielt Websites, Feeds oder seinen Social Graph (bzw. darüber zugängliche Alben) automatisiert auszulesen und erkennen zu lassen — entweder durch Nutzung einer lokalen Picasa-Software quasi als Proxy (was angesichts der simplen Datenhaltung in picasa.ini-Dateien trivial ist) oder durch Nutzung von APIs wie der von face.com.

Wir sind also ohnehin auch hier an einem Punkt, wo schon jedem Einzelnen ganz erhebliche technologische (und kostenlose oder zumindest relativ extrem billige) Möglichkeiten zur Verfügung stehen (Möglichkeiten von denen Polizeien, Geheimdienste & Co vor ein paar Jahren noch geträumt haben). Und wenn es ohnehin jeder, also nicht nur Big Player, im großen Stil machen kann, stellt sich eben die Frage, was andere davon noch abhält und warum man sich nicht (fatalistisch?) dem Unausweichlichen ergibt.

Und der nächste Schritt ist ja auch absehbar: Es wird (falls es das nicht sogar schon gibt) sich ein Datenaustauschformat für Gesichts-/Personencharakteristika (denn bei reiner Gesichtserkennung wird es nicht bleiben: Mit mehr verfügbaren Daten (also Bild-/Video-/Tonmaterial sowie Zusatzinformationen (Social Graph, Lebenslauf-Daten aus Profilen, persönliche Routinen (Geo-Infos)) die die statistischen Erkennungswahrscheinlichkeiten verbessern) werden immer mehr Erkennungsmöglichkeiten kommen) etablieren, quasi Personenfingerprinting. In einer kleinen XML- oder JSON-Datei wird dann kompakt die mathematische Kodifizierung der Erkennungsparameter einer Person sein (so wie die biometrischen Merkmale eines Ausweises).

Wir landen also immer wieder bei einer Fragestellung: Wie gehen wir damit um, daß heutzutage Individuen Möglichkeiten haben, die früher weder technisch, noch kapazitativ oder finanziell selbst von Staaten nicht umgesetzt werden konnten? Wie soll ein deutsches Datenschutzrecht, daß primär auf Unternehmen und logischerweise auf nationale Regulierung zugeschnitten ist, auch nur ansatzweise noch wirksam sein können? Wie klar sind sich Politik und Gesellschaft in der Breite dieser Problematik bewußt?

Es mag zwar unbefriedigender Kontrollverlust für alle Beteiligten sein, aber ich fürchtevermute ähnlich wie Johan, daß die normative Kraft des Faktischen den Großteil der Diskussion schnell verobsoletieren wird. Ich sehe kaum ernsthaft umsetzbare Vorschriften, die die sich exponentiell beschleunigende Entwicklung in den Griff bekommen könnten, da der systemimmanente Gesetzeslag und die sich zwangsläufig ergebenden Vollzugsdefizite stetig größer und nicht kleiner werden werden.

Mein Leitmotto in diesem Zusammenhang ist:

„Herr, gib mir Gelassenheit,
Dinge hinzunehmen, die ich nicht ändern kann,
den Mut, Dinge zu ändern, die ich ändern kann,
und die Weisheit, das eine vom anderen zu unterscheiden.“

Ich für meinen Teil werde versuchen, zu akzeptieren, daß bestimmte Entwicklungen kommen werden. Und ich werde diese dann nicht sinnlos verzögern wollen, sondern stattdessen die sich daraus ergebenden Chancen nutzen und helfen, die entstehende Risiken zu minimieren. Es ist eine gesellschaftliche Aufgabe, diesen Wandel positiv mitzugestalten, der Technophobie keinen Vorschub zu leisten, sich den Herausforderungen mit positiver Grundhaltung zu stellen. Wir werden nicht drumherumkommen!


Nachtrag: Siehe auch Netzwertig: Technischer Fortschritt - heißes Eisen Gesichtserkennung.

Dieser Text ist mir etwas wert:
« vorherige Seite   (Seite 2 von 5, insgesamt 43 Einträge) » nächste Seite