spd.de — Achtung: Augenkrebs-Alarm

Freitag, 2. Dezember 2011

Schön ist was anderes…
So sieht also ein „Startschuß für Regierungsübernahme“ aus. Und zwar primär Purpur, wenn es nach der SPD geht, die gestern ihren Internetauftritt neu gestartet hat. Ok, Frau Nahles nennt es „die neue und moderne Sekundär-Farbe Purpur“ und behauptet tapfer, diese stehe für Frische und Selbstbewußtsein“. Na denn.

Fest steht: Ein gesundes Selbstvertrauen braucht man schon, wenn man mit der Farbkombination rot-lila in den Kampf ziehen will. Ich jedenfalls twitterte gesten schon: Rot und purpur? Ernsthaft‽.

Meine Vermutung ist ja, daß der zuständige Designer farbenblind war oder vergessen hat, seinen Monitor zu kalibrieren… ;-) Andererseits darf man wohl annehmen, daß eine solch gruseligeauffällige Farbe nicht aus Versehen zustande gekommen ist. Sprich: Man hat sich etwas gedacht. Vielleicht wollte man um jeden Preis auffallen und ins Gespräch kommen? Das jedenfalls wäre gelungen. Oder ist es ein verfrühtes Koalitionsangebot an die optisch häufig farblich ähnlich repräsentierte Linke? Oder will man sich nur bei der Frauenbewegung anbiedern? Man weiß es nicht und grübelt. Und ja: Natürlich kann man meckern, daß eine Diskussion um eine Corporate-Design-Farbe oberflächlich ist. Aber wie gesagt: Man muß sich etwas Gedacht haben und laut Wiki gehören nicht Frische und Selbstbewußtsein zu den Farbassoziationen, sondern es werden Begriffe gelistet wie Lithurgie, Spiritualität und Unbefriedigt. Frau Nahles jedenfalls scheint die Farbwahl zu gefallen.

Lesenswert in diesem Zusammenhang das Designtagebuch: Bei der SPD ist der Würfel gefallen. Dort sind auch sehr spannende Kommentare zu finden :-)

Was den Würfel angeht: Daß der vormals etwas orientierungslos im Raum schwebende 3D-Würfel nun verschwunden ist, darf als überfällig bewertet werden. Die jetzige Platzierung jedoch wirkt allerdings nicht wesentlich weniger orientierungslos schwebend. Einfach so ohne Halt durch die Struktur in die Mitte geworfen — soll auch das eine politische Aussage sein?

Auf die Technik möchte ich jetzt nicht groß eingehen, wie ich es unter „der CDU ist nicht zu helfen“ getan habe. Nicht, weil die Seite technisch besser wäre (eher im Gegenteil, wie auch Johan andeutet), sondern weil ich meiner Partei gern kostenlos Tips zur Verbesserung des eigenen Auftritts gebe, nicht aber politische Mitbewerber pro bono beraten möchte. Ich bitte um Verständnis.

Was für ein Quellcode!

Dennoch möchte ich ein paar Worte dazu loswerden: Ob man wirklich ein Layout auf 1280 Pixel konzipieren sollte, darf bezweifelt werden. Daß man den Relaunch nicht zum Einsatz von HTML5 genutzt hat, ist ein anderer suboptimaler Punkt. Sehr heftig finde ich, daß die Seite sportliche >150 Requests macht. Wenn man sich dann noch die Seitenlänge und Struktur anschaut (hier verkleinert), kann man nur den Kopf schütteln. Überfrachtet, unübersichtlich, man wollte alles unterbringen, was man irgendwie einbauen konnte. Dabei sollte man doch gerade in der Politik wissen, daß die Kunst darin besteht, Prioritäten zu haben, klare Aussagen zu treffen und nicht ein Catch-All-Sammelsurium von Inhalten zu produzieren. Nun denn, die SPD muß selbst wissen, womit sie glücklich wird. Der Nutzer der Seite wird es jedenfalls mit Sicherheit nicht.

Nachtrag 05.12.2011: Purpur-Blabla des neuen SPD-Designs

Dieser Text ist mir etwas wert:

Dramatically delayed Deutscher Datenschutz

Dienstag, 25. Oktober 2011

Ob Social-Media-Plugins nun gut oder böse sind, mag jeder für sich selbst beantworten. Aber Henning Tillmann zeigt einmal mit einer simplen Beispielgrafik auf, daß die zugrundeliegende Problematik viel älter und fundamentaler ist. Deutscher Datenschutz aus dem Großrechnerzeitalter paßt jedenfalls nicht in dieses Jahrtausend. Und vielleicht spricht sich das auch bei den Entscheidern früher oder später mal rum…

PrivacyImg - Ein interaktives Beispiel. Konfiguration ueber http://tilli.me/privacyimg

Erläuterungen und weitere Infos zu obiger Grafik und dem durch sie ausgelösten Tracking findest Du auf: Der Facebook-Like-Button oder: das Datenschutzproblem seit 20 Jahren (PrivacyImg)


P.S.: Drüben bei @orte_im_norden gibt es auch einen schönen Artikel zu dem Thema unter dem bezeichnenden Titel Amish People des globalen Dorfes.

Dieser Text ist mir etwas wert:

Mensch Leute, wer braucht noch Ionenkanonen wie LOIC‽ Solche Tools sind doch quasi nur Rudimentär-Rootkits von gestern, mit denen sich Skript-Kiddies wichtig machen wollen.

Ich hatte schon vor ein paar Jahren (damals mehr im Scherz) in einer kleinen netzpolitischen Diskussionsrunde vorgeschlagen, diesen ganzen Haktivismuskrams mal solide zu abstrahieren und dann softwaretechnisch auf universellere Beine zu stellen, um die ganze Sache damit auf breitere Beine zu stellen — insbesondere, damit es die ganzen Armchair-Activists in ihrem verblendeten Eifer und Einsatz für die jeweils gerade trendige gute Sache endlich etwas einfacher haben.

Nun ist es vermutlich angesichts der chronischen Probleme bei öffentlichen IT-Projekten keine gute Idee, wenn ich die Bundeszentrale für politische Bildung auffordern würde, analog zum Wahl-O-Mat (der ja auch schon die Wahlentscheidung pisakonform auf ein paar simple Checkboxes reduziert) den Hack-O-Mat programmieren zu lassen :-) Aber die Hoffnung dürfte berechtigt sein, daß sich ein paar kluge Geister finden, die das Teil im Rahmen eines Open-Source-Projektes zusammenbosseln.

Folgende triviale Funktionalität sollte die Software erfüllen:

  • Teilnahme an Umfragen, Unterschriftenlisten und Petitionen im Netz
  • Liken und Teilen von Beiträgen auf Facebook
  • (Re)-Tweeten via Twitter
  • Spamming Individualisiert-differenzierte Meinungskundgabe via Email und Abgeordnetenwatch
  • Selbstjustiz DDoS-Attacken gegen unliebsame Netzteilnehmer
  • Und das alles natürlich OS-agnostisch (gern auch lokal browserbasiert, quasi als Web-App) sowie für iPhone und Android, modular konzipiert und damit durch Plugins/Extensions erweiterbar.
  • Ergänzend gern eine Version zur unbeaufsichtigten Verteilung und zum verdeckten Betrieb auf allen Workstations in Unternehmens- und Behördennetzen zur Power-Potenzierung
  • Weitere Ideen & Anregungen für das Pflichtenheft gern in den Kommentaren

Wie bei Amazons Mechanical Turk könnten dann Auftraggeber HITs (Hack-O-Mat Insurgence Tasks) definieren und diese als Nutzer manuell oder auf Profilbasis halb- bis vollautomatisch auswählen und ausführen lassen — und das Ganze wie bei Seti aus Idealismus oder gern auch gegen Zahlung (bzw. bei Parteien und gemeinnützigen Organisationen gegen Spendenquittung).

Wie bei anderen Aktionen dieser Gattung lassen wir sicherheitshalber Moral & Ethik aus dem Spiel. Ein bißchen Digitaldarwinismus hat ja noch nie geschadet (nicht vergessen: Es geht schließlich immer noch um die gute Sache und da soll gern das Recht des StärkerenDummdreisteren gelten) und eventuelle Kollateralschäden für Unbeteiligte sind eben nur das: Kollateralschäden.

Weiter so, digitale und gesellschaftliche Avantgarde!

Sarcasm off und ein herzliches SCNR — denn das mußte mal gesagt werden. (und jetzt möge der Shitstorm gegen mich bzw. die DOS-Attacke gegen meinen Server losgehen — mit dem Rosa-Luxemburg-Spruch „Freiheit ist immer Freiheit der Andersdenkenden“ und seinen Implikationen auf konkretes Handeln (oder dem kategorischen Imperativ) haben ja leider erstaunlich viele ihre praktischen Probleme…)

Dieser Text ist mir etwas wert:

Da sich eben eine kleine Diskussion ergab, hier mal eine Umfrage, wie ihr das seht:


Für mich persönlich bedeutet das Posten eines Links oder Retweets übrigens weder automatisch noch latent Zustimmung, sondern lediglich, daß ich die entsprechende Information für meine Follower von Interesse/Relevanz halte. Vielleicht sollte ich eine entsprechende AGb für meinen Twitter-Account schreiben und aus dem dortigen Profil verlinken…

Dieser Text ist mir etwas wert:

Vorgestern berichtete Techcrunch über eine kleine aber relevante Änderung der Allgemeinen Geschäftsbedingungen für die Google Contaces API (Techcrunch: “Google To Facebook: You Can’t Import Our User Data Without Reciprocity”, siehe auch heise: Google dreht Facebook den Datenhahn zu).

Und zwar erlaubt Google künftig nur noch solchen Diensten und Anwendungen Zugriff auf die Kontaktdaten eines Nutzers über die API, wenn diese ihrerseits vergleichbare Daten vergleichbar zugänglich machen. Ohne Reziprozität kein automatischer Datenaustausch, so die Botschaft:

5.8. Google supports data portability. By accessing Content through the Contacts Data API or Portable Contacts API for use in your service or application, you are agreeing to enable your users to export their contacts data to other services or applications of their choice in a way that’s substantially as fast and easy as exporting such data from Google Contacts, subject to applicable laws.

Nicht zu Unrecht hat diese Maßnahme einige Diskussionen im Netz angestoßen. Markus Spath (@hackr) sieht darin (so ein Kommentar im Blog von Kristian Köhntopp (@isotopp) den Übergang von einem Handeln nach einer impliziten Ethik zu einem (natürlich ethisch begründeten) Handel und ist beunruhigt:

[…] beunruhigender: Google erweist sich als erratisch. Bis dato konnte man Google mit etwas gutem Willen immer unterstellen, nach bestimmten Prinzipien und mit einer bestimmten Moral ausgestattet zu handeln. Dass ihnen dieses Handeln in der Folge auch immer selbst zugute kam, konnte als positiver Nebeneffekt beschrieben werden. Wenn sie aber beginnen diese Prinzipien dort zu verklausulieren, wo sie ihren unmittelbaren Vorteil plötzlich nicht mehr sehen oder um Druck auf einen Konkurrenten auszuüben (auch wenn das motiv nachvollziehbar ist), dann bedeutet das, dass man ihnen alles zutrauen kann.

Kristian Köhntopp weist allerdings auf den entscheidenden Punkt hin:

Google schneidet den Endbenutzer nicht von seinen Daten ab, er kann sie immer noch selber absaugen und wo anders hin schleppen. Google erlaubt auch die direkte Interoperation und den Datentausch mit anderen Diensten - wenn diese ebenso kooperativ sind und Daten austauschen. Dadurch trennt Google die kooperative von der kompetiven Sphäre, und das ist für eine friedliche Koexistenz der beiden Bereiche notwendig. Tut man das nicht, bekommt man ‘tragedy of the commons’-Probleme.

Sprich: Google hat hier eine Grundsatzentscheidung getroffen und strategische Ausrichtung vorgenommen, die für die weitere Entwicklung im Netz von wegweisender Bedeutung sein wird. Und dies kommt letztlich nicht überraschend. Denn seit längerem setzt Google sich für Datentransparenz und -portabilität ein, so z. B. im Rahmen der Data Liberation Front (@dataliberation):

Users should be able to control the data they store in any of Google’s products. Our team’s goal is to make it easier to move data in and out.

Durch Bestehen auf Gegenseitigkeit handelt Google meines Erachtens gerade nicht erratisch. Nein, diese Entscheidung fügt sich sehr genau in die bisherigen Verhaltensweisen ein und zwingt Facebook (welches ja seinerseits einfach mal den Nutzerabgleich mit Twitter geblockt hatte), Farbe zu bekennen: Wie steht Facebook zu grundlegenden, das Netz konstituierenden Prinzipien wie Offenheit und Interoperabilität? Wird Facebook weiterhin Netzwerkeffekte nur egoistisch als Einbahnstraße sehen und seinen Walled Garden bzw. Closed Shop mit maximalem User-Lock-In festigen? Oder wird es sich öffnen? Man darf sich fragen, ob dieser Schritt nicht möglicherweise ohnehin ein wenig zu spät ist angesichts seiner Dominanz und netzwerkeffektbasierten Sogwirkung.

Michael Arrington jedenfalls sieht einen Datenhandelskrieg heraufziehen (Data Protectionism Begins In Earnest):

But here’s the very worst part of protectionism. If you start it, you can expect the other side to start it too. That’s when you get what’s called a trade war, and lots of potential economic gain evaporates.

Meines Erachtens trifft zwar das Bild vom Handelskrieg um Daten zu. Nur findet dieser Krieg zum einen schon lange statt und zum anderen ist es ja gerade nicht nicht Google, welches Daten-Protektionismus gestartet hat. Am Ende stellt sich doch die Frage, welche Haltung netzadäquater ist und welche Mechanismen die spezifischen emanzipatorischen und partizipativen Eingenschaften, Möglichkeiten und Chancen des Netzes gewährleisten. Google scheint sich der Verantwortung aus dieser Herausforderung bewußt und hat sich entschlossen, Vorbild zu sein und mit gutem Beispiel voranzugehen. Natürlich tut es dies auch aus unternehmerischem Interesse. Aber daß Geschäftsinteressen hier weitgehend deckungsgleich mit Nutzerinteressen sind, kann man schwerlich zum Vorwurf erheben. Vielmehr sagt es auch aus: Seht her, wir wollen offen sein. Wir haben den Mut und die Souveränität, den Nutzer nicht zu fesseln und zu knebeln. Wir wollen uns das Vertrauen des Nutzers stattdessen täglich neu erkämpfen, stellen uns dem Wettbewerb und gehen das Risiko ein, daß er sich abwendet und seine Daten mitnimmt. Man darf nur hoffen, daß viele Netzakteure sich an dieser Haltung ein Beispiel nehmen.

Dieser Text ist mir etwas wert:

If I had to name the single most frustrating aspect of internet browser usage experience it would be this: Why can’t you handle online documents like any other document in an application‽

I mean, come on: How hard can it be to just know that a browser tab may have unsaved changes (usually form input) and in that case just ask the user if he really is sure, that he wants to close the tab (or navigate away) without saving?

I think this is an atavism from the old times in the web, where a browser would just be used as a viewport for reading documents online. But those times are gone. And if you really want the user to switch to browser based apps, it would be a pretty important thing to make them behave and not destroy work.

It really annoys the crap out of me. Statistically I lose some work almost every day because of this idiosyncrasy. It just happens too often, that one closes the wrong tab or the whole browser accidentally. In case of a closed tab, sometimes a good browser lets you just undo the action and reopen the tab without any data loss. But this doesn’t always work; and never does if it’s the whole browser you quitted.

So please implement something like the security dialog which is found in almost every desktop application:

There are unsaved changes in this/some tab(s), are you sure, you want to close this/these tab(s)? Yes | No

It would in addition probably make sense to provide a standard compliant way to mark a document as having unsaved changes, aka being dirty for the cases where the editing is not done by just filling in form fields and the browser wouldn’t otherwise have a way of knowing about the changes.

Thank you!

(It may be that there are significant reasons that this has not been widely implemented. If so, I would be happy to learn about them.)


Addendum:

I was asked by @Johanstormarn, why I wouldn’t use a greasemonkey-script or other kind of extension/add-on to my browser.
Well: First of all, I don’t know of any such script. But more important: I do not think, that it is the users responsibility to provide such functionality. What we are seeing is a trend towards using the browser as os for apps. There hardware-APIs on the way. W3C is talking about accessibility and defining standards for webapps (local storage etc). So I think a fundamental standardized dirty-mechanism is not a too devious thing to ask for.
And @presroi told me, that any website could implement that on it’s own.
I don’t dispute the fact, that every website could build such a security question with javascript. But: I don’t know of any somewhat relevant site that does this. This suggests, that it either is too difficult/timeconsuming to do or the programmers just don’t give a damn (or don’t even recognize that there may be a problem). Additionally I do not think it would help user-experience, if a user first had to test, if a site does implement something like that and then had to rely on a possibly broken implementation (I really don’t think an average user would perform tests before writing a comment). In addition to that, it would not be standardized; moreover: the tab would habe to use js-dialogs, which are handled differently. And you can’t prevent someone from closing a tab regardless what javascript is saying. So I come back to the point above: Regarding the incline in webapps, this really should be standard browser behavior.
Dieser Text ist mir etwas wert:

Vor kurzem hatte ich folgenden Blog-Eintrag geschrieben: Was fehlt: Qualitativ ausdifferenziertes Soziales Meta-Netzwerk. Dank eines Tweets von Jens Best wurde ich aufmerksam auf die Story Google Me: Mitarbeiter enthüllt erste Details, in der auch die unten angezeigte ausführliche und sehr lesenswerte Präsentation The Real Life Social Network v2 des Google-User-Experience-Researchers Paul Adams eingebettet war.

Die Präsentation ist sowohl für Profis als auch Neulinge im Bereich Sozialer Netzwerke m.E. Pflichtlektüre; sie geht auf Schwachstellen und Erfordernisse hinsichtlich einer zeitgemäßeren Online-Repräsentation von persönlichen Netzwerkstrukturen ein und deutet an, wo die Fahrt hingehen könnte — auch wenn ich nach wie vor einige Aspekte zu wenig berücksichtigt finde (angefangen bei der Erforderlichkeit einer simplen Grundeinstellung, damit beispielsweise neu hinzugefügte Kontakte nicht per Default potentiell kompromittierende (möglicherweise Jahre) alte Einträge einsehen können bis hin zu halb- oder gar vollautomatischer Metrik hinsichtlich der Intensität und des Types einer Verbindung).

Da mich das Thema jedenfalls fasziniert, habe ich mir sicherheitshalber sofort auch das im August erscheinende Buch von Paul Adams Social Circles: How Offline Relationships Influence Online Behavior and What It Means for Design and Marketing (Voices That Matter) vorbestellt… :-)

Als kleine Ergänzung empfehle ich von Philip Banse in der heutigen Breitband-Sendung „Facebook-Killer? Spekulationen um Googles Social Network“ den drk_20100717_1442_991aa7de.mp3 . Man darf — unabhängig von der Frage, ob/was Google in diesem Segment plant und umsetzen wird — auf die weiteren Entwicklungen gespannt sein. Nach meiner Einschätzung droht Facebook mittelfristig (wenn es nicht die Kurve kriegt) am eigenen Erfolg zu scheitern, da die Wehklagen über schwierige Bedienbarkeit und intransparente Einstellungen zum Persönlichkeitsschutz zunenehmen, während gleichzeitig die Anforderungen an individuell präziserer Sichtbarkeitssteuerung von Daten angesichts stark steigender Nutzerzahlen immer komplexer und dringlicher werden und Facebook dieses Problem meines Erachtens nicht hinreichend ernst nimmt bzw. es nicht konsequent und schnell genug angeht. Schau’n mer mal…

Dieser Text ist mir etwas wert:

Soeben erfuhr ich bei der Lektüre der Stormarn-Beilage des Hamburger Abendblatts: Bargteheide-Land will wissen, wie langsam das Internet wirklich ist — Amt hat E.on Hanse beauftragt, eine Analyse zu erstellen (Paywall durch First-Click-Free via Googe-Suche umgehen).

Das Amt reagiert nun auf die Unzufriedenheit der Bürger und die vielen Anfragen nach einer besseren Internetversorgung. Die Verwaltung hat den Strom- und Erdgasversorger E.on Hanse mit der Erstellung einer Machbarkeitsstudie beauftragt. Das Unternehmen wird prüfen, wie noch bestehende Lücken bei der Internetversorgung im gesamten Amtsgebiet geschlossen werden können.

Dazu gibt es zum einen folgenden Fragebogen, den Bürger/Unternehmen bis zum 27.08.2010 absenden können; ferner sollen die Bürgermeister Auskunft hinsichtlich gemeindespezifischer Bandbreiten-Anforderungen (beispielsweise bzgl. Gewerbegebieten) geben und es werden 30 Internet-Diensleister befragt.

Ich möchte festhalten, daß ich in der Tat mit Blick auf technische digitale Spaltung zwischen Stadt und Land grundsätzlichen Optimierungsbedarf hinsichtlichtlich der Breitbandversorgung sehe und daher alle Maßnahmen, die zur Verbesserung der Situation geeignet sind, begrüße und unterstütze.

Etwas schade finde ich, daß ausgerechnet der Fragebogen qualitativ nicht das hergibt, was er könnte und meines Erachtens müßte. Folgende Aspekte fehlen aus meiner Sicht:

  • Es fehlt die wichtige Frage, welchen Upstream-Bandbreite man hat und welchen man erwünscht/benötigt (Upstream ist zB für Webentwickler/Medienkleingewerbe kampfentscheidend, nicht Downstream).
  • Es fehlt die Frage, ob man eine feste IP braucht (ausgerechnet die teilweise ja vorhandenen schnellen Anbieter wie KabelDeutschland bieten das nicht; feste IPs sind aber für Unternehmen sehr wichtig).
  • Es wird zwar gefragt, welche Downstream-Bandbreite man hat; aber gerade bei Kabel-Kunden ist es so, daß aufgrund der technischen Rahmenbedingungen die nominelle Bandbreite und die reale teils stark voneinander abweichen (ich habe z.B. nominell 32 MBit/s Downstream und 2 MBit/s Upstream; aber der Anschluß erreicht faktisch aufgrund Bandbreitenteilung mit anderen nur ca. 8-1 down); würde ich also meine nominelle Bandbreite “>16” ankreuzen, entspräche das nicht meiner faktischen Bandbreite.

Unabhängig davon hoffe ich, daß der Bedarf nicht nur auf konkreten Fragebogenantworten basierend berechnet wird, da ich mir nicht sicher bin, ob alle Umfrageteilnehmer wirklich abschätzen können, wie sich die Bandbreitenerfordernisse in Zukunft entwickeln werden (siehe auch meine Ausführungen zu Breitband im Bericht vom JU-Deutschlandrat) bzw. wissen, was in unmittelbarer Nähe in Bargteheide bereits für Bandbreiten verfügbar sind oder werden usw.

Mich würden nun zum einen Infos von „Lesern auf dem Land“ :-) interessieren, wie vor Ort mit der Thematik umgegangen wird , zum anderen natürlich gern allgemeine Rückmeldungen zur Thematik. Ich bin gespannt.

Dieser Text ist mir etwas wert:

The Web is Agreement

Donnerstag, 15. Juli 2010

Ich habe mir überlegt, gelegentlich ein paar (gar nicht zwingend brandaktuelle) Dinge zu posten, die vielleicht in die Kategorie Inspiration/Serendipität fallen. Ein schönes Fundstück, das schon seit Jahren großformatig ausgedruckt an meiner Bürowand hängt, ist “The Web is Agreement” von Paul Downey. Wenn man es in Ruhe betrachtet, wird es zum Quell freier Assoziationsströme. Bei jedem Betrachten eröffnen sich neue Perspektiven. Schaut selbst (unbedingt auch die flickr-Version mit Tag-Map anschauen; weitere Links dazu auf thewebisagreement.com; Material ist CC):

Dieser Text ist mir etwas wert:

Notizen zum Politcamp 2010

Sonntag, 21. März 2010

Seit ein paar Stunden bin ich von einem zweieinhalbtätigen Berlin-Besuch zurück, die Taschen sind ausgepackt und so ist es Zeit, einmal kurz innezuhalten und zurückzublicken. Während ich beim ersten Politcamp im letzten Jahr leider nur den Sonntag vor Ort sein konnte und somit vom Samstag nur (was heißt „nur“: besser als nichts!) dem Videostream aus der Halle folgen konnte, durfte ich dieses Mal das #pc10 vollumfänglich genießen.

Zunächst einmal muß ich festhalten, daß die Verlegung der ursprünglich in Bonn geplanten Veranstaltung zurück ins Radialsystem Berlin eine gute Sache war. Denn offengestanden hätte ich für eine Fahrt nach Bonn möglicherweise den inneren Schweinehund nicht überwinden können. Dagegen sind 90 Minuten ICE und ein Hotel direkt neben dem Tagungsort (Ibis Schillingbrücke) einfach enorm attraktiver.

Allerdings hatte ich angesichts der angekündigten Teilnehmerzahlen so meine Zweifel, ob die ganze Sache nicht eventuell ein wenig zu überlaufen sein würde, um noch sinnvoll zu sein. Glücklicherweise (jedenfalls aus Teilnehmersicht), scheinen aber doch nicht ganz so viele Teilnehmer erschienen zu sein, oder es hat sich jedenfalls ganz gut über die Zeit verteilt. So war es denn auch noch möglich (hinreichende Gesichtserkennungsfunktionalität vorausgesetzt), aus der Schar der Leutchen hie und da aus der personal Twitter-Timeline bekannte Gesichter zu erkennen (hier erweist es sich in Ermangelung der Marktfähigkeit von Sixth Sense oder Google Goggles etc. als vorteilhaft, ein erkennbares Profilfoto zu verwenden) und Hallo zu sagen. So ergaben sich schon in der Lobby viele nette Gespräche — auch wenn ich leider den ein oder anderen nicht (rechtzeitig) erkannt habe (man möge mir verzeihen) oder sich keine Gelegenheit zum quatschen ergab.

Super fand ich auch, daß es so viele Leute mit tollen Session-Vorschlägen gab. Das machte die Abstimmung allerdings nicht leicht. Und es wurde in dem Moment gewissermaßen zum Fluch, als man sich zwischen 2-4 gleichzeitig stattfindenden spannenden Sessions entscheiden musste. Und insofern ist es auch ein Wermutstropfen, daß man so viele reizvolle Einblicke nicht gewinnen konnte. Schade ist in diesem Zusammenhang auch, daß es von den meisten Sessions weder Video- noch Audiomitschnitte oder leicht abzurufende vertiefende Infos gibt. Hier steckt IMHO noch durchaus eine ganze Menge organisatorisches Optimierungspotential. Insbesondere würde ich mir für das nächste Politcamp wünschen, daß es (wie es möglicherweise auch auf der Programm-Seite geplant war aber nicht umgesetzt wurde) einen wirklich aussagekräftigen Online-Sessionplan gibt, in dem vor wie auch noch nach der Session hilfreiche Infos wie z. B. Twitternamen der Akteure, URLs zu deren Blogs und weiteren Infos gesammelt werden (man könnte auch noch Session-Nummern vergeben und dann die Tweeds sessionspezifisch aggregieren und archivieren, aber das wäre wohl zu unpragmatisch). Jedenfalls würde ich mir für diesem Sektor, der ja auch der Erhaltung für die Nachwelt dient, mehr wünschen.

Aber kommen wir zu den Inhalten. Positiv fiel mir zunächst einmal auf, daß die Stimmung im Vergleich zum Vorjahr weniger konfrontativ war. Das mag zum einen daran gelegen haben, daß Themen wie Zugangserschwerungsgesetz und Vorratsdatenspeicherung aufgrund der Entwicklungen an Brisanz verloren haben und nicht mehr in dem Umfang Aufregerthemen sind. Außerdem (bzw. in Ergänzung dazu) waren (wahlkampfbedingte) Selbstdarstellungserfordernisse nicht so omnipräsent (vielleicht mit Ausnahme der NRW-Wahl-Session und den daueragitierenden Jubel-Piraten).

An nicht wenigen Stellen hätte ich mir aber mehr inhaltlichen Dissens gewünscht. Um nicht auszuschweifen, gehe ich an dieser Stelle aber nur exemplarisch auf einige Beispiele ein, bei denen ich fand, daß man zu sehr im eigenen Saft schmorte und auch die Moderatoren zu nett, unkritisch oder (teilweise jedenfalls) überfordert waren. So artete die Netzsperren-Runde fast schon in intellektuelle Selbstbefruchtung aus. Nein, nicht einmal das, denn diese war weder intellektuell noch fruchtend, eher ein gegenseitiges Auf-die-Schultern-schlagen, wie toll man denn ist. Richtig spannend war dies jedenfalls nicht. Und wirklichen Ausblick erzeugte es erst recht nicht. Auch an anderen Stellen schien ein Mindset durch, das mehr durch gemeinsamen Verhinderungs- als Gestaltungswillen getragen schien. Dies wurde durch bedenklich plump-populitische wohlfeile Bashing-Galore via Twitter unterstrichen. Hier sollte sich der eine oder andere mal an die Nase fassen, ob er sich nicht dummerweise genauso ignorant, uninformiert und einbahnstraßig verhält, wie er es bösen Politikern nur allzu gern vorwirft.

Hier muß man wirklich Obacht geben, daß das Politcamp nicht zu einer Selbstbeweihräucherung im Elfenbeinturm wird. Nico Lumma hat dazu wie ich gerade sehe auch lesenswertes geschrieben unter dem Titel “Es braucht mehr als nur yeah”:

Ich weiss nicht, ob das eine gewollte Selbst-Marginalisierung ist, weil man sich dann einfach sicher ist, daß man recht hat mit seinen Ideen, weil alle ähnlich denken, oder ob man es einfach nicht schafft, die eigenen Themen für das Gros der Menschen interessant zu machen.

Außerdem wurde häufig das Potential nicht ausgeschöpft. So kam die Diskussion zur Netzneutralität nicht über elementare Grundzüge hinaus. Dabei hätte es aufschlußreich sein können, das Spannungsfeld Inhaltsagnostik/DPI tiefer auszuleuchten insbesondere mit Blick auf qualitätssicherndes Traffic-Shaping (welches ja durchaus in Endnutzerinteresse liegen kann) oder Transparenzerfordernissen.

War es daher kein Barcamp, sondern ein Blacamp? Ein definitives Jein ist die Antwort. Auf der einen Seite hätte ich mir an vielen Stellen tiefere, differenzierte Diskussionen zwischen stärker kontrastierenden Positionen gewünscht, zumal man angesichts der Ausrichtung des #pc10 eine informierte Grundgesamtheit der Teilnehmer erwarten konnte. Andererseits wäre eine solche Hoffnung vermutlich etwas naiv. Daher muß ein jeder auch für’s #pc11 abwägen, ob sich eine Teilnahme lohnt. Ich für meinen Teil kann sagen: Unterm Strich war es trotz Eintrübungen eine gute Veranstaltung (auch wenn die Grill-Logistik übrigens schwer suboptimal war). Ich werde also auch in 2011 wieder aus Überzeugung teilnehmen! Aber dann bitteschön mit akustischem Session-Wechsel-Dich-Gong als Timing-Enforcer, VIEL mehr Steckdosen und vor allem Sonnendeck-Wetter…

Nachtrag 1: Gestern Abend habe ich doch glatt vergessen, den Organisatoren des Politcamops, allen voran @tomaschek und @RalphMakolla zu danken. Die Truppe hat wieder einen tollen Job gemacht!

Nachtrag 2: Eine kleine Linksammlung zur #pc10-Nachlese entsteht gerade unter http://delicious.com/tag/pc10. Außerdem kann man viele schöne Fotos auf flickr finden.

Dieser Text ist mir etwas wert:
(Seite 1 von 2, insgesamt 14 Einträge) » nächste Seite