Hatori Kibble

Jo eh…

Archive for Juli 2013

Der @EuropeanaBot mag jetzt auch Katzen!

with one comment

Die erste Ausbaustufe des EuropeanaBots war ja, einfach Bilder aus den Europeana-Sammlungen zu einzelnen Orten zu präsentieren. Das funktioniert auch inzwischen hinreichend gut (ein kleines Umlauteproblem habe ich behoben und die Suche geht jetzt nicht mehr auf den Titelindex, sondern fragt explizit Ortsschlagwörter ab).

Dieses Verfahren hat – zumindest für mich – schon einige nette Bilder gefunden und auch einige Überraschungen gebracht (ich wusste z.B. nicht, dass es in Niederösterreich mal einen Kohletagbau gab..). Alles in allem ist diese stündliche Datenlieferung aber etwas langweilig und vorhersehbar, daher wollte ich dem Bot mit einer neuen Version etwas mehr Persönlichkeit verleihen.

Es gibt ja auf Twitter so einige Rituale: Montag morgen jammern alle, am Freitag gibt es den #FollowFriday und irgendwie mögen alle Katzenbilder. Das lässt sich nun auch programmtechnisch umsetzen und so ist der EuropeanaBot jetzt auch ein „typischer Twitterer“.

Er  versucht freundlicherweise den Montag Morgen etwas erträglicher zu machen:

Manchmal postet er Katzenbilder:

Und freitags werden dann Twitteraccounts aus dem Europeana-Umfeld empfohlen.

Daneben gibt es noch zwei kleine Spaßfunktionen: Durch die xkcd Comics ist ja M.C. Hammer durchaus im Nerd-Universum angekommen. Auch der Bot ist ein Fan und zeigt das manchmal:

Neben 90er Jahre Hip-Hop mag der Bot auch aus unerfindlichen Gründen Einhörner:

Natürlich kann man jetzt diese Ergänzungen etwas unnötig/kindisch finden, aber mir ging es darum, neue Arten einer Sammlungspräsentation auszuprobieren. Ein Twitterbot ist eben kein RSS-Feed einer Neuerwerbungsliste, sondern soll sich an das Umfeld und die spezifische Kultur von Twitter etwas anpassen.

Was meinen eigentlich meine p.t. KollegInnen? Ist so ein TwitterBot ein probates Mittel um digitale Sammlungen, lizensierte Datenbanken, etc. zu bewerben? Oder ist Twitter einfach (noch) nicht relevant genug und manuelle Facebook-Postings tun’s auch?

Das nächste Upgrade des EuropeanaBots wird übrigens wieder inhaltlicher Natur sein. Ich habe da wieder ein schönes Set an offenen Daten gefunden… Mehr dazu aber – aus Gründen – erst nächste Woche.

Advertisements

Written by Peter

Juli 22, 2013 at 10:09 pm

Veröffentlicht in Perl, Programmierung, Scripts, Software

Tagged with , , ,

Ich hab da mal einen (österreichischen) Europeana-Bot geschrieben…

with 6 comments

Vor einigen Tagen bin ich auf Twitter über den @DPLABot gestolpert. Dieser Bot versucht, das ziellose „Stöbern“ auch für die digitalen Sammlungen der „Digital Public Library of America“ zu ermöglichen.

Das Programm fragt die DPLA mit zufälligen Suchbegriffen ab und präsentiert die Ergebnisse:

Eigentlich eine nette Idee und ein spannendes Programmierprojekt.

Die Europeana bietet ja auch eine Programmierschnittstelle und ich war schon länger auf der Suche nach einem halbwegs sinnvollen Projekt, um diese API einmal zu testen.

Europeana Bot

Europeana Bot

Meine erste Idee war, sich auf die „Trending Topics“ bei Twitter zu beziehen und dazu passende Europeana-Einträge zu präsentieren. Allerdings funktioniert das erstens nicht wirklich gut (auf Twitter trendet „friedrich“, der deutsche Innenminister ist gemeint, Europeana würde Bilder zum „Alten Fritz“ finden..) und natürlich ist es moralisch etwas fragwürdig als eine Art „kultureller Spambot“  die Trends zu kapern.

Also bin ich auf Ortsnamen umgeschwenkt: Die Statistik Austria bietet auf ihrer Homepage eine Liste der 2 376 österreichischen Gemeinden zum Download an. Zu einigen davon müsste es ja historische Aufnahmen, Pläne, Urkunden, etc. geben.

Mein Programm nimmt sich jetzt diese Liste, mischt einmal gut durch und sucht dann in Europeana nach Bildern, die den Ortsnamen im Titel der Aufnahme enthalten. Das erste Ergebnis wird dann jeweils bei Twitter mit Jahreszahl und gekürzter URL gepostet.

Nun denn, dann lade ich alle ganz herzlich ein, dem EuropeanaBot zu folgen!

Ajah, den Quellcode dazu gibt es natürlich auf meinem GitHub-Account!

Written by Peter

Juli 19, 2013 at 8:45 am

Veröffentlicht in Scripts, Software

Tagged with , , , , ,

#sigint Tag 3: Und aus!

leave a comment »

Aus diversen Gründen wird die SIGINT-Reihe erst heute abgeschlossen, so viel war am letzten Tag aber eh nicht mehr los.

In „How to wiretap the Cloud without anybody noticing“ ging es noch einmal um die Überwachung durch die amerikanischen Geheimdienste, speziell um die erweiterten Befugnisse des 2008 verabschiedeten Foreign Intelligence Surveillance Amendment Act (FISAA). Problematisch ist, dass der 4. Zusatzartikel zur Verfassung nicht für Nicht-US Bürger auf Nicht-US-Territorium gilt. Außerdem ist „foreign intelligence information“ sehr vage definiert, so dass es keine wirklichen rechtlichen Schranken gegen die Überwachung des Internetverkehrs gibt.

Betroffen sind natürlich auch die ganzen Clouddienste mit US-amerikanischen Anbietern. In den einschlägigen Wirtschaftsstudien wurde immer auf die vergleichsweise strengen Datenschutzbestimmungen in den USA hingewiesen, aber nicht darauf, dass diese unter FISAA ja nicht für AusländerInnen gelten.

Ein anderer geschilderter Fall hatte sogar noch einen kleinen bibliothekarischen Bezug: die NSA holt sich direkt bei einem grossen Telefonanbieter Verbindungsdaten und beruft sich dabei auf die sogenannte „library records provision“ des PATRIOT Acts.

kleine SIGINT Souvenirs

kleine SIGINT Souvenirs

Der letzte Vortrag für mich auf der SIGINT hatte dann wieder ein ganz anderes Thema: „Besser leben für Geeks“. Hier wurde „hacken“ wiedermal etwas breiter definiert, es ging darum wie man auch bei Koffeinkonsum, Ernährung, Schlafhygiene und Drogenkonsum rational und wissensbasiert Stellschrauben findet an denen man drehen kann. So die bahnbrechenden Erleuchtungen kamen mir da jetzt nicht, aber der selbe Vortrag wurde auch auf der re:publica gehalten, man kann sich das also bequem über Youtube ansehen.

Apropos Video: natürlich werden auch die SIGINT Vorträge online über den CCC verfügbar sein. Im Moment sind da nur die Präsentation vom letzten Jahr (allerdings auch sehr empfehlenswert!), die neuen werden sicher in der nächsten Zeit auftauchen.

Und noch ein paar Lieblingstweets zur Tagung:

https://twitter.com/_Rya_/status/353805414514696192

So damit endet die kleine SIGINT-Phase diese Blogs und wir kehren wieder zum normalen Programm zurück…

Written by Peter

Juli 10, 2013 at 10:30 pm

Veröffentlicht in Konferenzen

Tagged with , ,

#sigint Tag 3: Ach Verdi! und: ArchiveTeam to the rescue!

with 4 comments

Diesmal hatte ich es geschafft halbwegs früh aufzustehen, um den Vortrag „Gute Arbeit“ eines ver.di Gewerkschaftssekretärs anzuhören. Eigentlich fand ich es ja gut, dass ver.di auf der SIGINT auftaucht. Gerade im IT-Bereich gibt es ja eine Menge an Themen, bei denen gewerkschaftliche Unterstützung notwendig wäre (flexibilisierte Arbeitszeiten, „Spaß am Gerät“ vs. Selbstausbeutung, „Bring your own device“, das Elend der Befristungen, etc). Leider war davon in der Präsentation keine Rede, der selbe Vortrag hätte auch auch bei so ziemlich jeder anderen Berufsgruppe gehalten werden können. Anfangs wurde lang und breit wurde über die Palette der politischen Ziele von ver.di gesprochen (ohne aber eben auf das spezifische Publikum einzugehen), später kamen dann zwar etwas praktischere Themen (wie entsteht ein Tarifvertrag, was muss in einem Arbeitsvertrag stehen). Auch die wurden aber eher auf der grundsätzlichen Ebene abgehandelt, statt mit praktischen branchenrelevanten Beispielen zu arbeiten.

Im nächsten Vortrag ging es dann um ein Stück Internetgeschichte: in „One Terabyte of Kilobyte Age“ hatte sich Dragan Espenschied mit GeoCities beschäftigt. Dieser Dienst wurde zwar 2009 eingestellt, aber das Archiveteam hat es geschafft die Inhalte rechtzeitig zu sichern und damit zu erhalten.

GeoCities ist deshalb so wichtig, weil es ein Stück Amateurnetzkultur dokumentiert, das es so heute nicht mehr gibt. Es ist zwar einfach, sich über die schlecht animierten GIFs und knalligen Farben lustig zu machen, aber diese privaten Amateurhomepages waren eine völlig neue Art seine Persönlichkeit auszudrücken und erstmals die „neuen Medien“ aktiv zu nutzen. Die sozialen Netzwerke die danach kamen sind viel stromlinienförmiger, datenbankbasiert. Man füllt eigentlich nur Felder innerhalb einer vorgegebenen Struktur aus.

In dem vorgestellten Projekt wurde jetzt der Torrent mit den GeoCities-Inhalten heruntergeladen (da die gesamten Daten 1 Terabyte groß sind und nicht immer irgendwer den Torrent seeded, hat das 5 Monate gedauert) und ein System aus einem virtualisiertem Netscape Navigator 4.08 und einem Proxyserver aufgebaut um die Seiten anschauen zu können. Gleichzeitig gibt es eine Schnittstelle zu Tumblr und so wird auf „One Terabyte of Kilobyte Age Photo Op“ alle 20 Minuten ein Screenshot online gestellt. Die Seiten werden da in chronologischer Reihenfolge gepostet, im Moment ist der Blog bei 1998, also so richtig schön zum nostalgisch werden…

Written by Peter

Juli 7, 2013 at 7:35 pm

Veröffentlicht in Konferenzen

Tagged with , , , , ,

#sigint Tag 2: ein Pull-Request aufs Grundgesetz

leave a comment »

Der letzte Vortrag für mich an diesem Abend war: „DocPatch: Entdecke unsere Verfassung“. Der Chaospott hat da dem deutschen Grundgesetz ein besonderes Geburtstagsgeschenk zum 64. gemacht: eine Publikation als offene, versionierte Plattform, mit der sich sämtliche Änderungsanträge von 1949 bis heute nachvollziehen lassen. Entweder als Diff oder schön visualisiert als Zeitleiste.

Quellen waren dabei die Bundesgesetzblätter und diverse Publikationen des wissenschaftlichen Dienst des Bundestags und natürlich musste viel Arbeit investiert werden, um aus den Dokumenten eine maschinenlesbare Variante zu erstellen.

Diese Rohdaten liegen jetzt auch im Markdown-Format in einem GitHub-Repository (schon wieder ein ungewöhnlicher GitHub-Anwendungsfall..) und können somit von anderen nachgenutzt werden.

Auch die Software, die für dieses Projekt entwickelt wurde – „DocPatch“ kann frei nachgenutzt werden.

Bei den restlichen Gesetzen auf Bundesebene gibt es übrigens auch ein Open-Data Projekt: BundesGit.

Written by Peter

Juli 7, 2013 at 3:02 pm

Veröffentlicht in Konferenzen

Tagged with , , ,

#sigint Tag 2: „Hallo Steffi“ ist das Passwort…

leave a comment »

Weiter ging es heute mit einem kleinen Überwachungsblock. In „Pressfreedom, Surveillance and International Campaigning“ erzählte Hauke Gierow etwas über die Arbeit von „Reporter ohne Grenzen“. Die Organisation setzt sich für Informationsfreiheit ein und veröffentlicht und übersetzt z.B.: zensierte Artikel.

JournalistInnen sind aber auch bevorzugtes Ziel für Überwachungsmaßnahmen. 2013 hat „Reporter ohne Grenzen“ „The Enemies of the Internet“ veröffentlicht, ein white paper zu Überwachungsmaßnahmen. Neben staatlichen „Feinden“ werden in dem Papier auch Unternehmen genannt die Überwachungssoftware herstellen (etwa Gamma International oder Blue Coat).

Gemeinsam mit anderen Organisationen hat „Reporter ohne Grenzen“ auch eine „OECD Complaint“ gegen Gamma und Trovicor (beides übrigens deutsche Firmen..) eingereicht. Beiden Unternehmen wird vorgeworfen, durch den Export ihrer Software an autoritäre Staaten wie Bahrain gegen die „OECD Guidelines“ für multinationale Unternehmen verstoßen zu haben. Allerdings haben diese Guidelines keine rechtliche Bindung, es geht also mehr um einen Imagesschaden für diese Unternehmen.

Abschließend hat der Vortragende noch dazu aufgerufen, dass Hacker/Haecksen JournalistInnen unterstützen: mit Trainings, wie man sicher kommuniziert, indem sie helfen Malware zu identifizieren und eben nicht bei solchen Unternehmen arbeiten.

Auch beim nächsten Vortrag kam die Firma Gamma wieder vor: „Tales of Government Surveillance“. Der Vortragende erzählte wie in Bahrain, Äthiopien, der Mongolei und anderen Ländern Trojaner gegen politische Aktivisten eingesetzt werden. Mittels spear phishing wird den Zielpersonen Schadsoftware untergejubelt. Die Anhänge, in denen sich der Trojaner befindet können PDFs sein, Bilder oder ganz normale Office Dokumente, die dann über Makros Schadcode nachladen.

Einer der bekanntesten Trojaner ist die FinFisher Suite von der Gamma Group. Laut Werbeprospekt wird diese Software von 40 Virenscannern nicht entdeckt, kann Skype abhören oder übernehmen, mittels Webcam und Mikrofon überwachen, Screenshots ziehen, Dateien absaugen und ein Keylogger ist natürlich auch noch inkludiert. Interessanterweise wirbt die Firma auch damit, sowohl Windows, als auch Mac OS X und sogar Linuxversionen zu haben.

Mit einem Preis von 200 000 bis 500 000 $ ist das Teil aber auch nicht ganz billig.

Diese Software konnte schon abgefangen und untersucht werden. Ein witziges Detail ist, dass wenn der Trojaner „nach Hause telefoniert“ sich der Zielserver immer mit „Hallo Steffi“ gemeldet hatte.

In einem Fall hatte sich die Software als Firefox Browser getarnt, woraufhin die Mozilla Foundation natürlich scharf reagiert hatte.

Der Markt für Überwachungssoftware wächst leider rasant, auch die deutsche Regierung gibt knapp 150 000 EUR für eine Trojanersuite aus.

Written by Peter

Juli 6, 2013 at 10:52 pm

Veröffentlicht in Konferenzen

Tagged with , , , , ,

#sigint Tag 2: Die Drossel als Vogel des Jahres und Aluhüte für E-Autos…

leave a comment »

Das Vortragsprogramm begann für mich heute mit dem „Kampf um die Netzneutralität“ von Markus Beckedahl. Das „end-to-end principle“ ist ein wichtiges „Urprinzip“ des Internets. Es besagt – grob gesprochen, dass sich die Geräte und Programme an den Enden der Verbindung um die Funktionalität kümmern und die Netzwerkknoten einfach nur durchleiten sollen.

Inzwischen gibt es aber das – euphemistisch benannte – „Verkehrsmanagement“ etwa durch die Deep Packet Inspection. Dabei wird während der Übertragung in die Datenpakete geschaut und z.B. VOIP unterbunden. Mit der selben Technologie können aber auch unliebsame Inhalte ausgefiltert werden. „Der Unterschied zwischen demokratischen und totalitären Staaten ist nur eine Konfigurationsdatei“.

Netzneutralität ist schon länger auch in der Politik Thema: 2011 gab es einen Zwischenbericht zum Thema Netzneutralität der Internet Enquete. Die Mitglieder konnten sich aber nicht auf Handlungsempfehlungen dazu einigen.

Auch die NetzaktivistInnen wurden tätig: die Digitale Gesellschaft hatte zum Beispiel eine „Vodafail“-Kampagne gestartet. So wirklich verfing das alles aber nicht.. bis dann die Drosselkom kam. Damit war das Thema in der Tagesschau und auf der politischen Agende angekommen.

Angesichts des Bundestagswahlkampfs ist die Regierung dann auch aktiv geworden. § 41a TKG gibt dem Bund die Möglichkeit eine Rechtsverordnung zum Thema Netzneutralität zu erlassen. Einen Entwurf (PDF) hat das Wirtschaftsministerium auch bereits veröffentlicht. Der Entwurf legt eine Gleichbehandlung aller Datenpakete fest, damit wäre beispielsweise der Telekom-Spotify Deal nicht mehr möglich. Sogenannte „Managed Services“ wären aber weiterhin erlaubt.

Im folgenden Vortrag ging es dann wieder um etwas ganz anderes: „E-Mobility as Privacy Game Changer“. An der normalen Tankstelle kann man ja noch bar zahlen (zwei Drittel aller Deutschen machen das) und dadurch anonym bleiben. Bei Ladestationen ist das aus verschiedenen Gründen (dezentrale verteilte Lage, Vandalismusgefahr, …) nicht wirklich praktikabel. Dazu kommt noch, dass es so etwas wie „range anxiety“ gibt, also BesitzerInnen von E-Fahrzeugen lieber einmal mehr ihr Auto aufladen, statt in Gefahr zu laufen mit leerem Akku dazustehen.

Es besteht also die Gefahr, dass durch die Anmeldung an den Ladestationen ein neues Überwachungsnetzwerk entsteht. Der Vortragende hatte dann natürlich eine irrsinnig komplexe Lösung, aber statt mir da die Erklärung anzuhören bin ich lieber raus in die Sonne…

Written by Peter

Juli 6, 2013 at 8:43 pm