Back to top

Mit Schnecken und Vogelstimmen im Gepäck

Back to top

Mit Schnecken und Vogelstimmen im Gepäck

Bei der Preisverleihung des Kulturhackathon „Coding da Vinci Ost“, der am 16. Juni 2018 in Leipzig stattfand, wurden gleich drei der Preise mit Datensätzen des Museums für Naturkunde Berlin gewonnen. Das Team „SnailSnap“ verwendete hochauflösende Bilder der Schneckensammlung und entwickelte daraus eine App zur Erstellung von Selfie-Mosaiken, die aus Schneckengehäusen bestehen. Die spielerische Anwendung konnte die Jury vor allem mit ihrer visuell ansprechenden Gestaltung überzeugen und trug den Preis „best design“ davon. Die Macher von „JibJib“ entwickelten eine Anwendung, die auf anschauliche Art und Weise den Zugang zur Vogelkunde eröffnet. Eine Grundlage zur Entwicklung der App waren Daten des Tierstimmenarchivs des Museums für Naturkunde Berlin. Die Anwendung konnte den Preis „most technical“ für sich entscheiden. Obendrein konnte sich das „JibJib“ Team noch über den Publikumspreis freuen.

Der Kulturhackathon „Coding da Vinci“ hat sich mittlerweile zu einer festen Größe im Kulturbetrieb entwickelt. Immer zahlreicher und mannigfaltiger werden die Datensätze, die Kulturinstitutionen der Veranstaltung zur Verfügung stellen, damit sich Programmierernnen und Programmierer, Künstlerinnen und Künstler sowie  Wissenschaftlerinnen und Wissenschaftler am  virtuellen Kulturgut ausprobieren können.

Startschuss für „Coding da Vinci Ost“ der dieses Jahr erstmals in Leipzig stattfand, war der 14. April 2018. Ab dann hatten die Teams im Rahmen eines 9-wöchigen Sprints Zeit, um kooperativ Projekte zu erdenken und umzusetzen.

Das Museum für Naturkunde Berlin nahm bereits zum vierten Mal an der Veranstaltung teil und war als Datengeber erneut sehr begehrt – gleich vier der 14 teilnehmenden Teams entschieden sich, mit Daten des Museums für Naturkunde Berlin zu arbeiten. Besonders die bereitgestellten Aufnahmen aus dem Tierstimmenarchiv wurden rege genutzt.

So entwickelten die Macher von „Birdory“ eine Anwendung, bei welcher Vogelstimmen dem korrekten Vogel zugeordnet werden müssen – eine Art Memoryspiel mit Tiergeräuschen. Das Spiel wurde sowohl für die Nutzung im Browser, als auch als App für das Smartphone konzipiert.

Ein weiteres Team hat mit „AnimalBeatbox“ ein Programm ausgearbeitet, das es ermöglicht, Beats aus Tonspuren mit Tierstimmen zu erzeugen. Der Nutzer kann in kreativer Weise aus über 100 Tierstimmenaufnahmen seine Favoriten aussuchen, diese auf vier Tonspuren verteilen und damit seine eigenen Kompositionen kreieren. Wer möchte, kann seine Stücke mit Hilfe eines „Share-Links“ mit anderen teilen. Das geteilte Meisterwerk kann vom Empfänger nicht nur gehört, sondern auch weiterbearbeitet werden.

Das Gewinnerteam um „JibJib“ hatte nach eigener Aussage gezielt nach Datensätzen gesucht, die als Grundlage für ein Projekt im Bereich „Machine Learning (ML)“ geeignet sind und die bereitgestellten Tierstimmen hätten sich hierzu besonders angeboten. Mit „JibJib“ entwickelte das Team eine mobile App, die es ermöglicht, aufgenommene Vogelstimmen zu erkennen. Durch die vom Team ausgearbeitete Kombination aus Android-App, Microservices im Backend und State of the Art Machine Learning ist das Model in der Lage, mit einer hohen Genauigkeit circa 200 unterschiedliche Vögel an ihrem Gesang zu identifizieren. Die Jury betonte, dass sie von der Leistung des Teams äußerst beeindruckt war und zeigte sich ausgesprochen einig bei der Vergabe des „most technical“ Preises.

„SnailSnap“, zu Deutsch etwa „SchneckenSchnappschuss“, heißt die farbenfröhliche Anwendung, die mit Hilfe einer Auswahl von tausenden von Schneckengehäusen des Museum für Naturkunde  Berlin entstanden ist. „SnailSnap“ möchte die Aufmerksamkeit für Schnecken auf eine spannende Art wecken, indem es dem Anwender ermöglicht, sich gewissermaßen selbst zur Schnecke zu machen. Die Anwendung wandelt das Selfie-Portrait eines Anwenders in ein stylisches Mosaik um, das komplett aus Schneckengehäusen zusammengesetzt ist. Außerdem liefert es Zusatzinformationen zu all den Einzelelementen, aus denen der kreierte „Schneckenselfie“ besteht. So kann man beispielsweise Näheres über den Fundort oder die genaue wissenschaftliche Bezeichnung der jeweiligen Schnecken erfahren und somit im Rahmen der Selfie-Kreation sein biologisches Wissen erweitern.  

Die Museumsdaten für „Coding da Vinci Ost“ wurden mit Hilfe der „Mediasphere For Nature“ des Projektes „Naturkunde 365/24 - Multimediales Applikationslabor des Berliner Naturkundemuseums“ bereitgestellt. Die „Mediasphere For Nature“ ebnet mit ihren Angeboten den Weg für Kooperationen von kleinen und mittelständischen Unternehmen (KMU) aus dem Berliner Raum mit dem Museum für Naturkunde Berlin und erschafft damit eine Brücke zwischen Forschung und Wirtschaft. Neben dem Expertenwissen der Forscherinnen und Forscher des Hauses sowie Vernetzungs- und Informationsangeboten erhalten die KMU exklusiven Zugang zum bedeutenden Wissensbestand an digitalen Inhalten. Das Museum schafft damit eine Anlaufstelle für die Entwicklung von wissensbasierten Produkt- und Service-Innovationen für Natur und Gesellschaft. Das Projekt „Naturkunde 365/24“ läuft bis September 2019 und wird mit Mitteln aus dem Europäischen Fonds für regionale Entwicklung (EFRE) sowie Mitteln des Landes Berlin finanziert.

„Coding da Vinci - Der Kultur-Hackathon“ ist ein Gemeinschaftsprojekt der Deutschen Digitalen Bibliothek (DDB), der Open Knowledge Foundation Germany e.V. (OKF DE), der Servicestelle Digitalisierung Berlin (digiS) und Wikimedia Deutschland e.V. (WMDE) und ein offizieller Beitrag zum Europäischen Kulturerbejahr 2018 in Deutschland (SHARING HERITAGE). Informationen zu „Coding da Vinci Ost“ sowie den einzelnen Projekten können der offiziellen Website entnommen werden: https://codingdavinci.de/