• Logo des ZEVEDI-Verantwortungsblogs
  • Kategorien
    Akzentfarbe: hellblau Autor: Benjamin Seibel Verantwortungsblog

    Offene Daten, smarte Städte, freie Software

    Daten sind das neue Gold – diesen Satz hört man in den letzten Jahren häufig. Doch wer hat Zugang zu diesem Gold? Aus welchen Quellen stammt es? Das Programmwort „Open Data“ – von öffentlichen Stellen erhobene Daten und von diesen der Öffentlichkeit zur Verfügung gestellt – soll helfen, Datenreichtum verfügbarzumachen. Doch was genau verbirgt sich hinter Open Data? Wie verhält es sich zu Open Source? Und was kann man damit anfangen? Darüber haben wir mit Benjamin Seibel vom CityLAB Berlin gesprochen.

    Offene Daten, smarte Städte, freie Software

    Daten sind das neue Gold – diesen Satz hört man in den letzten Jahren häufig. Doch wer hat Zugang zu diesem Gold? Aus welchen Quellen stammt es? Das Programmwort „Open Data“ – von öffentlichen Stellen erhobene Daten und von diesen der Öffentlichkeit zur Verfügung gestellt – soll helfen, Datenreichtum verfügbarzumachen. Doch was genau verbirgt sich hinter Open Data? Wie verhält es sich zu Open Source? Und was kann man damit anfangen? Darüber haben wir mit Benjamin Seibel vom CityLAB Berlin gesprochen.

    Interview mit Benjamin Seibel | 27.02.2026

    Die Skyline einer Stadt.
    Erstellt mit Adobe Firefly

    Benjamin Seibel: Eine Hoffnung ist sicherlich, dass man Abläufe in der Stadt effizienter, ressourcenschonender oder nachhaltiger gestalten kann. Das liegt auf der Hand. Ein Beispiel: Ich kann anhand von Parkplatz-Sensorik erkennen, wo ein freier Parkplatz ist, und erspare es mir, dreimal um den Block zu fahren. Ein substanzieller Teil des städtischen Autoverkehrs geht ja auf die Parkplatzsuche zurück.

    Interessanter ist aber die Frage, inwiefern man über Daten neue Beteiligungsformen ermöglichen kann, also die Teilhabe am öffentlichen Leben erweitern kann, indem man bestimmte Datenbestände öffentlich zugänglich macht. Während der Coronapandemie wurden sehr viele Daten zu Inzidenzen etc. veröffentlicht und man konnte anhand dieser Daten überlegen: Wie ist meine Risikowahrnehmung, welche Risiken will ich eingehen? Zwar hat am Ende die Regierung entschieden, ob man rausgehen durfte und wohin, aber ein Stück weit ist es eine Ermächtigung, wenn man solche Entscheidungen selbst datenbasiert treffen kann.

    Auch alles Richtung Nachhaltigkeit ist spannend: Wir haben in Berlin ein Projekt, in dem wir Daten über die Stadtbäume sammeln, um besser zu verstehen, welche Rolle diese Bäume zum Beispiel für den Hitzeschutz spielen oder generell für Klimaanpassungsstrategien von Städten. Mit solchen Projekten kann man ein Bewusstsein dafür schaffen, welchen Wert die Stadtnatur hat und dass der durchaus nicht nur subjektiv ist, nach dem Motto: Ich finde Bäume schön. Man kann die Effekte messen und zeigen, wie positiv sie sind.

    BS: Das sind zum einen Daten, die öffentliche Behörden erheben. Das können auch Daten sein, die von Bürgerinnen und Bürgern freiwillig zur Verfügung gestellt werden. Es gibt immer wieder Pilotprojekte mit solchen Datenspenden.

    Spannend sind die Differenzen: Luftqualität, Verkehrslage, Gesundheitsstatistiken, Demografie, Sozialstatistik, Wirtschaft – es sind vor allem die Unterschiede, zum Beispiel zwischen Städten, die interessant sind. Wenn alle Städte dieselbe Luftqualität haben, ist das nicht sehr aussagekräftig. Wenn es aber gravierende Unterschiede gibt, ist es ein Grund, genauer hinzuschauen.

    BS: Abbilden lässt sich vor allem das, was sich gut messen lässt. Das sind oft Infrastrukturthemen, wie der öffentliche Nahverkehr, der wird inzwischen sehr präzise getrackt, zum Beispiel mit Sensorik in den Fahrzeugen. Die Wasserqualität und auch Umwelt und Klimadaten sind gut messbar. Die Frage ist, ob diese Daten auch erhoben werden. Im Grunde lässt sich alles, was jenseits des Menschlichen in einer Stadt passiert, gut messen, weil es objektiv erfassbar ist.

    Anders verhält es sich mit dem Menschlichen: Im Futurium hier in Berlin gab es ein Projekt, bei dem versucht wurde, den Gemütszustand von Menschen zu erfassen: Wie fühlen sie sich zu bestimmten Zeiten, an bestimmten Orten in der Stadt? Das ist sehr viel schwieriger, es war aber ein spannendes Experiment, es zu versuchen. Wenn die Datenmenge groß genug ist, können Muster sichtbar werden, aber es kommt natürlich eine subjektive Dimension rein. Diese Daten müssen sehr viel stärker interpretiert werden, um zu erfassen, was die Gründe dafür sind, dass sich Menschen an bestimmten Orten unwohl fühlen.

    BS: Es liegt ein sehr großes Potenzial darin, dass die öffentliche Verwaltung Daten besser nutzt. Das ist oft noch nicht der Fall. Wenn man mit Laien über dieses Thema spricht, herrscht oft die Erwartung vor, dass Städte oder Stadtverwaltungen alle möglichen Daten sammeln und über die Stadt genau Bescheid wissen. Das ist aber nicht der Fall, weil die Verwaltungen noch im Übergang vom analogen zum digitalen Zeitalter stecken. Es wird schon vieles irgendwie erfasst und mitunter auch in Berichten publiziert. Dass man Daten systemisch erhebt, die Datenflüsse managt, die Daten miteinander verknüpft, das passiert eigentlich noch nicht. Aber darin steckt großes Potenzial, die Verwaltungsarbeit effizienter und schneller zu machen sowie bedarfsgerechte Planung zu ermöglichen. Da sind wir im Moment noch nicht wahnsinnig weit. Wir sind eher auf dem Level, dass man sagt: Wenn wir eine neue Wohnsiedlung bauen, sollte man vielleicht auch die Buslinie verlängern.

    BS: Beim Datenthema muss man längerfristig denken, weil der Mehrwert erst sichtbar wird, nachdem einige Zeit vergangen ist und nachdem man Daten über einen längeren Zeitraum systematisch erhoben hat. Der Aufbau von Dateninfrastrukturen und einer Data Governance bei öffentlichen Stellen ist ein anfänglicher Invest, der sich nicht unmittelbar auszahlt, der aber langfristig zu einer besseren Steuerbarkeit beiträgt. Ich kenne Verwaltungen in Berlin, die darin investieren und sagen, wir beauftragen Dienstleister damit, bestimmte Daten systematisch zu erfassen, weil die Verbesserung der Datenqualität langfristig für uns Mehrwerte bietet oder in bestimmten Bereichen eine Steuerbarkeit allererst herstellt.

    Zum Beispiel Gewerbedaten: Was weiß eine Wirtschaftsverwaltung darüber, wie viele Geschäfte in bestimmten Teilen der Stadt im letzten Jahr eröffnet wurden oder geschlossen haben? Dadurch kann man Trends erkennen, die Auswirkungen auf die Bewohner haben: Entstehen Versorgungslücken? Daher ist es kritisch, wenn man diese Daten mit zwei oder drei Jahren Verzögerung erhält, was im Moment oft der Fall ist. Die werden einmal im Jahr aufbereitet, befinden sich dann lange in einer redaktionellen Überarbeitung und wenn sie die Verwaltung erreichen, ist es eigentlich zu spät. Die Möglichkeit, potenzielle Engpässe, Krisen etc. in Echtzeit oder sogar mit einer in die Zukunft gerichteten Prognose zu erfassen, ist für Verwaltungen unglaublich wertvoll: Achtung: Hier wird 2027 ein Engpass entstehen. Die Möglichkeit, solche Trends zu entdecken, wachsen mit der Verbesserung der Datenqualität. Es ist also nicht so, dass ich einmal klicke, einmal Geld hinlege und dann habe ich sofort diesen positiven Effekt, sondern ich muss die Rahmenbedingungen herstellen, damit ich in Zukunft solche Effekte generieren kann.

    BS: Es ist sehr positiv, dass öffentliche Verwaltungen Datenbestände zugänglich machen. Rückblickend war da der Gesetzgeber früh dran. Die Open Data-Gesetze auf Bundes- und Länderebene gibt es schon eine ganze Weile. Als man sie erlassen hat, wussten viele in der Verwaltung noch gar nicht, warum sie das machen sollen. Da herrschte noch die Haltung vor: Ellenlange Excel-Tabellen mit irgendwelchen Zahlen interessieren doch niemanden. Und es braucht auch noch den Schritt, die Rohdaten so aufzubereiten, dass sie für Bürgerinnen und Bürger Mehrwert haben. Da war ein „Leap of Faith“ am Anfang nötig: Wir veröffentlichen das und schauen mal, was passiert.

    Gerade in einer Stadt wie Berlin gibt es eine sehr digital affine Bevölkerung. Hier wohnen Menschen, die oft sehr viel mehr von Digitalisierung verstehen als manche Verwaltungsmitarbeiter. Und die Potenziale dieser Daten werden überhaupt erst dadurch nutzbar, dass man die Rohdaten veröffentlicht, auf der Basis können Anwendungen entstehen, die Bürgerinnen und Bürgern etwas bringen, die mitunter vielleicht sogar einen wirtschaftlichen Mehrwert generieren. Es ist ja durchaus möglich, kommerzielle Angebote und neue Services basierend auf diesen Daten zu entwickeln.

    BS: Man kann in Berlin zum Beispiel auf die schöne Webseite daten.berlin.de gehen und da findet man über 3000 verschiedene Datensätze. Man kann einfach mal draufklicken und sich die Daten anschauen. In den meisten Fällen sind es Tabellen. Die sind zwar auch für Menschen lesbar, sie sollten aber auf sogenannte Maschinenlesbarkeit hin optimiert sein, denn sie sind ja dazu da, in anderen Programmen weiterverwendet zu werden. Aber man kann einen Datensatz runterladen, in einem Tabellenkalkulationsprogramm öffnen, ein paar Spalten markieren und sich ein Diagramm erstellen lassen. Auf dieser Ebene kann man den Einstieg in die Arbeit mit den Daten schaffen.

    Meine Erfahrung ist, dass diese praktische Arbeit schon viele Hemmschwellen beseitigt. Der Einstieg ist also gar nicht so schwer.

    BS: Ein klassisches Beispiel: Man nimmt Datenpunkte und packt sie auf eine Stadtkarte. Das ist die typische Open-Data-Anwendung. Wo ist die nächste öffentliche Toilette oder so. Diese Datensätze sind, wenn sie maschinenlesbar sind, mit Geokoordinaten hinterlegt, also mit Längen- und Breitengrad. Damit kann mir mein Computerprogramm auf einer Karte zeigen, wo sich der Datenpunkt befindet.

    Wir haben immer wieder Workshops, in denen wir den Schritt aus der virtuellen Welt zurück ins Materielle gehen, und Daten in haptische Gegenstände übersetzen. Wir haben zum Beispiel Schlüsselanhänger gebaut, die das eigene Mediennutzungsverhalten anhand von bestimmten Daten widerspiegeln. Man kann auch Spiele aus diesen Daten entwickeln. Der Fantasie sind also keine Grenzen gesetzt und es gibt eine ganze Reihe von Werkzeugen, um Daten ansprechend zu visualisieren. Die Visualisierung, also die Daten grafisch sichtbar zu machen, die Zahlen in Diagramme und Karten zu übersetzen, ist oft schon ein wichtiger Schritt.

    BS: Ein häufiger Fehler datenhaltender öffentlicher Stellen ist, dass sie versuchen, die Daten auch für Menschen aufzubereiten, obwohl sie eigentlich primär für Maschinen aufbereitet werden müssten. Das erkennt man zum Beispiel daran, dass in einer Excel-Tabelle irgendwelche Formatierungen enthalten sind, die Überschrift groß gemacht oder eine andere Farbe verwendet wurde, weil man denkt, so ist die Tabelle übersichtlicher für Menschen. Diese Formatierungen sind für die Maschinennutzung aber nur störend. Da geht es um die Rohdaten, also idealerweise nur Zahlenwerte, die durch Kommata getrennt sind. Man muss sich also als datenhaltende Stelle überlegen, wer ist Zielgruppe für meine Veröffentlichung? Sollen das Menschen lesen oder soll das in Software genutzt werden?

    Es gibt für bestimmte Datentypen Standards, im Geodatenbereich auch internationale Standards. Die sind einzuhalten, weil damit die Skalierbarkeit verbessert wird, wenn man diese Daten in gängige Tools laden kann. Wenn sie dem Standard entsprechen, können sie gleich weiter genutzt werden.

    Es macht auch Sinn, eine gewisse Datenkompetenz in den Häusern aufzubauen. Die ist derzeit nicht überall vorhanden. Und ein schöner Weg, diese Kompetenz aufzubauen, ist, die Daten selbst zu nutzen. Oft reicht es schon, die Daten für eine ganz simple Anwendung zu nutzen, um festzustellen, dass an der Datenqualität das ein oder andere verbessert werden könnte.

    BS: Wenn wir über Open Data im Verwaltungskontext sprechen, dann sprechen wir nicht über personenbezogene Daten, sondern über die vorhin schon genannten Infrastrukturdaten, Statistiken und so weiter. In der Praxis kommen manchmal Grenzfälle vor. Angenommen, man hat eine Armutsstatistik, in der steht, wie viele Sozialhilfeempfänger in einem Häuserblock leben. Ist da eine Zahl kleiner als drei, dann bewegt man sich in einem Bereich, in dem diese Datenpunkte potenziell identifizierbar sind. Da muss man also aufpassen. Dafür gibt es aber Lösungen.

    Ansonsten geht es um die Datenqualität: Sind die Werte akkurat und wie sind sie zustande gekommen? Diese Frage hat viel mit Verantwortung zu tun. Da merkt man schnell, dass es ganz neutrale und objektive Rohdaten nicht immer gibt, weil schon bei der Erhebung von Daten bestimmte Entscheidungen getroffen werden, beispielsweise die Festlegung eines Schwellwerts. Man kann an die Coronazeit und auch an andere Fälle denken, wo das eine unmittelbare Relevanz für die Menschen in einer Stadt hat. Und da ist es wichtig, dass die Daten möglichst akkurat sind und man gegebenenfalls Informationen zur Methode bereitstellt, die man verwendet hat, um die Daten zu erheben oder zu aggregieren, um vorzubeugen, dass diese Daten falsch interpretiert werden.

    BS: Die Frage ist, wie viel Einschätzungskompetenz ich meiner Zielgruppe zutraue: Habe ich es mit Experten zu tun, die wissen, wie sie die Daten einschätzen müssen? Oder richte ich mich an die breite Bevölkerung, der vielleicht das grundlegende Wissen dazu fehlt? Nehmen wir das Beispiel Klimadaten: Was mache ich mit der Information, dass es in Berlin zwei Grad wärmer ist als vor einigen Jahren? Können die Leute richtig einordnen, dass das gefährlich ist? Oder sagen sie sich: Zwei Grad sind doch ganz nett. Da geht es darum, die Daten einzuordnen. Wir haben ein Dashboard mit Klimadaten entwickelt, das sich an die breite Bevölkerung richtet und in dem erläutert wird, was zwei Grad Erwärmung bedeutet und dass das nichts ist, worüber man sich freuen sollte.

    BS: Interessant wird es, wenn es den Lebensalltag der Menschen tangiert – und noch interessanter, wenn man selbst einen Unterschied machen kann, wenn sich das eigene Verhalten in den Daten widerspiegelt. Bei unserer beliebten Anwendung „Gieß‘ den Kiez“, geht es um Stadtbäume. In der App kann ich nicht nur sehen, welche Bäume sind gerade akut von Trockenheit bedroht und was sind das für Bäume? Sondern, ich kann den Bäumen Wasser geben, das in der App vermerken und dann ändert der Baum seine Farbe. Und die anderen Nutzer können sehen: Dieser Baum wurde versorgt. Das ist ein schönes Beispiel für die Übersetzung von Rohdaten in „Actionable Data“. Und auch dafür, wie öffentliche Daten zum Mitwirken anregen können. Die Nutzenden freuen sich, dass sie in diesen trockenen Daten eine erkennbare Spur hinterlassen haben.

    Das ist ein schönes Beispiel dafür, dass man die Motivation der Menschen steigern kann, wenn man ihnen die Möglichkeit gibt, selbst auf die Daten einzuwirken. Also nicht nur die Daten zu lesen, sondern sie auch zu schreiben, wenn man so will, und die eigenen Spuren in den Daten zu entdecken.

    BS: Es gibt in allen großen und vielen kleinen Städten Communities, die sich für dieses Thema interessieren und sich regelmäßig treffen, um gemeinsam Datensätze anzuschauen und Anwendungen zu entwickeln. In vielen deutschen Städten gibt es die sogenannten Open-Knowledge-Labs von der Open-Knowledge-Foundation. Es gibt auch immer wieder Events, Hackathons oder ähnliches, wo man sich zwei, drei Tage zusammensetzt und an Anwendungen arbeitet. Dazu muss man kein Informatik-Genie sein.

    Bei der Entwicklung von Anwendungen gibt es auch viele Tätigkeiten, die nicht technischer Natur sind: Gestaltung, Marketing, Kommunikation, Projektmanagement. Das sind schöne Möglichkeiten eines zeitgemäßen zivilgesellschaftlichen Engagements und ich kann nur jedem empfehlen, sich da umzuschauen.

    BS: Ich bin ein großer Verfechter davon, dass Verwaltungen In-House-Kompetenz im Digitalbereich aufbauen. Das ist auch kein Entweder-oder. Verwaltungen arbeiten immer mit Dienstleistern zusammen und daran ist grundsätzlich nichts auszusetzen. Nur brauche ich ja mindestens die Kompetenz, um Dienstleister richtig zu steuern. Dazu muss ich wissen, was die tun. Ich muss z. B. einschätzen können, ob die Ergebnisse, die sie mir liefern, gut oder schlecht sind. Das ist im Digitalbereich im Moment noch nicht gegeben. Ich glaube, dass eine grundlegende Data Governance nicht durch ein externes Beratungsunternehmen erfolgen kann, sondern in-house passieren muss.

    Wir sprechen ja viel über digitale Souveränität in letzter Zeit. Man muss ja mindestens in der Lage sein, zu sagen: Mit Dienstleister A sind wir unzufrieden, ab nächstem Monat macht das Dienstleister B, ohne dass einem alles zusammenstürzt. Wenn das nicht gegeben ist, dann hat man sich zu stark abhängig gemacht.

    Es wird also weiterhin auf ein Zusammenspiel hinauslaufen, aber mit der Tendenz, dass grundlegende digitale und Datenkompetenzen vom Bestandspersonal aufgebaut werden müssen.

    BS: Das ist in der öffentlichen Verwaltung aus verschiedenen Gründen schwierig. Zum einen ist die Bezahlung in der Regel schlechter durch den TV-L oder TVöD, der im Digitalbereich nicht unbedingt konkurrenzfähig ist, gerade wenn man bedenkt, dass wir es nach wie vor mit vielen Quereinsteigern zu tun haben, die nicht die formale Qualifikation mit sich bringen, um beispielsweise auf eine E13-Stelle eingestuft zu werden. Es hat auch mit einer immer noch recht starren Recruitment-Kultur zu tun. Bewerbungsverfahren im öffentlichen Dienst dauern sehr lange. IT-Fachkräfte haben in der Regel drei andere Angebote auf dem Tisch, bevor die Verwaltung sich entschieden hat. Die allzu oft immer noch recht hierarchischen Kulturen im öffentlichen Dienst beißen sich mit dem Wunsch nach Eigenverantwortung, den gerade IT-Fachkräfte oft haben. Das ist nicht überall so, aber immer noch an vielen Stellen. Wenn ich jede kleine Entscheidung, die ich treffe, von drei Vorgesetzten freigeben lassen muss, dann verliert man den Spaß daran. Und last but not least sind auch die IT-Infrastrukturen, mit denen man in der öffentlichen Verwaltung arbeitet, angefangen beim Dienstrechner bis hin zu den großen Rechenzentren, nicht immer State of the Art. Das mag auch den Anreiz für IT-Fachkräfte trüben, sich in diesem Feld zu engagieren.

    Aktuell muss man eine gute Portion Idealismus mitbringen, um als IT-ler in den öffentlichen Dienst zu gehen. Es kann aber sehr lohnend sein, denn man tut etwas für die Allgemeinheit und hilft unserem Staat und unserer Verwaltung dabei, zukunftsfähig zu werden. Und das ist doch eine sinnvollere Aufgabe, als Werbeanzeigen zu optimieren.

    BS: Ich halte das Open-Source-Thema für außerordentlich wichtig. Aber ich bin mir nicht sicher, ob es überall im öffentlichen Dienst wirklich verstanden wurde. Man kann das Thema Open Source auf unterschiedlichen Ebenen diskutieren, was aber über die Medien verbreitet wird, sind meistens Nachrichten wie: Bundesland XY wechselt von Windows zu Linux. Da geht es darum, auf Ebene der Beschaffung zu schauen: Kann ich statt dem proprietären Produkt ein Open Source-Produkt einkaufen? Schön und gut, wenn Verwaltungen das machen. Das Potenzial, das der Open Source-Gedanke in sich trägt, ist aber sehr viel größer, nämlich: Ich bekomme Übersicht und Kontrolle über meinen Software-Stack und ich bin in der Lage, den eigenen Stack bedarfsgerecht weiterzuentwickeln. Es geht also nicht nur darum, Open Source-Produkte einzukaufen, die Kopien von proprietären Produkten sind, sondern selbst IT-Infrastruktur zu bauen und die vollständige Kontrolle über diese Infrastruktur zu haben. Das Potenzial von Open Source besteht darin, dass diese Softwareinfrastruktur wirklich meine ist, dass ich mich nicht von einzelnen Dienstleistern abhängig mache, dass die Öffentlichkeit sehen kann, wie dieser Code aussieht. Das ist auch eine vertrauensbildende Maßnahme.

    Wir haben aus meiner Sicht beim Onlinezugangsgesetz den großen Fehler gemacht, keine Open Source-Verpflichtung festzuschreiben. Deshalb haben wir viele proprietäre Insellösungen bekommen, die miteinander nicht kompatibel sind, und im Grunde müssen wir nochmal von vorne anfangen.

    BS: Es hat für öffentliche Stellen im Grunde keine Nachteile, die Code-Basis zu veröffentlichen. Wir merken das im CityLAB Berlin. Wir arbeiten ausschließlich open source, wir veröffentlichen alle unsere Produkte unter Open Source-Lizenzen und im Idealfall entstehen um unsere Produkte herum Communities, die am Code freiwillig mitarbeiten und uns auf Fehler im Code hinweisen. In dem Moment, wo man seine Software nicht verkaufen will, und das wollen Verwaltungen ja nicht, hat Open Source keine Nachteile. Daher wäre ich dafür, dass wir noch viel stärker auf Open Source setzen.

    Im Land Berlin wird gerade eine Open Source-Strategie erarbeitet. Es ist meines Wissens so, dass man in Vergabeverfahren zumindest bevorzugt prüfen kann, ob es Open Source-Lösungen gibt. Man hat in der Praxis das Problem, dass es nicht für jedes IT-Fachverfahren eine Open Source-Lösung gibt, man im Zweifel also diese Lösung selbst entwickeln muss und Entwicklungsprozesse immer aufwendiger sind, als bereits bestehende Produkte zu kaufen. Deswegen ist es eine Abwägungssache, ob Verwaltungen sich das leisten können. Das Potenzial wäre jedenfalls riesig – aber da kommen wir wieder zum Kompetenzthema: Open Source macht nur Sinn, wenn man in-house die Leute hat, die Code lesen und schreiben können.

    BS: Richtig. Gerade im Smart City-Kontext, wo es diese großen Bundesförderprogramme gab, hat man vorbildlicherweise festgeschrieben, dass Software, die aus diesen Fördermitteln entwickelt wird, Open Source sein soll. Das hat in meiner Wahrnehmung einige der einschlägigen großen IT-Player vergrault. Es hat im gleichen Zuge aber den Markt für kleinere Player geöffnet. Wenn man das also klug anstellt, dann ist das sogar wirtschaftlich eine Maßnahme, die den sehr ungleichen kommunalen IT-Markt öffnet, in dem es viele Abhängigkeiten gibt.

    Abhängig sind die Verwaltungen übrigens nicht nur von großen Playern, sondern oft auch von kleinen Monopolisten, weil es für Fachsoftware oft nur einen Hersteller gibt, der es sich leisten kann, zehn Jahre keine Sicherheitsupdates herauszugeben. Ich kenne viele solche Fälle. Oft sind diese Produkte nicht sonderlich komplex. Hätte man offene Lösungen, dann könnten die kontinuierlich weiterentwickelt und auch lebendig gehalten werden. Das wäre für die Verwaltung ein Riesenvorteil.

    Ich denke, wir wären heute einen großen Schritt weiter, wenn der Code überall offen wäre. Und es geht nicht nur um den Code, es geht um die IT-Landschaft insgesamt. Wenn man versucht, herauszufinden, welche Software in so einem Bürgeramt läuft, ist das nahezu unmöglich. Es wird unter Verschluss gehalten und das ist nicht mehr zeitgemäß. Wir sollten viel offener damit umgehen. Auch etwaige Sicherheitsbedenken lasse ich nicht gelten. Es ist inzwischen hinreichend belegt, dass offener Quellcode per se kein Sicherheitsrisiko darstellt.

    BS: Im proprietären Modell investiere ich als Unternehmen einmal in die Entwicklung der Software und verkaufe sie dann an meine Kunden. Als Dienstleister, der Open Source Software entwickelt, stelle ich in der Regel meine Entwicklerzeit in Rechnung. Meine Entwickler haben sechs Monate daran gearbeitet, hier ist mein Tagessatz. Das ist aus Sicht der öffentlichen Verwaltung das viel transparentere und bessere Modell. Es ist ein transparenteres Modell, als zu sagen: Ich verkaufe dir dieses Produkt, verrate dir aber nicht, wie viel ich da rein investiert habe. Und es können auch immer mehrere Anbieter bieten, die mir nicht unterschiedliche Produkte anbieten, für die ich mich entscheiden und auf die ich mich festlegen muss. Sondern: Es bieten zum Beispiel unterschiedliche Entwicklerstudios ihre Dienstleistungen an: Ich brauche dafür nur vier Monate oder bei mir ist der Tagessatz ein bisschen günstiger. Man kann also viel granularer steuern. In dieser Hinsicht findet durch den Open Source-Ansatz auf jeden Fall eine Öffnung des Marktes statt.

    Ich kann aus unserer Sicht sagen: Für die Entwickler, die bei uns arbeiten, war es ein großes Plus, dass wir gesagt haben: Ihr könnt bei uns open source entwickeln. Viele Entwickler mögen das, weil sie oft so sozialisiert sind. Man macht oft seine ersten Gehversuche in Open Source-Communities, auch weil es für die eigene Profilierung vorteilhaft ist, wenn man sagt, da und da habe ich mitgearbeitet. Es macht mehr Spaß, Code zu schreiben, der nicht im Tresor weggeschlossen wird, sondern für alle einsehbar ist.

    Dieses Interview wurde am 23.06.2025 geführt.

    Seibel, Benjamin (2026): Offene Daten, smarte Städte, freie Software. In: Verantwortungsblog. https://zevedi.de/offene-daten-smarte-staedte-freie-software/ [27.02.2026]. https://doi.org/10.60805/128s-8532.


    Benjamin Seibel
    leitet das CityLAB, Berlins erstes öffentliches Innovationslabor, seit dessen Gründung im Jahr 2019. Zuvor betreute er Open Data-Projekte bei der Technologiestiftung Berlin. Er promovierte in Darmstadt und Harvard zur Mediengeschichte des E-Government und arbeitete als Journalist und Kurator u.a. in New York, Nicosia und Rotterdam und Frankfurt am Main.

  • Über den Blog
    Der ZEVEDI-Verantwortungsblog hat die Frage zum Gegenstand, wie gut es uns im Zusammenleben mit Digitaltechnologien geht. Er kommentiert die Ambivalenzen, die Steuerungsprobleme und die Vertretbarkeit des digitalen Wandels. Was an möglicherweise kritischen Technikfolgen (und Markteffekten) sollte man in den Blick nehmen und diskutieren? Wo sind Sorgen angebracht? Wie passt Digitalisierung zu Freiheit und Demokratie? Welche Regeln braucht eine digitale Gesellschaft? Wovon sollte – weil es kritisch werden könnte – die Rede sein?

    Es schreiben Autor:innen aus dem ZEVEDI-Netzwerk sowie Gäste darüber, was sie lernen und erforschen, was sie beunruhigt und was sie fasziniert.

    DOI: 10.60805/5c9w-7n74
    ISSN:  2943-9124

    RSS-Feed RSS-Feed abonnieren