Kategorien
podcast-de podcast-DG-de Uncategorized

Wie es Computern gelingt, eigenständig mit Sprache umzugehen

Seit mächtige Sprachmodelle der breiten Weltöffentlichkeit zur Verfügung stehen, ist der Erfolg der Computerlinguistik offenkundig: Man hat dort Rechnerarchitekturen entwickelt, die in der Lage sind, intuitive menschliche Sprache zu prozessieren. Das Verhalten, das diese Systeme zeigen, ist im Detail kaum noch nachvollziehbar, umso beeindruckender sind die Ergebnisse, die sie liefern: Assistenzsysteme, die mit diesen Sprachmodellen ausgerüstet sind, lassen sich steuern und generieren Output, als würden sie Sprache tatsächlich selbst beherrschen – und ihre Anwendungsmöglichkeiten gehen weit über die aufsehenerregenden Chat-Bots hinaus, die die öffentlichen Debatten bestimmen. GPT und verwandte Systeme sind allerdings keineswegs plötzlich entstanden. Sie sind das Ergebnis eines beharrlichen Lernprozesses: Erste Versuche, Sprache in Algorithmen abzubilden, scheiterten in der Mitte des zwanzigsten Jahrhunderts nicht nur an fehlenden Ressourcen oder weil entscheidende maschinelle Lernverfahren noch nicht entwickelt waren, sondern auch deshalb, weil die Theorien darüber, wie sich die Bedeutungsebene menschlicher Sprache abstrakt fassen und systematisieren lässt, unzureichend waren. Was also machen Entwickler:innen moderner Systeme anders als die Pionier:innen der Computerlinguistik?

Chris Biemann ist Professor für Sprachtechnologie an der Universität Hamburg, wo er den Fachbereich Language Technology und das House of Computing and Data Science leitet. Im Digitalgespräch gibt der Experte tiefe Einblicke in die Entstehung und Funktionsweise moderner Sprachmodelle und erklärt sprachwissenschaftliche Theorien, die dabei zum Tragen kommen. Er macht verständlich, warum die Systeme so beeindruckende Ergebnisse liefern und beschreibt, wozu sie in der Wissenschaft eingesetzt werden können. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Biemann, welche Ressourcen in die Entwicklung solcher Systeme fließen, was passiert, wenn man Sprachmodelle auf dem ganzen Internet trainiert – und welche Aufgaben die Computerlinguistik jetzt, wo sie ihr großes Ziel erreicht zu haben scheint, noch vor sich hat.

Folge 36: Digitalgespräch mit Chris Biemann von der Universität Hamburg, 16. Mai 2023
Weitere Informationen:

Zum Lehrbuch „Wissensrohstoff Text – eine Einführung in das Text Minig“ von Chris Biemann, Gerhard Heyer und Uwe Quasthoff: https://link.springer.com/book/10.1007/978-3-658-35969-0
Zur Webseite des House of Computing and Data Science: https://www.hcds.uni-hamburg.de/hcds.html

Alle Folgen des Digitalgesprächs
Folge 0: Digitalgespräch - ab dem 26. Mai 2021
Ein Vorgeschmack auf das Digitalgespräch | 24. Mai 2021 | zur Folge»

Alle ZEVEDI-Podcasts

Creative Commons Lizenzvertrag