News

Linguistic Evidence (LE2024) weiterlesen
8. Summer School on Statistical Methods for Linguistics and Psychology weiterlesen
Bewerbung für Kurzzeitstipendien ab 2024 weiterlesen
openHPI-Kurs über „Introduction to Bayesian Data Analysis“ weiterlesen

B06

Die Vorhersage der Grenzen der Variabilität in Diskurs-Kohärenz mit Hilfe Neuronaler Modelle

PI(s): Prof. Dr. David Schlangen & Prof. Dr. Manfred Stede

Wir untersuchen den Begriff der Akzeptabilität von Äußerungen im Diskurskontext, verstanden als Grenzen der Variabilität in möglichen Diskursfortsetzungen. Wir erstellen eine Test-Suite von Beispielen solcher Fortsetzungen, zusammen mit Akzeptabilitätsurteilen von Versuchspersonen. Anhand dessen untersuchen wir, welche Aspekte von Diskurskohärenz neuronale Sprachmodelle bereits erfassen können, und weiterhin, wie durch die Bereitstellung induktiver Tendenzen, diese Erfassung erweitert werden kann. Damit bietet das Programm einen Beitrag sowohl zur Analyse des Begriffs und der Lernbarkeit durch positive Daten wie zur möglichen Verbesserung praktischer Modelle.

MitarbeiterInnen

Beyer

Anne Beyer

Universität PotsdamCampus GolmDepartment LinguistikKarl-Liebknecht-Strasse 24-25, Haus 14, Raum 2.2814476 Potsdam
Schlangen

Prof. Dr. David Schlangen

Universität PotsdamCampus GolmDepartment PsychologieKarl-Liebknecht-Strasse 24-25, Haus 14, Raum 2.1914476 Potsdam
(+49) 331 977-2692 E-Mail Link
Stede

Prof. Dr. Manfred Stede

Universität PotsdamCampus GolmDepartment LinguistikKarl-Liebknecht-Strasse 24-25, Haus 14, Raum 2.3114476 Potsdam
(+49) 331 977-2691 E-Mail Link | Link

Publikationen

Types of publications:

- Peer-Reviewed: Papers, Journals, Books, Articles of the CRC
- Talk or Presentation: Talks, Presentations, Posters of the CRC
- SFB-Related: not produced in connection with the CRC, but are thematically appropriate
- Other: Papers, Journals, Books, Articles of the CRC, but not peer-reviewed

Quick-Search by "Type" :
Author(s)TitleYearPublished inLinksType
Loáiciga, S., Beyer, A., & Schlangen, D.New or Old? Exploring How Pre-Trained Language Models Represent Discourse Entities.2022Proceedings of the 29th International Conference on Computational Linguistics (pp. 875-886). Gyeongju, Republic of Korea.Paper CodePeer-Reviewed