Am 2. Februar 2018 geben wir ein Kolloquium an der Berlin-Brandenburgische Akademie der Wissenschaften. Dabei stehen technische Fragen im Zentrum. In Anlehnung an die sehr effektive Prosodieerkennung aktueller Sprachtechnologien demonstrieren wir einschlägige Methoden wie prosodische Phrasierung, spoken document Analyse und Disfluenzmodellierung zur digitalen Analyse rhythmisch-prosodischer Muster jenseits der metrischen Versfüße (Jambus, Trochäus). Diese Muster bestimmen wir zunächst manuell, und überführen sie dann in eine digitale Mustererkennung auf der Grundlage maschinellen bzw. tiefen Lernens. Dazu haben wir eine Methode (bzw. langfristig eine Software) zur digitalen Prosodieerkennung und formalen Korpusanalyse eigenrhythmischer Gedichte entwickelt, die wir auf der ESSV präsentieren wollen.
Unser Vortrag gibt zunächst einen Einblick in die digitale Prosodie-Analyse, für die wir mehrere Standarttools kombinieren: den Part-Of-Speech (PoS)-Tagger von Natural Language Processing Group der Stanford University, das Text-to-Speech (TTS) System (MARY TTS), den Wavesurfer für das mapping der rhythmischen Phrasierung, das CMUSphinx Speech-Recognition Toolkit für das sogenannte forced alignment, Software wie z. B. openEAR or openSMILE für die Extrahierung akustischer Merkmale, AuTOBI für die Prosodie-Analyse und die Extraktion der ‚phrasal tones‘, ‚pitch accents‘ und ‚breaks‘, den Rhythmus-Erkenner Sonic Visualizer zur Extraktion der lokalen Sprechgeschwindigkeit, und schließlich deep learning toolkits wie WEKA und TensorFlow. Die akustischen bzw. textuellen Daten von Lyrikline werden als Eingangssignale bei der computationalen Prosodieklassifizierung verwendet, die Software entwickeln wir mit C++ oder Java. Insbesondere möchten wir uns im Rahmen des Vortrags auf mögliche Anwendungen mit begrenzten Datensätzen und die Handhabung schwieriger Probleme im Rahmen des Verstärkungslernens konzentrieren.