#hpsg — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #hpsg, aggregated by home.social.
-
2/ Der Post in 1/ klang vielleicht etwas negativ. Das Bild zeigt den Aufbau des #VerbMobil-Systems. Es gab die so genannte tiefe Verarbeitung und statistikbasierte Verarbeitung. Tiefe Analyse ist symbolische #KI. Da waren drei Grammatiken drin. Für Englisch, Japanisch und Deutsch. Der Formalismus dafür war #HPSG. Da die Strukturen groß werden, die Ambiguität (schon im Sprachsignal) groß war, brauchte die tiefe Verarbeitung sehr viel Zeit. Auswertungen ergaben: Wenn die tiefe Analyse nicht ins Zeitlimit lief, war sie immer besser als die flache statistikbasierte Analyse.
Ich hatte mit der deutschen Grammatik 93% Abdeckung. Was der Rest war, war auch klar. Das sollte nicht in die Grammatik.
Nun ja. Das Problem der Maschinellen Übersetzung kann man wohl als gelöst ansehen. Geht so. Murakami und Kafka würde ich immer noch per Hand übersetzen, aber für alltägliche Kommunikation reicht es. Das geht ohne ein tieferes Verständnis der Texte.
(Ich hoffe ich werde jetzt nicht von Übersetzungswissenschaftler*innen und Übersetzer*innen verprügelt.)
-
Michael Hahn hat den #Leibnitzpreis bekommen, mit einer Arbeit dazu, unter welchen Bedingungen #LLMs daneben liegen. Herzliche Glückwunsch!
Ich kenne ihn seid er 16 ist. Da kam er zu einer #HPSG-Konferenz, mit einer Arbeit zum Arabischen. Er hatte die Analyse mit dem Computer implementiert und als Frank Richter nach dem Vortrag erstaunt fragte, mit welchem System er gearbeitet habe, war die Antwort: „Für #TRALE brauchte man eine Prolog-Lizenz, deshalb habe ich mir selbst einen Parser geschrieben.“ Uns ist allen die Kinnlade heruntergefallen, denn das sind eigentlich zwei Jobs: Ein solches System entwickeln und eine Analyse für das Arabische ausarbeiten. Und das mit 16. Die meisten Erwachsenen kriegen kein gerades HPSG-Papier hin.
Ein außergewöhnlicher Mensch!
„Selbst die besten KI-Sprachmodelle (Large Language Models, LLMs) können bei logischen Fragestellungen deutlich danebenliegen. Dann stimmen Rechnungen nicht, Reihenfolgen werden falsch wiedergegeben oder die KI halluziniert und denkt sich falsche Kennzahlen oder Zitate aus. Michael Hahns Arbeiten an der Schnittstelle von Maschinellem Lernen und Computerlinguistik erklären, warum LLMs trotz massiver Fortschritte weiterhin Fehler machen. Er hat eine Forschungsrichtung initiiert, die die Fähigkeiten der neuronalen Netzarchitektur analysiert, auf der alle populären LLMs basieren – der Transformer-Architektur. Er konnte mathematisch beweisen, dass Transformer bei Aufgaben scheitern, in denen jeder Teil der Eingabe für die Ausgabe relevant ist, das heißt, wenn die Änderung eines einzigen Zeichens das korrekte Ergebnis verändern kann. So lassen sich theoretische Einsichten gewinnen, mit denen man die Stärken und Schwächen von LLMs besser vorhersagen kann. “
https://www.dfg.de/de/gefoerderte-projekte/preistraeger-innen/leibnitz-preis/2026/hahn
-
Call for papers:
HPSG Conference 2026
*extended deadline*
17 April 2026 -
Ich: „So ein Mist! Das ist ja alles falsch!“
„Stefan, hör doch einfach auf, Bücher zu lesen, die Dich so ärgern.“
„Es ist ja mein Buch!“Na ja, zwanzig Jahre altes Buch. Komplett überarbeitet. Kein Buchstabe bleibt auf dem anderen. Da findet man selbst beim dritten Mal Lesen noch Fehler. Ich hoffe, es sind jetzt alle.
-
Carl Pollard hat mal in einem Aufsatz über die Grundlagen der #HPSG über die soziologischen Unterschiede zur Mainstream Generative Grammar geschrieben, dass es bei HPSG keine fearless leaders gibt. Das weiß ich sehr zu schätzen. Hätte ich als Ossi auch nicht gut gefunden, wenn das in meiner Community so gewesen wäre. Ich hatte mir lange genug irgendwelchen Quatsch anhören müssen, von dem behauptet wurde, dass es eine wissenschaftlich begründete Weltanschauung sei.
Und bei Chomsky gibt es halt auch so Schriften, die niemand versteht, also auch Hardcore-Insider nicht. Weil sie formal inkonsistent sind, oder Sachen fehlen. Niemand, der nicht Chomsky ist, hätte je so was veröffentlichen können.
Nun habe ich mit jemandem geredet, der die Bilder von #Chomsky aus seinen Folien rausnehmen will.
Tja. Personenkult ist halt immer Mist.
Nur falls es Fragen gibt: Chomskys Verdienste um die Linguistik sind unbestritten. Viele der alternativen Frameworks haben sich aus seinen Ansätzen entwickelt.
-
Paper by Yanru Lu and me about #reduplication in #MandarinChinese is now (pre-)published:
-
Paper by Yanru Lu and me about #reduplication in #MandarinChinese is now (pre-)published:
-
Paper by Yanru Lu and me about #reduplication in #MandarinChinese is now (pre-)published:
-
Paper by Yanru Lu and me about #reduplication in #MandarinChinese is now (pre-)published:
-
Paper by Yanru Lu and me about #reduplication in #MandarinChinese is now (pre-)published:
-
#HPSG in Norway!
Call for papers is out (please share :)DL: 10th of April 2026
-
RE: https://climatejustice.social/@stefanmuelller/115293847175140078
Bald fertig. Nur noch zwei Kapitel, die gelesen werden müssen. Dann muss ich die Kommenatre bearbeiten und dann \o/.
Wenn noch jemand Kommentare zum #HPSG-Buch hat, kann er/sie/es diese hier einarbeiten.
Danke! =:-)
-
This is an article about reduplication in Madarin Chinese. By Yanru Lu and me. It grew out of Ynaru Lu's masther thesis and will appear in 2027 in the Journal of Linguistics.
Have fun.
https://lingbuzz.net/lingbuzz/009505
#linguistics #language #Chinese #syntax #morphology #semantics #HPSG
-
2/ Hier isser. Reduplikation im Mandarin Chinesischen.
#HPSG #Linguistik #Sprachwissenschaft #Morphologie #Syntax #Semantik
https://lingbuzz.net/lingbuzz/009505
Viel Spaß!
-
New version of my paper on phrasal constructions in TAG.
https://ling.auf.net/lingbuzz/009130
#Grammatik #Linguistik #Argumentstruktur #CxG #Konstruktionsgrammatik #ConstructionGrammar #HPSG #Lexikalismus .
-
Neue Version meines Aufsatzes zu phrasalen Konstruktionen in TAG.
https://ling.auf.net/lingbuzz/009130
#Grammatik #Linguistik #Argumentstruktur #CxG #Konstruktionsgrammatik #ConstructionGrammar #HPSG #Lexikalismus .
-
Wenn jemand helfen möchte beim Korrektur-Lesen eines Buches von Language Science Press, dann kann er oder sie das hier tun:
https://paperhive.org/documents/items/UREiwJl9ZO4B
Das ist die vierte Auflage meines Buches über #HPSG. Jetzt komplett überarbeitet. Eigentlich sollten keine Fehler mehr drin sein, weil das ja schon die vierte Auflage ist, aber ich habe bei der Überarbeitung sicher ein paar neue reingemacht.
Ihr könnt auf #Paperhive direkt kommentieren. Die Anmerkungen werden dann mit #docloop zu Issues auf #GitHub. Viel Spaß und Danke!
-
The #HPSG website from Tübingen has been archived by Frank Richter, who is in Frankfurt/Main now.
It is over 20 years old:
https://www.english-linguistics.de/archives/hpsg/starten.html
If you want to have a glimps of the design back then …
-
3/ Wow. Ich glaube, ich bin jetzt wirklich fertig. Bin das ganze Buch durch und habe alles auf den aktuellen Stand gebracht. Argumentstrukturliste und MRS-Semantik und was mir sonst noch so aufgefallen ist.
Wenn Ihr Zeit habt und es jetzt lest, kann ich Feedback noch einarbeiten, sonst für die nächste Auflage.
https://hpsg.hu-berlin.de/~stefan/Pub/hpsg-lehrbuch.html
Geht jetzt ins Proofreading und dann noch Feinsatz und dann ist auch das abgehakt.
-
2/ Kapitel über #Partikelverben ist jetzt auch fertig. Ich glaube, das ist wegen der unterspezifizierten #Semantik (#MRS) schwieriger zu verstehen.
https://hpsg.hu-berlin.de/~stefan/Pub/hpsg-lehrbuch.html
Jetzt noch das Kapitel über Morphologie und dann ein bisschen allgemeine Betrachtungen und dann ist das geschafft.
-
Bilder aus einer friedlicheren Zeit. Workshop in der Nähe von #Haifa 2013.
Mark Steedman und die ganzen HPSGer, die an Grammatikentwicklung arbeiten.
Damals bin ich noch geflogen …
https://www.flickr.com/photos/lingphot/albums/72177720327520476/
-
Pictures from a more peaceful time. 2013 in #Israel.
This was a workshop near Haifa in a conference center. With Mark Steedman and the #HPSG crowd working on grammar implementation.
https://www.flickr.com/photos/lingphot/albums/72177720327520476/
-
At this years #LFG conference, I will talk about #TAG and what it shows us for the old phrasal vs. lexical discussion:
https://lingbuzz.net/lingbuzz/009130
I think valence information has to be encoded lexically and lexical rules or empty heads or transformations should be used to derive resultative constructions or caused motion constructions. They can not be related to other constructions in inheritance networks.
Comments welcome!
-
18/ So, mal wieder ein Kapitel fertig. Kapitel 12 über Kongruenz. Ist ein kurzes und die Theorie ist simpel.
https://hpsg.hu-berlin.de/~stefan/Pub/hpsg-lehrbuch.html
Implementierte Grammatik für das Kapitel ist auch schon da.
Viel Spaß!
-
1/ „Das DFKI, an dem etwa 1.500 Forschende überwiegend mit öffentlichen Mitteln arbeiten, wurde schon 1988 gegründet. Damit waren die Deutschen bei dem Thema eigentlich früh dran.“
https://taz.de/Kuenstliche-Intelligenz/!6086074/
Nun ja, nun ja. #KI war nicht immer das, was heute unter #KI läuft. Computerlinguistik war zum größten Teil symbolische KI. Es gab große Ontologien, die versuchten, menschliches Wissen zu formalisieren, so dass man mit logischen Schlussverfahren etwas daraus ableiten konnte. Expertensysteme.
Und schon nach dem Krieg wurde mit Machineller Übersetzung begonnen. Man dachte sich, wenn Turing die Enigma entschlüsseln konnte, müsste es auch möglich sein, maschinell zu übersetzen, denn letztendlich war das ja auch nur ein Dekodierungsproblem.
Irgendwann kam dann der ALPAC-Report und es gab den ersten AI winter. Komischerweise fehlt der in Wikipedia.
https://de.wikipedia.org/wiki/Maschinelle_%C3%9Cbersetzung
Das war 1966. Also gab es schon damals KI.
https://de.wikipedia.org/wiki/ELIZA
Weizenbaum hat auch 1966 #ELIZA geschrieben.
Auch symbolische KI. In #Prolog. Als er sah, wie Menschen darauf reagierten wurde er zum KI-Kritiker. Die #LLMs von heute sind sehr viel leistungsfähiger und sehr viel gefährlicher.
Ach so: Auf dem Bild ist Reinhard Karger vom #DFKI. Er hat immer die Demos von #VerbMobil gemacht, das auch im Bild zu sehen ist. Lief damals auf ner SUN Sparc Station.
VerbMobil war das größte KI-Projekt, das es jemals in Deutschland gab. Wahrscheinlich auch international. Eigentlich zu groß.
https://de.wikipedia.org/wiki/Verbmobil
Ich habe mit Walter Kasper die deutsche Grammatik gemacht. #HPSG #Linguistik #Computerlinguistik
-
2/ HU hat ihre eigenen LLMs usw. Das behebt das Problem mit dem Datenschutz. Weiß nicht, ob mal irgendwer von den #ChatGPT-Nutzer*innen die Nutzungsbedingung gelesen hat. Man gibt seine Daten komplett ab.
Besonders schön natürlich bei Menschen, die ChatGPT als Freund oder Psychiotherapeuten benutzen.
Bei der Uni ist Datenschutz und Personalrat und alles davor. Das ist safe, hoffe ich.
Jedenfalls kann man mit noch verschiedenen anderen Tools in einem komplexen Setting Lehrmaterialien einstellen, so dass man dann einfach Fragen stellen kann und auch gute (!) Antworten bekommt.
Ich revidiere ja gerade mein #HPSG-Lehrbuch und hatte so die Idee, dass man vielleicht KI-gestützt rauskriegen könnte, wo Information fehlt, damit eine gute Erklärung möglich ist. Vielleicht geht das aber auch nicht, weil die Tools das noch nicht hergeben.
Jedenfalls habe ich mal probiert, was jetzt rauskommt, wenn ich mir meine Abbildungen erklären lasse.
Ich war sehr beeindruckt, dass das Ding überhaupt weiß, was das ist.
Das Deutsch ist grottig. Teilweise Deutsch und Englisch gemischt. Aber, dass es weiß, was COMPS ist, überrascht.
„Ein Komplement ist ein Teil des Satzes, der notwendig ist, um das Verb sinnvoll zu machen.“
Das ist Unfug und so auf dem Level der Antworten, die man in der Einführungsvorlesung bekommt, nachdem die Student*innen den Grundkurs absolviert haben (leider, obwohl sie da was Anderes gelernt haben).
„Das "<>" steht für Zeuge oder Index.“
Ehm, what? Das ist ne leere Liste. Zeugen haben wir in der Linguistik nicht. Gott ist mein Zeuge!
„- "NP" steht für Nomen Phrasen.“
„Das NP [nom] "Aicke" und NP [acc] "Conny" sind die Subjektpositionen (Aicke und Conny) im Satz.“
Aua! Gleich zwei Subjekte in einem Satz heute?
„Es ist wichtig zu bemerkenn, dass "acc" für "accusative" (Anschluss) steht und "acc" Wortphrasen verbaler Objekte sind oder verbalen Inhalte enthalten die ein Hauptung der syntaktischen und semantischen Struktur sind.“
Kein Anschluss unter dieser Nummer!
„Der Termin "nom" oder "nominative" für "nominativ" steht für ein Subjekt-Konzept, unabhängig davon, welche semantische Rolle das Wort im Satz spielt.“
Ich versuche jetzt einen Termin zu bekommen, um mal ein paar Bücher einzuspielen und dann damit zu spielen. Ich bin echt gespannt!
„Der Name Aicke ist als Nominalphrase nominativ gemarkt, was typischerweise die Rolle des Subjekts in einem Satz kennzeichnet. Conny ist als Akkusativ gemarkt, was in vielen Sprachen das Objekt markiert. Und erwartet wird als Verbalphrase markiert, die eine aktive Rolle in der Kausation oder dem Handeln übernimmt.“
Causation gibt es im Englischen. Hab gehört, dass es gemischte LLMs gibt, die Sprachen mischen. Vielleicht ist Kausation ja ein Ergebnis dessen. Wenn das Denglisch bisher noch nicht gewonnen hat, werden die LLMs ihm zum Sieg verhelfen.
„Diese Darstellung macht deutlich wie wichtige syntaktische Componenten an vielen Orten in einen Satz eingebunden sind.“
Das ist Gefasel! Ob eine Komponente wichtig ist oder nicht, ist völlig irrelevant.
Aber immerhin hat es überhaupt was erkannt.
-
13/ Das Kapitel zum #Lexikon ist auch fertig. Damit ist, glaube ich, das Schwierigste geschafft. Denn die Umstellung der #Semantik erforderte dann auch eine Revision der Lexikon-Macros, der Typhierarchie usw. Der Rest müsste jetzt einfach sein. Aber das dachte ich ja vom ganzen Buch auch.
Das Buch habe ich vor 20 Jahren geschrieben. Ich dachte, ich muss nur ein bisschen was aktualisieren, aber letztendlich muss man auch die Diskussion von Alternativen aktualisieren, denn zum Glück habe ich in den 20 Jahren etwas dazugelernt.
https://hpsg.hu-berlin.de/~stefan/Pub/hpsg-lehrbuch.html
Das Kapitel über topologische Felder ist auch schon fertig, aber das ist ja auch kurz.
-
#HPSG proceedings are out now:
-
From 2000 to 2003 I worked with the #LKB and now I am looking at the #ERG to see how some #MRS things are done. It is fun to see the output. Something I worked a lot with back then.
#blastFromThePast #GrammarEngineering #Grammar #Linguistics #HPSG
-
7/ Kapitel 5 ist fertig. Ich glaube, es ist die erste Einführung in Minimal Recursion Semantics (#MRS) auf Deutsch. Nicht, dass das irgendwas wert wäre, es lesen ja eh alle Englisch.
Jedenfalls, habe ich Kapitel vier und fünf komplett umgestaltet. Kapitel 5 ist ganz neu und viel von Kapitel 6 ist jetzt in vier drin. Uff. Danach wird jetzt alles ganz einfach. Die letzten Kapitel müssten einfach umzuschreiben sein. Die implementierten Grammatiken sind vielleicht schwieriger. Mal gucken.
Jedenfalls könnt Ihr hier die fertigen Kapitel lesen.
https://hpsg.hu-berlin.de/~stefan/Pub/hpsg-lehrbuch.html
Kommentare willkommen. Ich hoffe, man kann das so alles verstehen.
Der Code für das Buch und die TRALE-Grammatiken ist dort auch verlinkt. Ich werden in den nächsten Tagen die Anleitungen für das Installieren von TRALE aktualisieren. Wenn jemand das mal ausprobieren will.
-
#HPSG2025 is in #Lisbon this year.
Deadline March 22nd.
-
3/ Kapitel 3 ist auch fertig:
https://hpsg.hu-berlin.de/~stefan/Pub/hpsg-lehrbuch.html
Da ist die Einführung der Argumentstrukturliste neu. Die gab es bisher in dem Buch nicht.
Ab jetzt wird es schwierig, denn zu jedem Kapitel gibt es eine Computer-Implementation und die muss ich auch noch anpassen. Ich werde eine unterspezifizierte Semantik verwenden, so dass wirklich alles neu wird. Na, mal sehen.
#OpenSource #OpenAccess #Linguistik #Syntax #Sprachwissenschaft #HPSG .
-
2/ Kapitel 2 ist jetzt überarbeitet und online. Es beschäftigt sich mit dem Formalismus der getypten Merkmalstrukturen. Dazu wird als Beispiel ein Detektivbüro benutzt.
Insider werden sich darüber freuen, dass der Detektiv Max Müller heißt und von Bettina Kant besucht wird.
https://www.youtube.com/watch?v=nxUEd0jQSlw
Das ist aber auch das einzige Lustige im Buch! Der Rest ist todernst.
Habt Spaß!
PS: Ich glaube, dass der Film auch irgendwo komplett rumfliegt. Falls Ihr lange Weile habt oder einfach die Schnauze voll von Politik.
#OpenSource #OpenAccess #Linguistik #Syntax #Sprachwissenschaft #HPSG .
-
2nd CALL for Papers:
#HPSG Conference
2/9/2025-3/9/2025
in Centro de Linguística da Universidade de LisboaPlease share :)
-
So, das Kapitel über Generative Ansätze zur Analyse der Germanischen Sprachen ist jetzt beim Verlag und angenommen. Vielleicht ändert sich noch was bei meinen Formulierungen, aber der Inhalt sollte fertig sein.
https://ling.auf.net/lingbuzz/008757
#Syntax #Germanisch #Linguistik #GenerativeGrammatik #Grammatik #HPSG
-
Just published " Head-Driven Phrase Structure Grammar: The handbook, Second revised edition" edited by Stefan Müller, Anne Abeillé, Robert D. Borsley & Jean-Pierre Koenig. #openaccess #eotms #hpsg https://langsci-press.org/catalog/book/478
-
Yes! Now I can combine my two main interests: ecology and grammar theory. The journal of Environmental & Earth Sciences thinks that my paper on #HPSG and #ConstructionGrammar qualifies me to publish with them.
If I had more time, I would try to publish something on Construction Grammar there.
-
1/ Manfred #Bierwisch ist am 31.07. im Alter von 94 Jahren gestorben. Er hatte eine unglaubliche Breite. Es gibt viele Menschen, die zu allem etwas zu sagen haben, aber nur sehr wenige, die zu allem etwas Wichtiges zu sagen haben. Bierwisch war einer von diesen wenigen.
https://de.wikipedia.org/wiki/Manfred_Bierwisch
Ich habe mal zwei Bilder in seinen Eintrag eingebaut und auch noch ein bisschen Text geschrieben. Bierwisch hat schon in den 60ern die Analyse entwickelt, die viel später Standard wurde. Und nicht nur in der Mainstream Generative Grammar (Chomskysche Linguistik), sondern auch in der #LFG und der #HPSG.
-
-
A week ago we finally published the volume on headedness with interesting papers in #phonology, #morphology and #syntax. #HPSG and #Minimalism. Also #historicallinguistics and #typology. The book appeared with @langscipress
in the #EOTMS series:
https://langsci-press.org/catalog/book/336