This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Seit Weizenbaums System ELIZA – der „Mutter aller Chatbots“ (Tewes 2005) – wurden die Systeme rasant weiterentwickelt: vom einfachen Keyword-Parser zu komplexen Systemen, die auf Big-Data-Ressourcen zurückgreifen und Machine Learning nutzen. Silicon-Valley-Konzerne zeichnen eine Zukunftsvision, aus der die intuitive sprachliche Interaktion mit dem virtuellen Gegenüber nicht mehr wegzudenken ist.
Dabei ist die Konzeption selbst der avanciertesten KIs in ihren Grundprinzipien problematisch: Das System „versteht“ seine User*innen nicht im engeren Sinne, da es über kein Bewusstsein verfügt, das sich selbst denkt und den anderen als denkendes Wesen wahrnimmt. Daran knüpfen sich zahlreiche Probleme der semantischen Verarbeitung von User*innen-Eingaben auf der Ebene der semantischen Kontiguität der Dialoge. Interaktionen mit der KI wirken sprunghaft oder starr; es fehlt ihnen der „rote Faden“. Wenn also kein wirkliches „Verstehen“ in der Dialogverarbeitung stattfindet, können Kohärenz und Kohäsion in Mensch-Maschine-Dialogen auf der Textebene allein überhaupt erzeugt werden?
Im Vortrag sollen unterschiedliche Strategien diskutiert werden, inwiefern man durch geschickte Dialog-Designs die Illusion eines kohärenten Dialogs schaffen und möglichst lange aufrechterhalten kann (enge User*innen-Führung, Antizipation von User*innen-Reaktionen und Störungen). Dabei werden auch unterschiedliche Systemarchitekturen thematisiert, die jeweils zu unterschiedlichen linguistischen Verarbeitungsproblemen führen: einfache Chatbots, Big-Data-Ansätze und Machine Learning.
Im zweiten Teil des Vortrags werden zwei „Mixed-Methods“-Studien vorgestellt (CA, Korpuslinguistik, Psycholinguistik), in deren Rahmen das sprachliche Verhalten von Nutzer*innen gegenüber a) unterschiedlichen Chatbots (Lotze 2016) und b) Social Bots (Lotze & Ohrndorf in Vorb.) analysiert wurde.
Abschließend soll auf Ebene der Grundlagenforschung diskutiert werden, wie User*innen reagieren, wenn sie sich mit den unterschiedlichen Formen von Dialog-Designs konfrontiert sehen und welche Implikationen darin liegen für die Zukunft der linguistischen KI-Forschung.
Literatur
Lotze, Netaya (2016): Chatbots – Eine linguistische Analyse. Lang.
Lotze, Netaya (2018). Präsenzunterricht ade? Künstliche Intelligenz für’s Sprachenlernen. In: Magazin Sprache. Goethe Institut. online verfügbar: https://www.goethe.de/de/spr/mag/dsk/21290629.html
Lotze, Netaya (2018): Zur sprachlichen Interaktion mit Chatbots – Eine linguistische Perspektive. In: Theo Hug, Günther Pallaver (Hg.). Talk with the Bots – Gesprächsroboter und Social Bots im Diskurs. Innsbruck University Press. S. 29-50).
Tewes, Michael (2005): “Sie können ruhig in ganzen Sätzen mit mir sprechen!” Chatbots und ihre Bedeutung für internetbasierte Kommunikation. In: Siever, Torsten et al. (Hg.): Websprache.net. Sprache und Kommunikation im Internet (Linguistik – Impulse und Tendenzen), S. 242–265.
Venue
Campus Herrengarten
AH-A 217/18