Projekte
Lesesaal in der Hochschulbibliothek

Projekte

Projekte der Hochschulbibliothek

Book Sprint: IT in BibliothekenBereich öffnenBereich schließen

Vom 25.-28.11.2021 findet an der Hochschulbibliothek der TH Wildau ein Book Sprint zum Thema IT in Bibliotheken statt.

Dabei soll ein Handbuch für IT-Bibliothekar*innen, Entscheider*innen in allen Bibliothekssparten sowie Studierende und Lehrende entstehen.

Die Veranstaltung wird von Lambert Heller, Frank Seeliger und Anne Christensen organisiert. Weitere Informationen finden Sie auf dieser Webseite.

Wilma geht online als ChatbotBereich öffnenBereich schließen

Gesellschaftliche Trends der Digitalisierung und Automatisierung erfassen natürlich auch die Bibliothek und ebenfalls den Auskunftsbereich. Daraus kann neuer Service entstehen, z.B. dass man von überall mit einer Frage-Antwort-Maschine kommunizieren kann, um die Frage immer und damit online loszuwerden. Sogenannte Chatbots sind massgeschneiderte Beantworter und digitale Assistenten, welche den Wildauer Bibliotheksbetrieb gut kennen und mit diesen Informationen versuchen, Ihnen eine passende Antwort zu geben. Versuchen Sie es unter Frag Wilma

Chatbots erleben auf Grund neuer Technologien und Algorithmen auch bei Bibliotheken eine Renaissance. Wir wollen den Service systematisch ausbauen und entwickeln, geben Sie uns gerne dazu Ihr Feedback!

Idee

Die Hochschulbibliothek der TH Wildau betreibt einen Chatbot, welcher Hilfestellungen für die Anliegen und Fragen der Studierenden aufbereitet. Die aktuell existierende prototypische Implementierung dieses Chatbots wurde für eine verbesserte Erkennungsrate der formulierten Anliegen bereits von einem Statistical Language Model zu einem BERT basierten Ansatz umgestellt. Obwohl der veränderte Ansatz nachweislich Verbesserungen erwirkt, gibt es dennoch blinde Flecken, d.h. der Zusammenhang zwischen einigen elementaren Begriffen aus der Domäne der Bibliothek ist nur geringfügig (bis gar nicht) vorhanden. Beispielsweise ist der Begriff „Medien“ im vom RoboticLab Telematik verwendeten Transformer-Modell in Richtung Presse, Funk, Fernsehen ausgerichtet. Im Kontext der Bibliothek werden aber eher Bücher, E-Books, Werke, Schriften, Zeitschriften, EJournals, usw. als Medien betrachtet. Als Folge dessen führen momentan Anfragen wie „Ich suche Medien über …“ häufig zum Teilbereich „E-Books“. Das ist zwar generell nicht falsch aber die Suchanfrage definiert noch keinen bestimmten Medientypen und müsste daher über alle Medientypen suchen. Vermutlich sind die Begriffe E-Book und Medien verknüpft, weil in den Trainingsdaten häufig „Digitale Medien“ im Zusammenhang mit „E-Books“ zu sehen war.

Dieses Problem ist in der NLP-Community durchaus gängig. Fachbegriffe aus dem wissenschaftlichen Umfeld der Biologie, dem Gesundheitswesen, usw. können nicht zuverlässig verwendet werden, wodurch die Sprachmodelle qualitativ ungenügend sind. Mit BioBERT für Sprachmodelle im biologischen Kontext und SciBERT für generell wissenschaftliche Texte wurden jedoch bereits zwei BERT basierte Sprachmodelle trainiert, die sich diesem Problem annehmen. Es stellt sich nun die Frage, ob eine Fortsetzung des Transformer-Trainings mit Textdaten aus dem Umfeld von Bibliotheken gleichermaßen funktionieren kann.

Hintergrund

Ende 2018 veröffentlichte Google Forschungsergebnisse zur Erstellung von textbasierten Sprachmodellen mit Hilfe der eigens entwickelten Technik Bidirectional Encoder Representations from Transformers (BERT). Dabei handelt es sich um künstliche neuronale Netze, welche anhand der bidirektionalen Betrachtung von Millionen, Milliarden oder sogar Billiarden von Sätzen die Bedeutung von Worten im Verwendungskontext erlernt. Die Besonderheit hierbei ist nicht die Erstellung eines Sprachmodells als solches oder die Verwendung von Machine Learning Ansätzen. Beides gibt es bereits in Form von Statistical Language Models und Neural Language Models. Die Innovation ist die bidirektionale Betrachtung, d.h. der Satz wird von links-nach-rechts und rechts-nach-links gleichermaßen analysiert. Zusätzlich wurde mit BERT das sogenannte Masked Language Modeling (MLM) eingeführt. Hierbei werden zufällig Worte aus einem Satz entfernt und das Modell muss während des Trainings vorhersagen, welches Wort am besten in den aktuellen Satzkontext passt. Mit der Next Sentence Prediction (NSP) wurde ein weiterer Baustein für ein verbessertes Sprachmodell-Training eingeführt. Mittlerweile gilt NSP jedoch als wenig hilfreich und wird daher in Weiterentwicklungen vernachlässigt. Im Kern bestehen Transformer Sprachmodelle aus einem tiefen neuronalen Netz, welche durch ein bzw. zwei Trainingsphasen für gewünschte Einsatzzwecke vorbereitet werden. Im ersten Schritt erfolgt ein allgemeines Training (Pre-Training) zur Erlernung von Wortbedeutungen und kontextuellen Beziehungen zwischen Worten. Daraus resultieren hochdimensionale Vektorräume mit denen mathematische Rechenoperationen durchführbar sind. Zusätzlich erfolgt das zweite Training, in welchem die zuvor erlernten Informationen – in Form der Vektorräume – auf ein bestimmtes Lernziel (Fine-Tuning) angewendet werden. Bekannte Lernziele sind die Herausfilterung von Textabschnitten basierend auf Fragen (Question Answering), die Zuordnung von Texten zu Themenbereichen (Document Classification) oder auch die Erkennung von emotionalen Empfindungen in Texten (Sentiment Analysis).

Google selbst verwendet seit Dezember 2019 ein eigens trainiertes BERT Modell für eine optimierte Auswahl von Suchergebnissen. Das Unternehmen nennt die Einführung von BERT einen Meilenstein für Suchmaschinen und spricht von der ersten echten kontextsensitiven Suche im Internet. NLP-Content-Matching/knowledge based question answering. Die Verwaltung von Wissen nimmt eine wichtige Rolle in Organisationen ein. Wissensdatenbanken ermöglichen dabei unabhängig von Zeit, Raum und Personen an Informationen zu gelangen und eine einheitliche Informationsqualität sicherzustellen. Als Ressourcen fungieren dabei größtenteils im Umlauf befindliche Textdokumente, von Ideenpapieren bis hin zu Benutzerhandbüchern. Etwa 80% aller Daten sind unstrukturiert, also ohne Angabe was sie repräsentieren – dazu zählt insbesondere Text.[1]

Die Pflege einer Wissensdatenbank ist meist ermüdend und zeitaufwändig. Insbesondere, wenn die einzupflegenden Daten unstrukturiert sind und somit zumindest einer rudimentären Strukturierung für Suchalgorithmen bedürfen. Daher werden die Dokumente standardmäßig mit Tags aus Schlüsselworten markiert, um eine Keyword-Suche zu ermöglichen. Erweiternd existiert die Volltextsuche, welche Übereinstimmungen zwischen Eingabe-String und Text-String(s) für die Ergebnisausgabe verwendet.[2] Beide Verfahren sind etabliert, aber statisch. Sie basieren auf bloßen String-Vergleichen, die es bereits seit Jahrzehnten gibt. Häufig gibt es entweder gar kein Ergebnis (weil keine Strings übereinstimmen) oder es gibt viel zu viele mögliche Ergebnisse (weil zu viele Strings übereinstimmen).

Direkte String-Abgleiche, egal ob bei Keywords oder im Volltext, haben ein generelles Problem: Sprache ist nicht eindeutig. Die Suchergebnisse ignorieren inhaltsmäßige Ähnlichkeiten: Verwenden Benutzer nicht das „Firmenvokabular“, sondern Synonyme oder thematisch ähnliche Begriffe, so gibt es kein passendes Suchergebnis. Auch lässt sich nicht garantieren, dass eine direkte String-Übereinstimmung auch das beste Ergebnis liefert. Es fehlt die semantische Komponente, die es erlaubt, eine Gesamteinordnung zwischen Suchanfrage und Texten der Wissensdatenbank vorzunehmen.

Transformer-Sprachmodelle ermöglichen semantische QA-Systeme durch das Aufspüren von kontextuell ähnlichen Textinhalten und sind daher ideal. Auch Google verwendet seit dem Jahreswechsel 2019/2020 einen BERT-Transformer für ein verbessertes Verständnis der natürlichsprachlich formulierten Sucheingaben – laut Google die größte Erweiterung des Suchalgorithmus seit Jahren und ein enorm wichtiger Faktor für die Zukunft von Suchmaschinen.[3] Eine Integration dieses Ansatzes in textbasierte Suchsysteme, ist daher sehr vielversprechend. Bei einer Wissensdatenbank müssen dazu notwendige „contextualized embeddings“ für jeden enthaltenen Text erzeugt und gespeichert werden. Diese lassen sich entweder Wort für Wort, Satz für Satz oder auch über den ganzen Text mit eingehenden Fragen verwenden. Somit können nicht nur Übereinstimmungen von Keywords, sondern ganze Sätze und Textabschnitte auf semantische Ähnlichkeit geprüft werden. Außerdem lassen sich die Ergebnistreffer nach Relevanz sortieren, da das Transformer-Sprachmodell mathematische Operationen zwischen Frage und Antwort(en) erlaubt und damit die „Nähe“ zueinander berechnet.

Dialogsystem

Auch wenn rudimentär bereits seit vielen Jahren im Bereich des E-Commerce vorhanden, feierten Sprachdialogsysteme (auch bekannt als Sprachassistenten, Chatbots) erst im Jahr 2017 ihren wirklichen Durchbruch. Ihr Einsatzbereich hat sich dabei stark erweitert und lässt sich neben E-Commerce nun auch im Endbenutzermarkt (z.B. Smartspeaker in der Wohnung, Chatbot im Smartphone) vorfinden.[4]

Aktuelle Dialogsysteme (z.B. Amazon Alexa, Rasa, IBM Watson Assistant) fokussieren sich auf die Erkennung von Bedürfnissen direkt aus dem verbalen Kommunikationsanteil. Formulierte Aussagen werden wortwörtlich durch das Dialogsystem analysiert. Dabei erfolgt ein Abgleich der Aussage des menschlichen Kommunikationsteilnehmers mit einer Liste von möglichen Themenbereichen (intents) und erwarteten Beispielformulierungen (training data), die im Chatsystem hinterlegt sind. Außerdem können Gesprächsverläufe durch fest programmierte Pfade simuliert werden (dialog stories).[5]

 

[1] Christie Schneider; The biggest data challenges that you might not even know you have; www.ibm.com/blogs/watson/2016/05/biggest-data-challenges-might-not-even-know/

[2] Als Beleg dient an dieser Stelle Zendesk (Cloudbasierte Kundensupport Software Plattform mit über 40.000 Kunden): support.zendesk.com/hc/de/articles/211317328-Übersicht-über-die-Endbenutzersuche-im-Help-Center

[3] Pandu Nayak; Understanding searches better than ever before; www.blog.google/products/search/search-language-understanding-bert/

[4] Frank Bentley et al.; Understanding the Long-Term Use of Smart Speaker Assistants; dl.acm.org/doi/abs/10.1145/3264901

[5] Als Beleg dient die Softwaredokumentation von Rasa: rasa.com/docs/rasa/

Jugend trainiert für GeschichteBereich öffnenBereich schließen

Wildau und die umliegenden Orte sind voller Geschichte und Geschichten: Warum gibt es kein Freibad mehr in Wildau, weshalb sagt meine Tante immer Poliklinik zum Gesundheitszentrum und was bedeuten die verfallenen Bunkereingänge an der Westhangtreppe?

Zu solchen und ähnlichen Fragen rund um Wildau wollen wir uns kontinuierlich treffen und arbeiten, teils auf dem Hochschulcampus der TH Wildau in der MKAW und in der Ludwig Witthöft Oberschule – ein Projekt und Versuch zugleich. Bis Februar 2020 sollen kurzweilige Podcasts zur Lokalgeschichte Wildaus von Jugendlichen für Jugendliche und Erwachsene produziert werden. Das Ziel der wöchentlichen Zusammenkünfte liegt darin, noch unentdeckte Schätze zu heben! Begleitet wird das Projekt durch den Schulsozialarbeiter, Mitarbeiter der Musik-und Kulturakademie Wildau und der TH Wildau.

Ein Projekt in Zusammenarbeit mit der Bibliothek der TH Wildau und der Musikakademie Wildau gefördert durch den Bibliotheksverband e.V.  aus Mitteln des Bundesministeriums Kultur macht Stark.

Mehr Informationen zu "Jugend trainiert für Geschichte"

 

Humanoider Roboter WilmaBereich öffnenBereich schließen

Seit September 2016 verfügt die Hochschulbibliothek über eine 1.20 große Kollegin mit dem Namen Wilma, welche vom französisch-japanischen Hersteller (Aldebaran/SoftBank) als Pepper ausgeliefert wird. Der gleichzeitig angeschaffte zweite Pepper der Hochschule mit dem Namen Bernd befindet sich im RoboticLab des Studiengangs Telematik.

Der humanoide Roboter soll im Rahmen einer hochschulinternen Zielvereinbarung unter dem Titel „Pepper4Library“ zusammen mit dem Team um Frau Prof. Mohnke für den Bibliothekseinsatz bis 2018 vorbereitet werden. Erstreckt sich sein "Können" auf tablet-gesteuertes Fahren und Bewegen, Spiele wie Schere-Stein-Papier, Witze erzählen, eine Bibliotheksführung, wird gerade intensiv an der Ortung und Navigation gearbeitet, an einem Tutorial zur Erläuterung der Drucker-Scanner-Kopiermaschine etc. Als fahrende und interaktive Litfaßsäule soll Wilma sich über alle drei Etagen mittels des Fahrstuhls bewegen können, die natürliche Sprache verstehen und kommunizieren können, gezielt Hinweise vermitteln, um in den Nachtzeiten und an den Wochenenden Bibliotheksbenutzern Hilfestellung zu geben. Damit kann die unbemannte Bibliothek, welche über ein chipkartenbasiertes Zugangssystem verfügt, auch außerhalb der üblichen Servicezeiten einen Grundbedarf an Serviceleistungen anbieten, wie man es im online-Zeitalter und der Ära von RFID-Selbstverbuchern auch sonst gewohnt ist.

Systematikumstellung auf RVKBereich öffnenBereich schließen

Seit Januar 2017 stellt die Hochschulbibliothek bei laufendem Betrieb ihre Systematik von der der Gesamthochschulbibliotheken des Landes Nordrhein-Westfalen (GHB), die seit 2004 nicht mehr fortgeführt wird, auf die der Regensburger Verbundklassifikation (RVK) um. Die RVK-Systematik ist geeignet für wissenschaftliche Bibliotheken und Institutionen jeder Größe, für Freihand- und Magazinbestände, und dient zugleich als gemeinsames Sacherschließungsinstrument. Die RVK besteht aus 33 Fachsystematiken, die dem klassischen Fächerkanon der deutschen Universitäten entsprechen. Das Expertenwissen seitens der Bibliotheken und seitens der Wissenschaft bildet aktuelle Entwicklungen im wissenschaftlichen Diskurs in der Klassifikation ab. Der Großteil des Bestandes der Hochschulbibliothek soll bis Ende 2018 umsystematisiert sein. Aktuell sind Medien des Fachgebietes Recht in Bearbeitung. Der aktuelle Medienstandort wird in der Bibliothekssuchmaschine Wilbert korrekt angezeigt, bei möglichen Ungenauigkeiten fragen Sie bitte beim Personal nach. Danke für Ihr Verständnis!

RaumplanerBereich öffnenBereich schließen

Seit Sommer 2017 ist ein Online-Raumvergabesystem in der Hochschulbibliothek im Einsatz. Studierende und Angehörige der TH Wildau haben hiermit die Möglichkeit, selbstständig Räume, die von der Bibliothek verwaltet werden, zu reservieren. Eine Reservierung kann über die Campus-App Unidos oder über raumplaner.bib.th-wildau.de getätigt werden.  Bisher war die Raumvergabe nur per Mail- oder Telefonanfrage möglich.

Technisch umgesetzt mit AngularJS und NodeJS. Der Quellcode steht auf Anfrage zur Verfügung.

Screenshot der Anwendung raumplaner.bib.th-wildau.de
© Screenshot

KompetenzclusterBereich öffnenBereich schließen

Angehörige der Hochschule haben hier die Möglichkeit, ihre Fach- und Interessensgebiete zu definieren. Anhand dieser Informationen organisiert die Bibliothek den Medienerwerb passend zu ihrer Beschreibung. Zur Anmeldung

Kompetenzcluster der TH Wildau als Word Cloud
© Jan Kissig, TH Wildau

Bewerbungen für BibliothekspreiseBereich öffnenBereich schließen

In den vergangenen Jahren hat sich die Hochschulbibliothek um verschiedene Bibliothekspreise beworben. Die Bewerbungen wurden als kleine Projekte dokumentiert und stehen hier zur Verfügung.

 

BibliotheksinformatikBereich öffnenBereich schließen

Seit Oktober 2015 wird am Wildau Institute of Technology e.V. an der Technischen Hochschule Wildau (Graduate School der TH Wildau) berufsbegleitend und gebührenpflichtig der Masterstudiengang Bibliotheksinformatik über vier Semester angeboten werden. Anvisiert ist die - salopp formuliert - IT-Besohlung von gestandenen Bibliothekaren, die sie befähigen soll, Herausforderungen und Veränderungen im technischen Informationsumfeld proaktiv mit zu gestalten, die Fähigkeit Programmcode zu produzieren, ist damit mit inbegriffen.

RFIDBereich öffnenBereich schließen

In der Hochschulbibliothek ist seit dem Umzug in Halle 10 in 2007 RFID für die Selbstverbuchung und Mediensicherung im Einsatz. Seitdem werden an der TH kontinuierlich Ideen und Prototypen rund um das Thema RFID im Bibliotheksumfeld entwickelt. Beispielhafte Projekte:

RFID-Rückstelltische

Seit Ende 2014 sind 11 unserer Rückstelltische mit RFID ausgestattet. Diese dienen der Erfassung von Medien, die im Haus genutzt werden und geben den Mitarbeitern der Bibliothek Ausfschluss über die Nutzungsfrequenz von Lesesaalbeständen. In unseren Nachweissystemen (Wilbert und OPAC) wird der aktuelle Standort der Medien im Wegweiser live dargestellt.

RFID-Inventur

Seit 2012 wird in der Hochschulbibliothek jährlich eine Komplettaufnahme über die Monografie-, Lesesaal, und Lehrbuchbestände per RFID durchgeführt. In den ersten beiden Jahren noch mit einer Kombination aus stationärerem Lesegerät und Notebook durchgeführt, wurde die Bearbeitung durch den Einsatz einer neuen kabellosen Antenne wesentlich verbessert. Als Grundlage der Inventurarbeiten dient eine Webanwendung, die dem Ausführenden alle wesentlichen Informationen auf dem Bildschirm des mitgeführten Notebooks darstellt.

ThesaurusBereich öffnenBereich schließen

Seit 2013 wird an der Hochschulbibliothek der TH Wildau mit EFRE-Förderung ein zweisprachiger Thesaurus (dt./en.) für die Fachgebiete Informatik, Wirtschaft und Verkehr aufgebaut. Ziel ist es, den Studierenden einen Überblick über ihr Studienfach und angrenzende Fachbereiche zu bieten. Darüberhinaus ist der Thesaurus als Recherchehilfe in der Bibliothekssuchmaschine Wilbert integriert.

Visualisierung von BuchcovernBereich öffnenBereich schließen

Auf der Basis von three.js werden in der Minirealisierung Bücherhelix die Cover der sogenannten "digitalen Schätze" der Bibliothek visualisiert. Der Anwendung zu Grunde liegt die Darstellung und Animation des Periodensystems der Elemente, jedoch ist die Abwandlung mit der Nutzung von Buchcovern ungleich weniger attraktiv.