Großen IT-Unternehmen fehlt oft das Interesse zur Unterstützung kleiner Sprachen, aber dank Deep Learning helfen sich die Sorben nun selbst. Nach zwei Jahren Projektarbeit ist Sotra nun online gegangen. Sotra ist die Abkürzung für Sorbian Translator. Dahinter stehen 200.000 obersorbisch-deutsche Satzpaare aus unterschiedlichen Lebensbereichen mit reichhaltigem Vokabular und vielfältigen grammatischen Formen. Doch das ist erst der Anfang. Vor allem muss die Sammlung brauchbarer Sätze beschleunigt werden. Technisch basiert Sotra auf der Open-Source-Übersetzungssoftware Moses sowie OpenNMT, einem System zur maschinellen Übersetzung auf Grundlage neuronaler Netze. Entscheidend sei eine ausreichend große Menge an Daten, um die Systeme in der Sprache zu trainieren. Sotra löst etwa das Problem, weches man mit Facebook bei Übersetzungen aus dem Sorbischen hat: Facebook bietet bisher bei sorbischen Texten eine Übersetzung aus dem nahe verwandten Tschechischen oder auch Polnischen an, was das Ergebnis aber entsprechend verfälscht. Ganz aktuell hat das Projektteam zur Eigenentwicklung des Übersetzungsprogramms die Datenbank mit neuem Vokabular zu den Themen Impfen, Impfzentrum und Corona gespeist. Gefördert wird Sotra durch das sächsische Wissenschaftsministerium mit rund 140.000 Euro und dem Bund mit 72.000 Euro. Nach offiziellen Angaben gibt es etwa 60.000 Sorben und Wenden, von denen zwei Drittel in Sachsen leben.