Das GPT Universum

Open AI broke the internet – so, oder so ähnlich, könnte man den Trubel und die Aufregung um die GPT-Modelle des momentan vermutlich bekanntesten KI-Entwicklerteams der Welt bezeichnen und das Aufkommen immer neuer Large Language Models. Nachdem Microsoft seine großzügige Partnerschaft mit dem Entwicklerteams bekannt gab, wurde schnell klar, dass Künstliche Intelligenz alles andere als ein Hype ist – sondern eher die Zukunft. Neben Microsoft ist auch Google ganz vorne mit dabei: mit ihrem BART-Modell zeigen die Suchmaschinenprofis, dass sie auch sie es verstanden haben, wie Künstliche Intelligenz und Sprachmodelle funktionieren.

Doch was genau sind eigentlich Sprachmodelle, sogenannte Large Language Models, wie funktionieren sie und warum sind sie momentan so im Trend? Diese Fragen wollen wir euch in unserem neusten Blog-Post erklären. Und wer sich über das Bild wundert: das hat ChatGPT gemeinsam mit DallE für uns kreiert – passend zu diesem Blogbeitrag – toll oder?

Ein Erklärungsversuch

Google definiert das Forschungsgebiet “Natural language processing” (NLP) wie folgt: „Als Teilgebiet der künstlichen Intelligenz verwendet NLP maschinelles Lernen zur Verarbeitung und Interpretation von Text sowie Daten. Natural Language Detection und Natural Language Generation sind spezielle NLP-Typen.“

Es wird also maschinelles Lernen dazu benutzt, aus unstrukturierten textbasierten Daten Informationen zu gewinnen und Zugriff auf diese extrahierten Informationen zu erhalten. NLP ermöglicht es Computern, Sprache so zu verstehen, wie wir Menschen es tun. Hierbei kann es sich um gesprochene oder geschrieben Sprache handeln, beides kann von NLP-Modellen verstanden werden. Wir teilen die Funktion solcher Modelle hierbei in 2 Phasen ein: “data preprocessing” und “algorithm development”. In der ersten Phase werden die ausgewählten Daten so bereinigt, dass sie für den Computer lesbar und somit analysierbar sind. Sind die Daten bereinigt, wird ein Algorithmus entwickelt bzw. vorhandene Algorithmen angewendet, um diese auszuwerten. Grobgenommen funktionieren so alle Sprachmodelle und sind schon seit einiger Zeit im Einsatz.

Sprachmodelle, Large Language Models und Co. – wir nutzen sie tagtäglich ohne es zu wissen

Der nervige Chatbot, der ständig aufpoppt und fragt, ob du Hilfe brauchst? NLP-Modell. Der Customer Support, der blitzschnell auf deine Probleme antwortet am Telefon? Auch ein NLP-Modell. Siri, die dir jede Information aus dem Internet holt und auch noch Witze erzählt? Ihr könnt euch die Antwort schon denken, richtig? NLP, genau! Doch durch ChatGPT ist auch die breite Gesellschaft auf NLP-Modelle und im generellen auf KI aufmerksam geworden, da diese Technologie greifbar und leichter zugänglich wurden für den Endverbraucher.

Für Normalverbraucher:innen sind solche Free-to-Use Programme nur ein kleiner Zeitvertreib nebenbei oder eine Hilfe bei kleineren Aufgaben. Für die Wirtschaft aber entsteht durch das neuste Modell GPT-4 ein bis dahin nicht dagewesener Nutzen.

Die Einbindung des Modells in neue Chatbots etwa macht deren Reaktion und Verarbeitung deutlich schneller, effektiver und korrekter – hier kann also nicht nur die Kundenzufriedenheit gesteigert werden, sondern auch Ressourcen gespart und Supportmitarbeiter:innen entlastet werden. Die Large Language Models der neusten Generation sind um ein vielfaches smarter geworden und können mittlerweile in nur wenigen Minuten aufgesetzt und eingesetzt werden.

Förderungen bleiben aus – und das ist ein riesiges Problem

Generell ist es um ein Vielfaches einfach geworden, neue KI-Modelle zu trainieren. Das liegt an der immer weiter voranschreitenden Digitalisierung und den schier unendlichen Daten, die uns zur Verfügung stehen. Und diese Daten steigen in ihrer Qualität, was das Trainieren von Modellen deutlich einfacher macht. Umso besser die Daten, desto besser werden unsere Modelle.

Was vor LLM´s noch extrem langwierig und mit vielen Hürden verbunden war, nimmt durch die NLP-Modell von Open AI nun mehr nur noch einen Bruchteil der Zeit ein. So können im textbasierten und auch im visuell basierten Bereich Modelle mit den Daten der GPT-Modelle trainiert werden und die Datenaufbereitung und -sammlung fällt – zumindest teilweise – weg.

Das Fazit: mit den heutigen Sprachmodellen ist es schwer abzuschätzen, wohin die Reise geht. Doch fest steht: die Entwicklung von KI-Modellen und deren Training sind nicht mehr den großen Technologieriesen vorenthalten. So lässt sich vermuten, dass immer mehr kleine und unabhängige Entwickler:innen und Unternehmen ihre Modelle an den Markt bringen werden. Und das ist gut so. Was uns fehlt, sind Unterstützung von Politik und Gesellschaft. Förderungen können helfen, aus Ideen echte Produkte werden zu lassen. Vor allem in Europa haben wir das Know-How und die klugen Köpfe, um KI-Modelle zu entwickeln, die uns als Gesellschaft voranbringen. Nur so können wir die Nutzung sicher und ethisch korrekt gestalten und weg vom Bild der „bösen KI“ kommen. Und es wird Rückschläge geben und Probleme zu beheben – doch genau dafür sind wir da. Und wer es noch nicht mitbekommen hat, unser KARLI erfüllt alle eure Wünsche in Sachen Large Language Models – worauf wartet ihr noch?

Wir entwickeln KI von Menschen – für Menschen.

FiveSquare – Aspiring the impossible