Was ist eigentlich ChatGPT
Viele von Ihnen haben wahrscheinlich schon ChatGPT getestet, eine sog. Generative KI, weil sie Texte erzeugt. Aber sind solche Systeme jetzt intelligent oder nicht? Zur Beantwortung lohnt ein Blick hinter die Kulissen am Beispiel von ChatGPT. Es handelt sich um ein Large Language Model, basierend auf einem künstlichen neuronalen Netz, das mit Deep Learning und riesigen Datenmengen aus dem Internet trainiert wurde. In der aktuellen frei nutzbaren Version reicht die Datengrundlage nur bis 2021 und sie ist nicht mit dem Internet verbunden; wobei es nicht nur bei der Aktualität, sondern auch bei den gelieferten Antworten empfehlenswert ist, Fakten zu checken.
Wahrscheinlichkeiten statt Wissen
Wenn Sie ChatGPT eine Aufgabe stellen, etwa „Schreibe eine Job-Description für IT-Projektleitung“ so antwortet der KI-Bot nach dem Prinzip der Wahrscheinlichkeit. Denn große Sprachmodelle haben gelernt, wie Texte funktionieren, wie sie möglichst menschengemacht klingen und welche Wörter besonders häufig miteinander kombiniert werden. Für die Antwort wird also jeweils das Wort ausgewählt, welches am wahrscheinlichsten auf das vorhergehende Wort folgt. Das kann man sich ähnlich wie einen Lückentext vorstellen, der ausgefüllt wird. Bots wie ChatGPT kennen also Sprachmodelle und arbeiten danach, sie haben aber kein Wissen über die Inhalte selbst, über die sie schreiben. Daher ist es wichtig, zu entscheiden, wofür sie eingesetzt werden, denn sie können durchaus Hilfsdienste leisten, doch sie haben auch ihre Grenzen. KI braucht Kontrolle, darüber ist sich mittlerweile auch die Politik einig, ein wichtiger Schritt zur Regulierung könnte der AI-Act der EU werden.
Die Zukunft der Arbeit mit KI
Wir alle, und speziell nochmals HR-Manager, machen sich Gedanken, wie sich die Arbeitswelt aufgrund des vermehrten Einsatzes von KI entwickeln wird. Seine Visionen formulierte Sam Altman von OpenAI bereits 2021 in einem Blog: „Meine Arbeit bei OpenAI erinnert mich jeden Tag an das Ausmaß des sozioökonomischen Wandels. Diese Revolution wird phänomenalen Reichtum schaffen.“ Dieser Reichtum müsse von der Politik neu verteilt werden, so könnten die Menschen das Leben führen, das sie sich wünschen. Der Preis für Waren und Dienstleistungen würde mit KI gegen null fallen.
Differenzierter ist der Zugang von Stuart Russell, seit rund 35 Jahren Professor für Informatik an der UC Berkeley und der mit seinem AI-Lehrbuch als Vorreiter gilt. In seinem Buch Human Compatible schreibt er: „Wenn Technologie von jedem Menschen einen kostenlos arbeitenden fleißigen Zwilling schaffen könnte, wer hätte dann noch einen Job?“ Soziale Berufe, wo Menschen einfach besser sind, sollten jedenfalls nicht automatisiert werden. Generell vertritt Russell den Ansatz, dass KI anders programmiert werden müsse: Statt Maschinen mit einem unveränderlichen Ziel zu bauen, müsse sie bescheiden sein, den Menschen dienen, um Erlaubnis fragen und sich ggf. auch abschalten lassen (Hier eine Kurzfassung der grundlegenden, interessanten Gedanken aus seinem Buch).
Die Zukunft des Lernens mit KI
Lebenslanges Lernen ist für uns selbstverständlich geworden und HR-Abteilungen sorgen mit vielfältigen individuellen Bildungsangeboten für die Weiterentwicklung jeder Mitarbeiterin und jedes Mitarbeiters. Denn Wissen ist für Unternehmen ein entscheidender Wettbewerbsvorteil. Wird sich das mit KI ändern? Denn wenn wir all unser Wissen an Maschinen übertragen, wozu sollte ein einzelner Mensch noch etwas lernen, mahnt Professor Russell: „Selbst wenn die Maschinen verstehen, dass menschliche Kompetenz wichtig ist und uns zurufen: Halt, ihr müsst die Kontrolle behalten – kann es sein, dass wir kurzsichtigen, faulen Menschen das nicht tun.“ Statt Abhängigkeit sollten Werte wie Autonomie und Handlungsfähigkeit zählen. Die große Herausforderung sei, dass es aufgrund dieser völlig neuen Technologie kein Vorbild gibt, wie wir die Beziehung zwischen Maschinen und Menschen gestalten werden.
Zusammenfassend sagt Stuart Russell: „KI ist eine Technologie, die an sich weder gut noch böse ist. Die Entscheidung liegt bei uns, ob wir sie vernünftig oder falsch einsetzen. Ich denke, dass wir Algorithmen viel zu lange eine Freikarte gegeben haben.“