KI im Büroalltag: Chancen und Risiken

KI Künstliche Intelligenz

KI im Büroalltag: Chancen und Risiken

KI kann eine große Hilfe im regulären Büroalltag sein. Wir zeigen die Möglichkeiten und Herausforderungen auf, die mit der Nutzung von KI einhergehen.

Dieser Beitrag ist ein Teil unserer Einführungsserie zum Thema „Künstliche Intelligenz und LLMs“.

Wie funktioniert ein LLM (Large Language Model)?

Ein Large Language Model (LLM) ist ein neuronales Netzwerk, das darauf trainiert wurde, menschliche Sprache zu verstehen und zu generieren. Die Funktionsweise eines LLM basiert auf einem Trainingsprozess, bei dem das Modell eine große Menge an Textdaten durchläuft. In diesem Training lernt das Modell Muster, Zusammenhänge und Wahrscheinlichkeiten in der Sprache, wodurch es Text generieren und Kontexte erkennen kann.

Die zugrundeliegende Struktur ist meist ein Transformer-Modell, das in der Lage ist, Sprache in tiefen Schichten zu verarbeiten und damit sowohl lokale als auch globale Kontexte zu berücksichtigen. Diese Fähigkeit ermöglicht es LLMs, nicht nur einzelne Wörter, sondern auch komplexe Sätze und Bedeutungen zu verstehen und zu erstellen. Das Resultat ist ein Modell, das auf verschiedene Arten von Fragen und Aufgaben reagieren kann – von einfachen Fakten über kreative Texte bis hin zu logischen Schlussfolgerungen.

Was hochkompliziert klingen mag, lässt sich auch vereinfacht sagen: Eine KI in Form eines LLM möchte die wahrscheinlichste Antwort ausgeben, die ein Mensch gut findet. Wenn ich also ein Rezept für einen Apfelkuchen möchte, dann wäre es nicht gut, wenn mir ein LLM mit einem Liebesbrief antwortet – oder ein Sahnetortenrezept liefert. Diese Arbeit mit Wahrscheinlichkeiten heißt auch, dass LLMs nicht dazu in der Lage sind, zu fühlen, eigenständig Neues zu erdenken oder ähnliche Fähigkeiten, die nicht im Rahmen der Programmierung liegen.

Die enorm ausgebaute Fähigkeit von LLMs, auf Nutzeranfragen aller Art einzugehen, wirkt daher für viele Menschen wie Magie. Doch natürlich haben LLMs harte Grenzen. Wird ein Fachbereich zu spezifisch, oder die vorhandene Wissensmenge zu klein, denkt sich ein LLM gerne etwas aus, um die Anfrage zu befriedigen, was natürlich problematisch für eine verlässliche Wissensbildung ist. Dies lässt sich auch auf andere Use Cases anwenden. Es gilt: Je präziser man eine Anfrage stellt, und je mehr man einer LLM zur Verfügung stellt, desto akkurater fällt die Antwort aus.

Dabei ist zu bedenken, dass dies natürlich nur der aktuelle Stand ist. Dieser hat sich jedoch nach und nach verändert. Während LLMs wie ChatGPT zu Beginn des KI-Hypes nur dazu in der Lage waren, auf den eigenen Wissensstand zuzugreifen, sind sie inzwischen längst dazu in der Lage, Dinge im aktuellen Netz zu recherchieren und mit Quellen auszugeben, aus Textanfragen Bilder zu erzeugen (ein ganz eigenes Thema für sich), oder sogar hochgeladene Word-, PDF- oder Excel-Dateien auszulesen und zu analysieren.

Was sind die Anwendungsmöglichkeiten?

Daher sind die Anwendungsmöglichkeiten von LLMs sehr vielfältig. Sie können als Assistenten fungieren, um Routineaufgaben wie das Schreiben von E-Mails, das Zusammenfassen von Dokumenten oder die Erstellung von Berichten zu erleichtern. Darüber hinaus können sie zur Übersetzung und Transkription von Texten oder sogar zur Analyse von Stimmungen und Meinungen in großen Textmengen eingesetzt werden.

Ein weiteres wachsendes Feld ist die Automatisierung des Kundenservices: LLMs können in Chatbots integriert werden, um Kundenanfragen in natürlicher Sprache zu beantworten. Auch in der Forschung und im Wissensmanagement unterstützen sie durch die Erschließung großer Datenmengen und ermöglichen schnelleren Zugang zu relevanten Informationen. Dank ihrer Flexibilität und Anpassbarkeit gibt es zahlreiche Möglichkeiten, LLMs so zu nutzen, dass sie den Arbeitsalltag effizienter und produktiver gestalten.

LLMs können außerdem dafür genutzt werden, als Lehrer zu fungieren. Man kann in einer Prompt einfach anfragen, ein Thema beigebracht zu bekommen und einen persönlichen Lehrer haben, dem man Fragen stellen kann, bis man es versteht. Nutzt man dafür z.B. ein PDF-Dokument als Vorlage, so kann man sich direkt Seitenzahlen ausgeben lassen, auf denen der beigebrachte Inhalt steht. Dies führt zu einer ganz neuen Art der Informationsverarbeitung.

Auch können eigene Beiträge und Artikel mit KI unterstützt werden. Teile dieses Beitrags wurden mit Hilfe eines LLMs geschrieben (dieser nicht). Doch Achtung: Die Sprache von LLMs lässt sich für gewohnte Nutzer leicht erkennen. Ein Trick dabei ist es, dem LLM beizubringen, den eigenen Schreibstil zu imitieren, indem man ihm eine Vorlage bereitstellt. Mehr dazu dann im Abschnitt Prompt Engineering.

Im Büroalltag würde ich die Nutzung von KI also im Groben auf zwei Abschnitte fokussieren: Routineaufgaben und Spezialisierungsaufgaben. Einerseits kann man Mail-Kontakt vereinfachen und das Erstellen von Dokumentationen beschleunigen, andererseits kann man sich bei der Erstellung von Beiträgen (auch auf verschiedenen Sprachen), dem Erarbeiten von Dokumenteninhalten und Spezialaufgaben wie z.B. Code-Schnipsel im Webdesign oder Analyse von Excel-Dateien.

Welche KI-Tools gibt es und wie funktionieren sie?

Wenn es darum geht, welche LLMs oder auf ihnen aufbauende Tools man nun nutzt, gilt es zunächst genau zwischen diesen beiden Kategorien zu trennen. Es gibt einerseits immer die Möglichkeit, ein allgemeines LLM zu nutzen, andererseits aber auch spezialisierte Programme für spezielle Aufgaben.

Wenn es um die LLMs geht, so findet ein stetiges Wettrennen zwischen den verschiedenen Giganten der Technindustrie statt. Die relevantesten Vertreter sind GPT von OpenAI (und Microsoft), Gemini von Google, Llama von Meta (ehem. Facebook) und Claude von dem Unternehmen Anthropic. Daneben gibt es natürlich noch einige weitere Konkurrenz, die hier nun aber den Rahmen sprengen würde. All diese LLMs können direkt mit Prompts gefüttert werden und eine breite Spanne an Aufgaben erfüllen.

GPT und Gemini sind dabei inhaltlich die größten Konkurrenten. Im Netz finden sich etliche Analysen dazu, welcher der beiden Modelle nun stärker sei, doch dies ist ein stetiger Wettkampf. So ist OpenAI aktuell dabei, mit der Version o1 eine neue, stark verbesserte Version auf den Markt zu bringen und wirkt damit zunächst wieder vorne. Dies kann sich jedoch ändern. Ob man nun immer das allerbeste LLM benötigt, ist als Privatnutzer sowieso fraglich und eher für größere Unternehmen relevant.

Bei Llama handelt es sich im Gegensatz zu GPT und Gemini um ein offenes Modell, das heißt in diesem Fall vereinfacht, dass man es auch selbst umprogramieren kann und der Code öffentlich ist. Llama stellt Stand aktuell die häufigste Grundlage für lokale LLMs (sog. LocalLLaMAs) dar, die statt im Netz auf internen Firmen- und Privatnetzwerken laufen und ganz individuell zugeschnitten werden können.

Und dann wäre da noch Claude, das von Anthropic entwickelt wird, einer Firma, die von Ex-OpenAI-Mitarbeitern gegründet wurde. Hier haben wir auch die politische Ebene vorliegen, denn OpenAI wird viel dafür kritisiert, dass es eben nicht „open“ ist, und nicht im Sinne der Allgemeinheit, sondern rein wirtschaftlich agiert. Bei der Entwicklung von Claude werden ethische Standards und Datensicherheit in den Vordergrund gestellt. Dennoch ist das Modell (Stand aktuell) nicht viel schlechter als die Konkurrenz.

Auf diesen Modellen basieren dann auch externe LLM-Tools, wie z.B. NotebookLM von Google, das Recherche in Notizen oder sogar ganze Podcasts umwandelt, um diese leichter zu verstehen. Oder Hivemind, das selbiges stattdessen in einen simulierten Social Media Feed umwandelt.

Dann gäbe es da noch Napkin AI, das dazu in der Lage ist, Notizen automatisiert in Infografiken umzuwandeln. ChatPDF ermöglicht es, PDF-Dateien zu lesen und zu befragen, auch wenn dieses Tool durch die Möglichkeit, PDF-Dateien direkt in Claude oder GPT einzuspielen, deutlich weniger wichtig geworden ist.

Dann gäbe es noch Cursor, das einem zugeschnitten dabei helfen kann, Programmiersprachen zu lernen oder größere Coding-Aufgaben zu übernehmen und zu unterstützen. Genauso zugeschnitten ist Grammarly, nur nicht auf Programmiersprache, sondern auf reguläre Sprache. Grammarly kann sogar direkt in andere Programme und Apps integriert werden.

Auch hier könnte die Liste noch länger werden, aber ich würde stattdessen einfach einen Hinweis geben: Diese Drittprogramme möchten oft natürlich auch Geld verdienen und es gibt viele Marktteilnehmer, die Dinge verkaufen, die ein allgemeines LLM auch schon könnte. Daher würde ich immer dazu raten, zunächst zu prüfen, ob ein allgemeines LLM wie GPT oder Gemini bereits zu dem in der Lage ist, was man selbst benötigt, bevor man Geld für große Versprechen ausgibt. Die hier aufgelisteten Werkzeuge kann ich persönlich jedoch empfehlen, da diese immer über den Rahmen des Möglichen eines LLM hinausgehen und hochspezialisiert sind.

Es gibt außerdem noch die direkte KI-Integration in bestehende Apps, die nach und nach Einzug halten wird. So wird es in Zukunft möglich sein, LLMs in Programmen wie Excel, Google Docs o.Ä. zu nutzen und damit die Art und Weise zu verändern, wie wir mit diesen umgehen. Daher kann es nützlich sein, schon einmal zu lernen, wie man korrekt mit einer KI kommuniziert.

Datenschutz und LLMs

LLMs bringen neben ihren Vorteilen aber auch Datenschutzrisiken mit sich. Die riesigen Datenmengen, die für das Training genutzt werden, enthalten oft personenbezogene Informationen. Wenn Unternehmen diese Modelle nutzen, müssen sie sicherstellen, dass die verwendeten Daten anonymisiert oder rechtlich geschützt sind, um Datenschutzbestimmungen, wie die DSGVO in der EU, einzuhalten.

Ein Risiko besteht auch darin, dass LLMs sensible Daten ungewollt speichern und später abrufen könnten. Daher müssen Unternehmen prüfen, welche Daten sie in Interaktionen mit KI-Modellen nutzen, und darauf achten, dass ihre Datenaufbewahrung und -verarbeitung den gesetzlichen Vorgaben entspricht. Für sensible Bereiche wie das Gesundheitswesen oder das Finanzwesen ist ein erhöhter Schutz notwendig, um Datenmissbrauch und Datenschutzverletzungen zu verhindern.

Daher gilt gerade bei der beliebten Aufgabe, E-Mail-Kontakt zu vereinfachen, dass bei LLMs, die gänzlich über den Internetbrowser oder Cloud-Daten funktionieren, alle sensiblen Daten ausgelassen werden. LLMs arbeiten mit anonymisierten Daten genauso gut. Und selbst, wenn es um komplexere Datenanalysen geht, ist es sinnvoll, Stammdaten und Hinweise auf das Unternehmen zu anonymisieren.

Letztlich ist nur ein lokales LLM dazu in der Lage, zu 100% sicher Daten zu verarbeiten, diese benötigen jedoch für die Integration Fachkenntnis und Initialaufwand. Dies wird sich in den nächsten Jahren jedoch vermutlich durch den Fortschritt von Metas Llama und den offenen Versionen Gemma von Google und Phi-3 von Microsoft ändern. Vielleicht hat jedes Unternehmen irgendwann ein lokales LLM.

Prompt Engineering: Eine erlernbare Kompetenz

Prompt Engineering ist der Prozess, durch gezielte Eingaben (Prompts) das Verhalten eines LLM zu steuern. Da LLMs auf das verstehen und Reagieren auf Eingaben trainiert wurden, lässt sich ihre Leistung durch geschicktes Formulieren der Prompts optimieren. Dies kann zum Beispiel durch klare Anweisungen, spezifische Wortwahl und eine gezielte Strukturierung der Eingabe erfolgen.

Diese Kompetenz lässt sich durch Übung und Erfahrung erlernen und ist zunehmend gefragt, da sie die Qualität und Effizienz der KI-Nutzung maßgeblich beeinflusst. Unternehmen können mit gutem Prompt Engineering Zeit und Ressourcen sparen, indem sie gezielte Prompts entwickeln, die die KI optimal anleiten. Diese Fähigkeit wird besonders wertvoll, wenn Mitarbeiter individuelle Anforderungen und Lösungen entwickeln, die über Standardaufgaben hinausgehen.

Für unerfahrene Nutzer kann ich daher einige Tipps mitgeben, die schon einmal beim Einstieg helfen können:

  1. Präzise sein. Stelle dem LLM klare Anweisungen. Kein Vielleicht und kein Oder. Wenn du nicht genau weißt, was du möchtest, dann weiß das LLM es auch nicht.
  2. Gib ein Format oder Vorlagen vor. Du willst KI-geschriebene Beiträge, die zu den bisherigen passen? Dann gib der KI einen großen Datensatz mit, den sie auslesen kann. Du willst ein bestimmtes Format in einer Liste haben? Dann erstelle einen ersten Beispieleintrag. Dies verbessert die Antworten enorm.
  3. Gib dem LLM Kontext. Wenn du z.B. Recherchearbeiten durchführst, dann sammel doch ein paar Links zusammen, mit denen das LLM arbeiten kann, damit es sich nicht selbst Dinge ausdenken muss.
  4. Verwende positive Formulierungen. In diesem Punkt sind LLMs tatsächlich recht menschlich. Es wird mit Anfragen wie „Gib mir 10 Vorschläge“ mehr anfangen können als mit „Gib mir nicht weniger als 5 Vorschläge“.
  5. Editiere deine Prompts. Wenn etwas nicht genau passt, versuch nicht, das LLM wie ein Kind zu belehren, was alles doof war. Das führt selten zu sinnvollen Ergebnissen. Passe stattdessen deine Anfrage an.
  6. Rollenspiel. Was zunächst seltsam klingt, kann für gewisse Aufgaben sehr nützlich sein. Sag dem LLM, was es für dich aktuell sein soll. Lehrer, Berater, Zuschauer. Oder welche Zielgruppe es hat. Wissenschaftliche Texte oder nette Kindergeschichten?
  7. Schritt für Schritt. Versuch nicht, mehrere Aufgaben in eine Prompt zu stecken. Gehe Aufgaben an, wie du sie auch ohne KI angehen würdest. Erst recherchieren, dann Format erstellen, dann finalisieren.
  8. LLMs sind English-First. Dort sind sie am stärksten. Gute Englischkenntnisse können zu besseren Arbeiten mit LLMs führen. Übersetzen kann man auch ganz am Ende.
  9. Augen auf bei komplexen Aufgaben. Je komplexer das Thema, desto eher kann dein Wissen das der KI in gewissen Punkten überschreiten, sie es nun beim Programmieren oder einfach bei technischer Kenntnis und Begrifflichkeiten. In solchen Fällen sollte man immer nochmal nachschauen, ob alle Informationen auch tatsächlich stimmen.
  10. Lernen und Verstehen. Der wichtigste Tipp ist wohl: Nicht nur Artikel und Tipps von Menschen im Internet lesen, sondern tatsächlich LLMs im Alltag für Aufgaben nutzen. Zwar überschneiden sich die Erfahrungen, aber am besten lernt man die Kommunikation mit LLMs, wenn man sie tatsächlich nutzt!

Fazit

LLMs und spezialisierte KI-Tools bieten im Büroalltag großes Potenzial, Routineaufgaben zu automatisieren und komplexe Aufgaben effektiver zu lösen. Durch gezieltes Prompt Engineering und ein Verständnis der jeweiligen Einsatzbereiche können diese Werkzeuge maßgeblich zur Produktivitätssteigerung beitragen und als persönliche Assistenten, Recherchehilfen oder kreative Unterstützer fungieren. Zugleich ist jedoch ein klarer Blick auf die Datenschutzrisiken und die Grenzen der Technologie erforderlich – besonders wenn es um sensible Informationen oder verlässliche Fakten geht.

Wer die Fähigkeit zum gezielten Einsatz der KI beherrscht und sich über neue Entwicklungen informiert, kann nicht nur den Arbeitsalltag optimieren, sondern sich auch einen wichtigen Wettbewerbsvorteil verschaffen. Trotz der rasanten Weiterentwicklung bleibt KI ein Werkzeug, das mit Bedacht und Verantwortung genutzt werden sollte, um die Chancen voll auszuschöpfen und die Risiken zu minimieren. So integriert, kann KI zu einem unverzichtbaren Bestandteil einer modernen, effizienten Arbeitsweise werden, ohne dass dabei ethische und datenschutzrechtliche Aspekte vernachlässigt werden.