<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[Christoph Burnicki]]></title><description><![CDATA[Christoph Burnicki]]></description><link>https://blog.christoph.burnicki.net</link><generator>RSS for Node</generator><lastBuildDate>Wed, 15 Apr 2026 17:39:23 GMT</lastBuildDate><atom:link href="https://blog.christoph.burnicki.net/rss.xml" rel="self" type="application/rss+xml"/><language><![CDATA[en]]></language><ttl>60</ttl><item><title><![CDATA[Künstliche Intelligenz im Unternehmen: Was du wissen musst, um mitreden zu können]]></title><description><![CDATA[Dieser Artikel richtet sich vor allem an Personen, die mehr darüber erfahren wollen, welche Möglichkeiten es gibt um KI im eigenen Unternehmen oder der eigenen Organisation einzusetzen. Der Text richtet sich an Personen, die an der Schnittstelle zwis...]]></description><link>https://blog.christoph.burnicki.net/kunstliche-intelligenz-im-unternehmen-was-du-wissen-musst-um-mitreden-zu-konnen</link><guid isPermaLink="true">https://blog.christoph.burnicki.net/kunstliche-intelligenz-im-unternehmen-was-du-wissen-musst-um-mitreden-zu-konnen</guid><dc:creator><![CDATA[Christoph Burnicki]]></dc:creator><pubDate>Fri, 04 Apr 2025 14:38:20 GMT</pubDate><enclosure url="https://cdn.hashnode.com/res/hashnode/image/stock/unsplash/Y7d265_7i08/upload/b70a7baee745599669c3501a0281049d.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Dieser Artikel richtet sich vor allem an Personen, die mehr darüber erfahren wollen, welche Möglichkeiten es gibt um KI im eigenen Unternehmen oder der eigenen Organisation einzusetzen. Der Text richtet sich an Personen, die an der Schnittstelle zwischen fachlichen und technischen Anforderungen arbeiten.</p>
<p>Du brauchst kein technisches Vorwissen, um dem Artikel zu folgen - aber am Ende solltest du in der Lage sein, mit Ingenieuren und Entwicklern fundiert über das Thema zu sprechen.</p>
<p><strong>Hier lernst du:</strong></p>
<ul>
<li>Welche Möglichkeiten es gibt, KI-Systeme in Unternehmen und Organisationen sinnvoll einzusetzen.</li>
</ul>
<ul>
<li>Die wichtigsten Konzepte und Begriffe, um mit Fachleuten auf Augenhöhe kommunizieren zu können.</li>
</ul>
<ul>
<li><p>Den Unterschied zwischen offenen und geschlossenen KI-Systemen - und warum das für den Datenschutz entscheidend ist.</p>
</li>
<li><p>Wie man eine KI so steuert, dass sie sich an bestimmte Vorgaben hält.</p>
</li>
<li><p>Wie man KI-Systeme sicher mit Unternehmensdaten verknüpft, ohne die Datensicherheit zu gefährden.</p>
</li>
<li><p>Welche fertigen Lösungen dein Team nutzen kann, um leistungsfähige und sichere KI-Assistenten zu erstellen.</p>
</li>
<li><p>Welche Ressourcen dir helfen, KI-gestützte Workflow-Automatisierung erfolgreich zu implementieren.</p>
</li>
</ul>
<p>Hier gehe ich vor allem auf das Thema Einsatz von KI ein. Für eine Erklärung darüber, wie KI grundlegend funktioniert, sowie der wichtigsten Grundbegriffe zum Thema KI allgemein, empfehle ich dir, vorher diesen Artikel zu lesen: <a target="_blank" href="https://blog.christoph.burnicki.net">Wie funktioniert Künstliche Intelligenz?</a></p>
<h2 id="heading-wie-konnen-ki-modelle-in-firmen-und-organisationen-eingesetzt-werden">Wie können KI-Modelle in Firmen und Organisationen eingesetzt werden?</h2>
<p>Viele Menschen nutzen bereits Tools wie ChatGPT für ihre tägliche Arbeit. Dies ist jedoch oft nicht unproblematisch: Datenschutzstandards werden häufig nicht eingehalten, wenn Inhalte über das Web an KI-Betreiber gesendet werden. Zudem ist die KI der Wahl oft nur sehr eingeschränkt hilfreich, da sie den Unternehmenskontext nicht kennt und beispielsweise keinen Zugriff auf (vertrauliche) Daten des Unternehmens oder der Organisation hat.</p>
<p>Hier soll zunächst vorgestellt werden, wie KI aktuell überhaupt in einem solchen vertraulichen Umfeld genutzt werden kann und welche Grenzen es (aktuell noch) gibt.</p>
<h2 id="heading-offene-modelle-und-datensicherheit">Offene Modelle und Datensicherheit</h2>
<h3 id="heading-geschlossene-modelle-leistungsfahig-und-unkompliziert">Geschlossene Modelle: Leistungsfähig und unkompliziert</h3>
<p>KI-Anwendungen wie ChatGPT, die über das Internet erreichbar sind laufen auf Webservern. Also auf Computern (bzw. riesigen Rechenzentren), die im Besitzt oder unter der Kontrolle des Anbieters oder eines Partnerbetreibers stehen. Beispielsweise werden die meisten Anwendungen von OpenAI in einem Microsoft-Rechenzentrum ausgeführt.</p>
<p>Der Vorteil hiervon ist zum Einen, dass die Modelle automatisch aktualisiert und bereitgestellt werden. Der wichtigere Grund ist allerdings, dass für den Betrieb der meisten LLMs besonders spezielle und leistungsstarke Hardware erforderlich ist. ChatGPT wäre im Grunde auf keinem heimischen Rechner ausführbar, selbst wenn der Code dafür frei verfügbar wäre.</p>
<p>Das birgt allerdings auch einen Nachteil: Der Öffentlichkeit ist oft nicht bekannt, was mit den Daten passiert, die an eine solche KI auf einem fremden Webserver gesendet werden. Es ist allerdings davon auszugehen, dass der Betreiber die Daten zumindest speichert, auswertet und für weiteres Training nutzt.</p>
<p>Insbesondere für deutsche Unternehmen und Behörden, die sich an Datenschutzerklärungen halten müssen, stellt das ein großes Hindernis dar.</p>
<h3 id="heading-offene-modelle-kontrolle-uber-daten-und-betriebsgeheimnisse">Offene Modelle: Kontrolle über Daten und Betriebsgeheimnisse</h3>
<p>Eine weitere Sorge war anfangs, dass der enorme Ressourcenverbrauch von KI-Modellen bedeutet, dass deren Training und Ausführung in großen Rechenzentren quasi alternativlos ist. Mittlerweile wissen wir aber: Viele leistungsstarke Modelle lassen sich auch mit eigener Hardware betreiben, teilweise sogar auf Laptops.</p>
<p>Das erste offene Modell war eigentlich ein Unfall: Ein Datenleck beim Facebook Mutterkonzern Meta hat dazu geführt, dass das Model und die Gewichte, also das Ergebnis des aufwändigen Trainings, öffentlich zugänglich waren. Das Meta-Model namens Llama wurde umgehend Open Source (also als öffentlicher Quellcode) zur Verfügung gestellt. Open Source bedeutet, dass jeder den Programmiercode einsehen, anpassen oder weiterentwickeln kann.</p>
<p>Seitdem sind viele neue OpenSource Modelle veröffentlicht worden. Waren die Modelle anfangs noch recht langsam und fehleranfällig, können einige von ihnen heute fast mit den großen geschlossenen Modellen mithalten. Dadurch ist eine Entwicklung angestoßen worden, die dazu geführt hat, dass auch immer mehr Unternehmen ihre Modelle und Gewichte veröffentlichen, zuletzt z.B. auch das chinesische DeepSeek.</p>
<h3 id="heading-datensicherheit-und-einsatz-offener-modelle">Datensicherheit und Einsatz offener Modelle</h3>
<p>Mittlerweile gibt es eine Vielzahl offener Modelle, die sich frei aus dem Internet herunterladen und installieren lassen. Viele offene, relativ leistungsstarke LLMs lassen sich bereits auf einem modernen MacBook flüssig ausführen. Ist ein solches Modell auf der eigenen Hardware installiert, wird es vollständig dort ausgeführt. Es werden keine Daten mehr über das Internet versendet. Dies bietet Unternehmen und Organisationen die Möglichkeit KI zu nutzen ohne dass Daten den eigenen Rechner oder das eigene Rechenzentrum verlassen müssen.</p>
<h3 id="heading-das-wichtigste">Das wichtigste:</h3>
<ul>
<li><p><strong>Geschlossenes Model (Closed Source):</strong> Ein Model bei dem der Quellcode (= Programmiercode) oder die Gewichte nicht öffentlich bekannt sind. Diese Modelle werden in Rechenzentren der Betreiber ausgeführt. Nutzer haben keine Hoheit über eingegebene Daten.</p>
</li>
<li><p><strong>Offenes Model (Open Source) :</strong> Ein Model, bei dem sowohl der Quellcode als auch die Gewichte frei verfügbar sind. Offene Modelle können frei aus dem Internet heruntergeladen und auf eigenen Rechnern ausgeführt werden, ohne dass dabei Daten über das Internet versendet werden.</p>
</li>
<li><p><strong>Sind Leistung und Intelligenz gefragt</strong>, sind offene Modelle in der Cloud häufig eine gute Wahl</p>
</li>
<li><p><strong>Ist Datensicherheit ein Muss</strong>, kommt man an geschlossenen selbst-gehosteten Modellen kaum vorbei.</p>
</li>
<li><p>In der Praxis wird oft eine Mischung aus beiden eingesetzt</p>
</li>
</ul>
<h2 id="heading-wie-kann-eine-ki-fur-ein-unternehmen-oder-eine-organisation-angepasst-werden">Wie kann eine KI für ein Unternehmen oder eine Organisation angepasst werden?</h2>
<p>Grundsätzlich ist das Allgemeinwissen eines KI-Models über die Welt in dessen Parametern gespeichert, <a target="_blank" href="https://blog.christoph.burnicki.net/wie-funktioniert-kunstliche-intelligenz#heading-was-wissen-sprachmodelle-und-wo-ist-dieses-wissen-gespeichert">wie hier beschrieben</a>.</p>
<p>Damit eine KI aber in einem Unternehmen oder einer Organisation sinnvoll eingesetzt werden kann, braucht sie meist zusätzlich spezifischen Kontext, Fachwissen oder Zugriff auf interne Informationen, Dokumente und Abläufe.</p>
<p>Es gibt verschiedene Möglichkeiten, das zu erreichen.</p>
<h3 id="heading-mit-der-systemprompt-kann-bestimmt-werden-wie-sich-die-ki-verhalt">Mit der Systemprompt kann bestimmt werden, wie sich die KI verhält</h3>
<p>Die Eingabe, die wir beispielsweise über ein Chat-Interface an eine KI senden, wird imm allgemeinen Prompt genannt. Genauer genommen handelt es sich hierbei allerdings um die User-Prompt, die nur einen kleinen Teil der finalen Prompt darstellt, die letztendlich an die KI gesendet wird.</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742035041939/2ba09b00-7499-4e6d-bf54-03ef58aec7ce.jpeg" alt class="image--center mx-auto" /></p>
<p>Im Hintergrund wird die Benutzereingabe durch die sogenannte System-Prompt und Kontextinformationen ergänzt. Alles zusammen wird dann als finale Prompt in das Model gegeben.</p>
<p>Die <strong>System-Prompt</strong> ist für Nutzer meist unsichtbar und dient der grundlegenden Konfiguration der KI. Sie legt fest, in welchem Tonfall oder Format die KI antwortet und kann Informationen wie das aktuelle Datum oder das Cut-Off-Datum der Trainingsdaten enthalten. So wird z.B. versucht sicherzustellen, dass die KI keine Daten vorgibt, die sie nicht besitzt.</p>
<p>Bereits während des Trainings wird das System darauf optimiert, keine falschen oder gefährlichen Informationen auszugeben, nicht zu halluzinieren und sich respektvoll zu verhalten. Diese grundlegenden Weichenstellungen sind von Anfang an Teil des Trainingsprozesses.</p>
<p>Darüber hinaus kann die System-Prompt gezielt genutzt werden, um die KI beispielsweise anzuweisen, einen bestimmten Stil beizubehalten, einem festen Frage-Antwort-Schema zu folgen oder bei fehlenden Informationen Rückfragen zu stellen. Sie hilft auch, die KI auf ein bestimmtes Thema zu fokussieren und Ablenkungen zu vermeiden.</p>
<p>Beim Einsatz einer KI in der eigenen Organisation kann die Systemprompt nach Belieben vorgegeben werden.</p>
<h3 id="heading-kontext-informationen-in-der-prompt">Kontext-Informationen in der Prompt</h3>
<p>Alle weiteren Informationen, die der KI zur Bearbeitung einer Anfrage zur Verfügung gestellt werden, müssen ebenfalls als Kontext in den finalen Prompt eingefügt werden. Dazu gehört z.B. die Chat-Historie, damit die KI den Gesprächsverlauf berücksichtigen kann.</p>
<p>Wenn die KI Fragen zu einem bestimmten Dokument beantworten soll, wird entweder das gesamte Dokument oder die relevanten Abschnitte als Klartext an die finale Eingabeaufforderung angehängt. Darüber hinaus wird das Modell in der System-Prompt häufig angewiesen, zur Beantwortung der Fragen keine Informationen heranzuziehen, die nicht explizit Teil des gegebenen Kontextes waren.</p>
<h3 id="heading-kontext-limitierung-context-window">Kontext-Limitierung, Context-Window</h3>
<p>Bei jeder einzelnen Anfrage wird die gesamte finale Prompt einschließlich des Kontextes vom KI-Modell verarbeitet. Aktuelle Modelle können jedoch nur eine begrenzte Menge an Kontextinformationen verarbeiten. Diese Begrenzung wird als <strong>Context-Window</strong> bezeichnet. Obwohl die Context-Windows neuerer Modelle immer größer werden, sind sie in der Regel zu klein, um komplette, umfangreiche Dokumente zu erfassen. Es ist daher nicht praktikabel, einfach alle internen Dokumente und Informationen in den Prompt-Kontext einzufügen und an das Modell zu senden. Außerdem würde eine zu große Datenmenge die Leistung der KI stark beeinträchtigen.</p>
<p>In der Praxis wird dieses Problem mit einem Ansatz namens <strong>RAG</strong> gelöst.</p>
<h3 id="heading-was-ist-rag">Was ist RAG?</h3>
<p>Retrieval-Augmented Generation, kurz RAG, ist ein Ansatz um den aktuell kaum ein in einer Organisation eingesetztes KI-System drumherum kommt, wenn es in der Lage sein soll auf Informationen oder Dokumente der Organisation zuzugreifen.</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742285523225/00cafec1-8f27-4db0-99de-880143104039.jpeg" alt class="image--center mx-auto" /></p>
<p>In einem RAG-System werden für jede Anfrage an die KI zunächst relevante Informationen gesucht (<em>retrieval</em>)<em>.</em> Anschließend wird die finale Prompt im Hintergrund um die gefundenen Informationen ergänzt (<em>augmented</em>) und eine Antwort der KI generiert (<em>generation</em>).</p>
<p>Mittlerweile gibt es leistungsfähige, fertige RAG-Systeme, die relativ einfach in Organisationen eingesetzt werden können um beispielsweise einen Chatbot zu implementieren, der Fragen zu Dokumenten und Daten des Unternehmens beantworten kann.</p>
<p>Wie gut RAG-Systeme in der Praxis funktionieren hängt allerdings von vielen Faktoren ab: Dem Format und der Komplexität der hinterlegten Dokumente, der Auswahl und Leistungsfähigkeit der eingesetzten offenen oder geschlossenen LLMs und einer Vielzahl von Konfigurationsparametern. Damit ein RAG-System zuverlässig gute Antworten liefern kann, bedarf es oft genauer Konfiguration und intensiver, umfangreicher Tests und Anpassungen.</p>
<h3 id="heading-training-und-fine-tuning">Training und Fine-Tuning</h3>
<p>Das grundlegende Training eines LLMs ist extrem komplex und bedarf enormer Ressourcen. Es wird daher in der Regel von darauf spezialisierten Unternehmen oder Organisationen wie OpenAI, Anthropic, Google oder DeepSeek unternommen.</p>
<p>Angepasst werden kann das LLM im Anschluss durch das sogenannte Fine-Tuning: Einer Art zweiten Trainingsrunde bei der weitaus weniger Ressourcen benötigt werden und das Verhalten des LLMs in bestimmten, Situationen angepasst werden kann.</p>
<p>Ein verbreiteter Irrglaube ist, dass ein LLM für den Einsatz in einem Unternehmen oder einer Organisation speziell dafür trainiert oder durch Fine-Tuning angepasst werden muss. In den allermeisten Fällen ist das nicht notwendig. Zum Einen sind leistungsfähige Models zu ambivalent, dass sie mittels passender Systemprompt bereits dazu bewegt werden können, sich auf eine bestimmte Art und Weise zu verhalten. Zum Anderen gibt es eine stetig wachsende Menge von KI-Modellen die bereits für die verschiedensten Zwecke angepasst wurden und von Organisationen genutzt werden können.</p>
<h2 id="heading-fertige-ki-losungen-fur-den-einsatz-in-unternehmen-und-organisationen">Fertige KI-Lösungen für den Einsatz in Unternehmen und Organisationen</h2>
<p>Das Ökosystem rund um offene KI-Systeme wächst aktuell rasant und hier sollen kurz einige interessante Beispiellösungen vorgestellt werden, um einen Eindruck davon zu vermitteln, was bereits relativ problemlos machbar ist.</p>
<h3 id="heading-open-webui-fur-eigene-ki-assistenten">Open WebUI für eigene KI-Assistenten</h3>
<p><a target="_blank" href="https://www.openwebui.com">Open WebUI</a> ist eine ursprünglich von einem Studenten erdachten aber mittlerweile von einer großen Community entwickelte OpenSource-Platform für alle möglichen offenen und geschlossenen KI-Modelle.</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1743422459821/50096169-5893-471c-8715-e8a19e4be496.png" alt class="image--center mx-auto" /></p>
<p>Open WebUI ermöglicht es, beliebige offene oder geschlossene KI-Modelle als Basis zu verwenden und um nahezu jede denkbare Funktionalität zu erweitern. So können KI-Agenten erstellt werden, die genau auf bestimmte Aufgaben zugeschnitten sind. Durch die Integration von Werkzeugen wie Websuche, Daten- oder Bildanalyse und Zugriff auf Datenbanken kann das Basismodell gezielt ergänzt werden. Die fertigen Agenten stehen dann über eine benutzerfreundliche Oberfläche im Stil von ChatGPT zur Verfügung.</p>
<p>Bereits heute nutzen viele Menschen ChatGPT in ihrer täglichen Arbeit. Mit Open WebUI können Unternehmen ihren Mitarbeitenden eine ähnliche Lösung anbieten - entweder auf Basis der OpenAI-KI oder aus Datenschutzgründen als selbst gehostete Alternative. Dabei lässt sich das System individuell anpassen, so dass es nicht nur optimal auf den jeweiligen Aufgabenbereich abgestimmt ist, sondern auch gezielt auf unternehmensinterne Daten und Funktionen zugreifen kann.</p>
<p>Desweiteren stehen für Open WebUI bereits viele von der Community genutzte Tools und <a target="_blank" href="https://www.openwebui.com/models">Models</a> zur Verfügung.</p>
<h3 id="heading-onyx-fur-ki-gestutzte-suche">Onyx für KI-gestützte Suche</h3>
<p><a target="_blank" href="https://www.onyx.app">Onyx</a> ist ein weitere leistungsfähiges OpenSource-System mit dem sich KI-gestützt organisationsinterne Daten und Dokumente durchsuchen lassen. Allgemein lassen sich ähnlich wie mit der KI-Suchmaschine PerplexityAI unstrukturierte Fragen stellen, auf die das KI-System dann eine konkrete, auf den ausgewählten Inhalten beruhende Antwort liefert.</p>
<p>Ein Onyx-Assistent könnte beispielsweise in einer Behörde eingesetzt werden, um zu prüfen, ob eine Person mit bestimmten Merkmalen Anspruch auf bestimmte Leistungen hat. Dabei würde er die Frage gezielt beantworten und relevante Passagen aus hinterlegten Verordnungen oder Gesetzestexten zitieren, so dass die Antwort transparent und nachvollziehbar bleibt.</p>
<p>Im Hintergrund nutzt Onyx dazu das bereits vorgestellte RAG-System - allerdings in einer besonders ausgefeilten Form.</p>
<p>Dank verschiedener Adapter kann Onyx Daten aus den unterschiedlichsten Quellen innerhalb einer Organisation einlesen und indexieren, darunter Datenbanken, Google Drive, lokale Festplatten und vieles mehr. Ähnlich wie bei Open WebUI kann je nach Anforderungen an Performance und Datenschutz ein geeignetes internes oder externes KI-Modell ausgewählt werden, um spezifische Fragen zu den hinterlegten Dokumenten zu beantworten.</p>
<p>Während Onyx in der Praxis relativ einfach zu installieren und zu integrieren ist, erfordert die Auswahl geeigneter KI-Modelle, System-Prompts und die genaue Konfiguration des RAG-Systems je nach Art und Umfang der hinterlegten Daten eine kontinuierliche Optimierung.</p>
<p>Wie bei allen RAG-Systemen gilt: Sie liefern oft präzise Antworten, aber die Technologie ist noch jung - und Halluzinationen sind nach wie vor ein häufiges Problem. Daher sollten die in den Antworten zitierten Quellen immer sorgfältig geprüft werden!</p>
<h3 id="heading-ki-gestutzte-workflow-automatisierung">KI-gestützte Workflow-Automatisierung</h3>
<p>Viele Arbeitsabläufe können bereits heute ohne den Einsatz von KI automatisiert werden. Moderne KI-Modelle ermöglichen es aber auch, Aufgaben in Arbeitsprozessen zu automatisieren, die bisher als zu komplex galten - etwa weil sie keiner festen Regelstruktur folgen. Dazu gehören beispielsweise das Analysieren, Zusammenfassen oder Erstellen von E-Mails und Texten, das Vergleichen von Dokumenten, das Bewerten von Vorgängen oder das Skizzieren von Lösungen. Einfache Entscheidungsprozesse können inzwischen von KI-Agenten übernommen werden.</p>
<p>Viele Anbieter stellen Lösungen bereit, mit denen KI-gestützte Workflows flexibel zusammengestellt werden können. Dabei können bestehende Automatisierungen mit einer Vielzahl vordefinierter Werkzeuge und Prozessschritte kombiniert und durch KI-Agenten oder andere KI-gestützte Werkzeuge erweitert werden.</p>
<p>Viele No-Code-Tools ermöglichen Automatisierung ohne Programmierkenntnisse – wie beispielsweise <a target="_blank" href="https://www.automationanywhere.com/de">AutomationAnywhere</a>, <a target="_blank" href="https://www.gumloop.com">Gumloop</a> oder <a target="_blank" href="https://www.lindy.ai">LindyAI</a>. Komplexere Lösungen lassen sich direkt in bestehende Software integrieren – etwa mit dem deutschen Workflow-Automation-Tool <a target="_blank" href="https://n8n.io">N8N</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Wie funktioniert Künstliche Intelligenz?]]></title><description><![CDATA[Dieser Artikel bietet eine verständliche Einführung in die Welt der Künstlichen Intelligenz - ganz ohne technische oder mathematische Vorkenntnisse. Ich erkläre die grundlegenden Konzepte und wichtigsten Begriffe, damit du ein besseres Gefühl dafür b...]]></description><link>https://blog.christoph.burnicki.net/wie-funktioniert-kunstliche-intelligenz</link><guid isPermaLink="true">https://blog.christoph.burnicki.net/wie-funktioniert-kunstliche-intelligenz</guid><category><![CDATA[Artificial Intelligence]]></category><category><![CDATA[Künstliche Intelligenz]]></category><dc:creator><![CDATA[Christoph Burnicki]]></dc:creator><pubDate>Fri, 28 Feb 2025 06:20:37 GMT</pubDate><enclosure url="https://cdn.hashnode.com/res/hashnode/image/upload/v1740723463149/051b1e56-c4e8-4108-86cf-ddd8c73582d5.webp" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p><em>Dieser Artikel bietet eine verständliche Einführung in die Welt der Künstlichen Intelligenz - ganz ohne technische oder mathematische Vorkenntnisse. Ich erkläre die grundlegenden Konzepte und wichtigsten Begriffe, damit du ein besseres Gefühl dafür bekommst, wie KI funktioniert. Und falls beim Lesen Fragen auftauchen: KI-Tools wie ChatGPT sind eine gute Möglichkeit, sich Dinge direkt und einfach erklären zu lassen.</em></p>
<h2 id="heading-was-ist-der-unterschied-zwischen-ki-und-klassischer-software">Was ist der Unterschied zwischen KI und klassischer Software?</h2>
<p>Klassische Software wird dort eingesetzt, wo klare Regeln in ein Programm geschrieben werden können. Beispiel Flugbuchung: Nach Eingabe von Abflug- und Zielort wird die Datenbank nach Angeboten durchsucht. Hat der Passagier einen Flug ausgewählt, seine Daten eingegeben und bezahlt, wird die Buchung durchgeführt und eine E-Mail verschickt. In der Realität ist eine solche Buchung natürlich wesentlich komplexer. Aber: Sie folgt einem klaren Muster, das Programmierer*innen in eine Software schreiben können. Wir wollen uns außerdem darauf verlassen können, dass wir genau verstehen, was bei einer Buchung unter welchen Umständen genau passiert.</p>
<p>Es gibt aber auch Aufgaben für einen Computer, bei denen es viel schwieriger ist, klare Regeln zu definieren. Ein einfaches Beispiel: Das Programm soll entscheiden, ob auf einem Bild eine Katze zu sehen ist oder nicht. Für den Menschen ist das eine einfache Aufgabe. Der Computer sieht aber zunächst nur eine lange Reihe von Millionen Bildpunkten in verschiedenen Farben, die er nacheinander abarbeitet. Wie soll er anhand einzelner Regeln entscheiden, ob diese Punkte in ihrer Gesamtheit eine Katze darstellen? Noch komplizierter wird es, wenn wir den Computer ganz allgemein fragen wollen, was auf dem Bild zu sehen ist. Hier gibt es unzählige Möglichkeiten!</p>
<h2 id="heading-wie-funktioniert-eine-ki">Wie funktioniert eine KI?</h2>
<p>In der folgenden Grafik ist sehr vereinfacht dargestellt, wie eine KI entscheidet, was auf einem Bild zu sehen ist: Die verschiedenfarbigen Bildpunkte sind als Kugeln dargestellt, die ein Labyrinth aus Hindernissen durchlaufen. Die Hindernisse sind so angeordnet, dass die Bildpunkte die bei Katzenbildern häufiger zu finden sind, rechts herausfallen, wohingegen solche, die bei Katzenbildern weniger häufig auftreten, links herausfallen. Am Ende muss der Computer nur die beiden Kugelhaufen vergleichen um zu bewerten ob es sich bei dem Bild wahrscheinlich um eine Katze handelt oder nicht.</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740462321001/1cbbf92d-be2e-4486-ab0b-bfd51b6b53ae.jpeg" alt class="image--center mx-auto" /></p>
<p>In der Realität ist ein solches KI-Modell natürlich etwas komplexer: Statt ein Labyrinth mit verschieden großen Hindernissen zu durchlaufen, werden die Eingangsdaten in eine große, mathematische Rechnung gegeben, in der sie hintereinander mit einer großen Menge verschiedener Zahlenwerte multipliziert werden.<br />Die Rechnung selbst, das sogenannte <strong>Model</strong> (aus dem Englischen) ist ein vergleichsweise einfaches, von Menschen geschriebenes Computerprogramm. In dem Bild oben entspräche das Model etwa einem einfachen Brett mit vielen Steckplätzen, an denen die verschiedenen Hindernisse angebracht werden können. Entscheidend dafür, dass die KI richtig funktioniert ist die Größe und genaue Anordnung der Hindernisse in diesen Steckplätzen. Diese werden nicht vom Menschen festgelegt, sondern durch ein <strong>Training</strong> von der KI gelernt, dazu gleich mehr. In einem echten KI-Modell gibt es statt etlicher unterschiedlich großer Hindernisse eine riesige Anzahl unterschiedlich großer Zahlenwerte, die sogenannten <strong>Gewichte (Weights) oder Parameter</strong> des Modells, die durch das Training bestimmt werden. In einer echten KI gibt es von diesen Zahlenwerten (bzw. Hindernissen) meist einige Millionen bis hin zu Billiarden.</p>
<p>Die Hindernisse und ihre Position und Größe sind eigentlich Zahlenwerte, mit denen die Eingangsdaten multipliziert werden um am Ende einen Wert zu erhalten, der auf eine Katze hindeutet (z.B. näher an einer Eins) oder darauf, dass es keine Katze ist (z.B. näher an der Null). Die Kugeln, die sich durch das Labyrinth bewegen und klassifiziert werden, repräsentieren auch nicht immer nur einzelne Bildpunkte, sondern z.B. auch Gruppen von Bildpunkten, Abstände zwischen bestimmten Punkten oder eine Vielzahl anderer abstrakter Eigenschaften des Bildes.</p>
<p>In einem echten Model werden auch nicht nur einzelne Bildpunkte durch das Model verarbeitet, sondern beispielsweise auch Gruppen von Bildpunkten, Abstände zwischen Bildpunkten und eine Vielzahl anderer abstrakter Eigenschaften des Bildes. Anschaulich hätten die Kugeln selbst also unterschiedliche Formen und Größen, die zusätzlich einen Einfluss auf den Output des Models hätten.</p>
<p>Eine KI besteht also im Wesentlichen aus zwei Bestandteilen:</p>
<ul>
<li><p>Dem <strong>Model</strong>: Einem einfachen von Menschen geschriebenen Computerprogramm.</p>
</li>
<li><p>Den <strong>Model-Parametern (und Gewichten)*</strong>,<em> einer gigantischen Menge von Zahlenwerten, die im Training </em>erlernt* werden müssen und dann in das Model eingesetzt werden.</p>
</li>
</ul>
<h2 id="heading-wie-wird-eine-ki-trainiert">Wie wird eine KI trainiert?</h2>
<p>Die Magie einer KI liegt also in ihren Parametern. Eine Kombination aus Milliarden von Zahlenwerten, die alle Entscheidungsregeln der KI enthalten, die für Menschen zu kompliziert zu verstehen oder zu definieren sind. Stellen wir uns im obigen Bild vor, das Labyrinth bestünde aus Milliarden verschiedener, aber genau ausgewählter Hindernisse, die darüber entscheiden, welchen Weg die Kugeln nehmen. Ein Blick auf dieses Labyrinth reicht nicht aus, um das Verhalten des Modells zu verstehen. Wie es genau funktioniert, kann man nur herausfinden, wenn man am Anfang viele Kugeln hineinwirft und dann beobachtet, wo sie am Ende wieder herauskommen.</p>
<p>Genau nach diesem Prinzip läuft auch das Training ab: Eine KI wird trainiert, indem sie mit einer großen Menge an Trainingsdaten versorgt wird. Im Beispiel der Bilderkennung von Katzen erhält die KI viele Bilder von Katzen und allen möglichen anderen Dingen zusammen mit der Information, ob eine Katze darauf zu sehen ist oder nicht. Anfangs trifft das Model zufällige Entscheidungen, aber durch einen Lernprozess wird es immer besser. Jedes Bild wird vom Model verarbeitet und das Ergebnis mit der richtigen Antwort verglichen. Wenn das Model Fehler macht, werden seine internen Parameter durch einen mathematischen Optimierungsprozess geringfügig angepasst.</p>
<p>Dieser Prozess wird Millionen oder sogar Milliarden Mal wiederholt, bis das Model zuverlässig richtige Vorhersagen trifft. Dieser Prozess ist extrem rechenintensiv und erfordert für leistungsfähige KI-Modelle riesige Rechenzentren und sehr spezielle Hardware. Daher sind in der Regel nur große Unternehmen und Organisationen in der Lage, eine KI von Grund auf zu trainieren.</p>
<p>In der Praxis wird jedoch nicht jede KI von Grund auf neu trainiert. So ist es zum Beispiel möglich, aus leistungsfähigen Bilderkennungsmodellen bestimmte Teile zu extrahieren und in speziellere Modelle einzufügen, so dass diese nicht mehr von Grund auf neu trainiert werden müssen. Auch beim Training von Sprachmodellen ist dies üblich: Es gibt so genannte <strong>Foundation-Models</strong>, die von großen Unternehmen trainiert werden und dann mit deutlich weniger zusätzlichem Training, dem so genannten <strong>Fine-Tuning</strong>, an speziellere Anwendungsbereiche angepasst werden können.</p>
<h3 id="heading-unsupervised-training-und-reinforcement-learning">Unsupervised Training und Reinforcement Learning</h3>
<p>Bisher haben wir eine Art des Trainings betrachtet, bei der die KI anhand von Trainingsdaten lernt, die von Menschen erstellt wurden - zum Beispiel Bilder mit beschreibenden Texten. Dieses Verfahren wird als supervised Training bezeichnet. Oft ist es aber eine andere Trainingsmethode, die einer KI den entscheidenden Intelligenzsprung ermöglicht: das <strong>Unsupervised Training</strong>. Dabei werden keine klassischen, von Menschen kuratierten Trainingsdaten mehr benötigt - stattdessen lernt die KI aus unstrukturierten Daten.</p>
<p>Eine weitere Art des autonomen Lernen ist das <strong>Reinforcement Learning</strong>. Ein bekanntes Beispiel hierfür ist AlphaGo Zero, eine KI, die für das Spiel Go entwickelt wurde. Ihr Vorgänger AlphaGo wurde noch mit menschlichen Spieldaten trainiert und konnte bereits Weltklassespieler wie Lee Sedol schlagen. AlphaGo Zero ging aber noch einen Schritt weiter: Es nutzte Reinforcement Learning, eine Methode, bei der die KI nur durch Spiele gegen sich selbst lernt. Ohne menschliche Spieldaten wurde sie innerhalb kürzester Zeit besser als alle menschlichen Go-Spieler und sogar besser als ihr Vorgänger AlphaGo.</p>
<p>Viele Experten gehen davon aus, dass auch die generative KI in Zukunft in der Lage sein wird, sich selbstständig zu verbessern, indem sie ihre eigene Leistung analysiert und bewertet. Erste Ansätze gibt es bereits, z.B. durch <strong>Reasoning Models</strong> (mehr dazu weiter unten), die ihr eigenes „Denken“ reflektieren können. Allerdings sind heutige Modelle noch nicht vollständig in der Lage, sich selbst zu trainieren oder zu optimieren .</p>
<h2 id="heading-generative-ki-und-sprachmodelle">Generative KI und Sprachmodelle</h2>
<p>Bei der KI, die wir bisher kennengelernt haben handelt es sich um klassifizierende KI. Sie wird schon seit Jahrzehnten eingesetzt und der Begriff “Intelligenz” wurde in der Vergangenheit eher vorsichtig eingesetzt, weil die Technologie oft eher als eine Art statistisches Optimierungsverfahren gilt.</p>
<p>Generative KI ist komplexer und geht einen Schritt weiter: Auch hier bekommt das Model einen Input: Meist ist dieser ein Text, die sogenannte <strong>Prompt</strong>. Auch diese KI produziert anhand des Inputs und gelernter Parameter ein Ergebnis. Während das Ergebnis bei klassifizierender KI für dieselben Eingaben immer identisch ist, nutzen generative Modelle oft Wahrscheinlichkeitsberechnungen oder eine Zufallskomponente, um variierende, <em>neu generierte</em> Ergebnisse zu erzeugen.</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740717213663/f4bd98ac-13a8-48d8-8a43-a7e62064f84c.jpeg" alt class="image--center mx-auto" /></p>
<p>Im obigen Bild ist zu sehen, wie eine Reihe von sogenannten <strong>Input-Tokens</strong> (“Hallo”, “wie”, und “geht’s”) das Model durchlaufen und am Ende eine Reihe <strong>Output-Tokens</strong> (“Danke”, “mir”, “geht’s” und “gut”) generiert werden. Tokens stellen die Grundbestandteile unserer Sprache dar. Sie können z.B. einzelne Worte, Teile von Worten oder auch einzelne Buchstaben sein.</p>
<p>Dieser Ansatz klingt zunächst erstmal nicht nach sonderlich viel Intelligenz und in der Praxis waren die Ergebnisse lange Zeit auch nicht besonders beeindruckend.</p>
<p>Das änderte sich, als Google im Jahr 2017 das sogenannte <strong>Transformer Model</strong> vorstellte, das zum Beispiel erstaunlich gut darin war Texte zu übersetzen, also aus der Eingabe eines Textes in einer Sprache einen Text in einer anderen Sprache zu generieren. Diese Transformer-Modelle sind eine komplexere Weiterentwicklung generativer Sprachmodelle, bei denen es einen eingebauten Aufmerksamkeitsmechranismus gibt. Sie basieren letztendlich aber immer noch auf dem Prinzip, dass aus gelernten Daten und zufälligen Einflüssen neue Daten generiert werden. Bis heute sind Transformer-Modelle die Grundlage aktueller KI.</p>
<p>OpenAI hat mit ChatGPT (GPT steht für <em>Generative Pre-trained Transformer</em>) zwar nicht die Transformer-Architektur erfunden. Der Geniestreich bestand aber darin, ein besonders mächtiges Model besonders gekonnt zu trainieren und es dem ganzen Internet in Form eines Chats zur Verfügung zu stellen. Die ständigen Konversationen mit Menschen ermöglichten es dem Model dabei auch immer besser zu werden.</p>
<p>Das Chat-Format ermöglichte nicht nur einen viel einfacheren Zugang zu den Modellen. Die Möglichkeit mit einer KI eine Konversation zu führen, führte auch dazu, dass schnell vermutet wurde, dass diese Modelle möglicherweise zu einer Art komplexen <em>Denken</em> in der Lage sein könnten.</p>
<p>Nicht alle generativen Modelle sind Sprachmodelle. Beispielsweise werden in der Biologie generative Modelle benutzt um neue Molekülstrukturen zu entdecken.</p>
<h3 id="heading-large-language-models-llms">Large Language Models (LLMs)</h3>
<p>Large Language Models gehören zu den generativen KI, da sie Sprache generieren. Beispiele hierfür sind OpenAI’s GPT-Modelle oder Anthropic’s Claude Modelle. Sie wurden anhand riesiger Mengen menschlicher Sprache und Programmiercode trainiert und sind deshalb exzellent im Umgang mit natürlicher Sprache und Programmiersprachen. LLMs sind aktuell auch die Modelle, von denen angenommen wird, dass sie zu intelligenten Schlussfolgerungen fähig sind.</p>
<h3 id="heading-reasoning-models">Reasoning Models</h3>
<p>Eine der neuesten und mächtigsten Entwicklungen in der KI sind <strong>Reasoning Modelle</strong>. Klassische Sprachmodelle produzieren einen Output, haben aber keine Möglichkeit, diesen zu überprüfen. Bei Reasoning Models wird der Output in das Model zurückgegeben, so dass es die Möglichkeit hat, diesen selbst zu überprüfen. So kann es in mehreren Runden eines Denkprozesses sicherstellen, dass die Antwort Sinn macht. Die Entwicklung von Reasoning-Modellen bedeutete beispielsweise eine wesentliche Verbesserung in einem Bereich, der bisher für KI-Modelle schwer zu beherrschen war: das mathematische Denken. In einem Reasoning Model kann die KI ihre eigenen Antworten und Rechenschritte kritisch überprüfen und verbessern.</p>
<h3 id="heading-diffusion-models-fur-die-audio-bild-und-videogenerierung">Diffusion Models für die Audio-, Bild- und Videogenerierung</h3>
<p>Diffusion Models werden genutzt, um Bild-, Video- oder Audiomaterial zu erzeugen. Am einfachsten lässt sich das mit der Bilderzeugung erklären: Die KI startet mit einem Bild, das nur aus zufälligem Rauschen besteht – ähnlich wie ein verschwommenes Foto. In vielen kleinen Schritten entfernt sie gezielt das Rauschen und rekonstruiert dabei immer mehr Details, bis schließlich ein fertiges Bild entsteht. Dabei entscheidet das Modell auf Basis seiner trainierten Parameter, welche Bildpunkte am wahrscheinlichsten zum eingegebenen Prompt passen.</p>
<p>Diffusion Models werden aber für viele weitere generative Zwecke genutzt, beispielsweise in der Biologie um Baupläne für neue Moleküle zu erzeugen.</p>
<h3 id="heading-multimodale-modelle">Multimodale Modelle</h3>
<p>Multi-Models vereinen mehrere Funktionen in einem Modell. Einige Models von OpenAI, Anthropic oder anderer Anbieter sind nicht nur in der Lage Sprache zu verstehen und zu generieren, sondern können beispielsweise auch Bild- und Audiodaten verarbeiten und erzeugen. Dies ist in vielen Anwendungsfällen besonders praktisch, z.B. wenn das Modell ein Diagramm auswerten soll.</p>
<h2 id="heading-was-wissen-sprachmodelle-und-wo-ist-dieses-wissen-gespeichert">Was “wissen” Sprachmodelle und wo ist dieses Wissen gespeichert?</h2>
<p>Fragt man eine KI wie ChatGPT nach etwas, antwortet sie selbstbewusst. Mittlerweile sind die Antworten auch meist richtig. Sogenannte Halluzinationen, bei denen das System einfach oder nur schwer erkennbare Unwahrheiten als faktisches Wissen präsentiert, sind seltener geworden, kommen aber immer noch vor.</p>
<p>Wo aber ist all dieses Wissen gespeichert? Man würde vielleicht annehmen, dass die KI auf eine riesige Datenbank zugreift, in der alles gespeichert ist: Wer der 40. Präsident der Vereinigten Staaten war, woran man einen Leoparden von einen Geparden unterscheidet, oder wie man einen guten Pizzateig zubereitet. Die Menge möglicher Fragen ist schier unendlich und die KI hat immer eine Antwort (richtig oder falsch).</p>
<h3 id="heading-das-wissen-der-ki-ist-in-den-parametern-gespeichert">Das Wissen der KI ist in den Parametern gespeichert</h3>
<p>Tatsächlich steckt all dieses Wissen in den Parametern, bzw. Gewichten des Models, also in einer (gigantisch großen) Menge von Zahlenwerten. Aber wie kann das sein?</p>
<p>Der Blick auf das obige Bild mit den Murmeln hilft, das Prinzip zu verstehen: Durch die komplexe Anordnung der Hindernisse, die die Parameter des Modells darstellen, wird für jeden Input mit einer gewissen Wahrscheinlichkeit ein gewisser Output produziert: Enthält die Eingabe beispielsweise die Token “40”, “President” und “USA”, so wird das Modell mit hoher Wahrscheinlichkeit eine Antwort produzieren, die die Token “Ronald” und “Reagan” enthält.</p>
<p>Allerdings ist auf diese Antworten nicht immer Verlass: Wenn bereits in den Trainingsdaten Fehler enthalten sind (ein sogenannter Bias), dann ist auch die Wahrscheinlichkeit hoch, dass das Model später falsch liegt. Grundsätzlich gilt: Je spezifischer und ungenau die Frage, desto weniger verlässlich ist die Antwort. Insbesondere bei Fragen nach konkreten Zahlenwerten, Jahreszahlen oder anderen faktischen Größen ist die Gefahr von Halluzinationen groß. Und wie das Murmelmodell zeigt, wird die KI immer eine Antwort produzieren, auch wenn sie das Ergebnis faktisch nicht kennt.</p>
<p>Wer dennoch KI einsetzen will, um Faktenwissen abzufragen, sollte eine Anwendung wählen, die im Hintergrund tatsächlich auf das Internet zugreift und Quellen zitiert, z.B. Perplexity AI.</p>
<h2 id="heading-die-wichtigsten-begriffe">Die wichtigsten Begriffe</h2>
<ul>
<li><p><strong>Künstliche Intelligenz (KI):</strong> Bezeichnet im allgemeinen Softwaresysteme, bei denen die Ausführungslogik nicht von Menschen festgelegt, sondern durch die Software selbst anhand von Trainingsdaten erlernt wird.</p>
</li>
<li><p><strong>Model:</strong> Das (oft relativ einfache), von Menschen geschriebene Computerprogramm, in das die gelernten Gewichte und Parameter gegeben werden. Das Model verrechnet den Input mit den Parametern und erzeugt so einen Output. Zusammen mit den Parametern stellt es die KI dar.</p>
</li>
<li><p><strong>Gewichte und Parameter:</strong> Eine riesige Anzahl (oft Milliarden) von Zahlenwerten, die aufwändig durch ein Training bestimmt und angepasst werden und das Verhalten des KI-Models bestimmen</p>
</li>
<li><p><strong>Training:</strong> Der rechenintensive Prozess, in dem die Model-Parameter und Gewichte bestimmt werden.</p>
</li>
<li><p><strong>Pre-Training und Foundation Model:</strong> Ein grundlegendes Training das zum Ziel hat, grundlegende Modelle zu erstellen, die dann weiter verfeinert werden können.</p>
</li>
<li><p><strong>Fine-Tuning:</strong> Ein weniger aufwändiger Trainingsprozess, bei dem das Verhalten bereits trainierter Modelle weiter angepasst wird.</p>
</li>
<li><p><strong>Prompt:</strong> Die Eingabe, die ein generatives KI-Modell nutzt, um eine Ausgabe (z.B. eine Antwort oder ein Bild) zu erzeugen.</p>
</li>
<li><p><strong>Input-Token und Output Token:</strong> Die kleinsten Bestandteile einer Prompt oder Antwort, die von der KI verarbeitet werden. Token können beispielsweise einzelne Wörter, Teile von Worten oder auch Buchstaben sein.</p>
</li>
<li><p><strong>Klassifizierende KI:</strong> KI-Modelle, die trainiert sind um einordnende Entscheidungen zu treffen. Sie werden beispielsweise zur Bildanalyse in der Medizin genutzt: Ist auf einem Bild ein Tumor zu sehen oder nicht?</p>
</li>
<li><p><strong>Generative KI:</strong> Modelle, die genutzt werden um neuen Output zu generieren, z.B. Chat-Antworten, Übersetzungen oder in der Biologie auch Beschreibungen von langen Molekülketten.</p>
</li>
<li><p><strong>Sprachmodelle und Large Language Models (LLMs):</strong> Generative Modelle, die speziell für die Generierung von Sprache entwickelt und trainiert wurden (menschliche Sprache, aber auch Programmiersprachen).</p>
</li>
<li><p><strong>Multimodale Modelle:</strong> KI-Modelle, die mehrere Typen von Daten und Medien verarbeiten oder generieren können (z.B. aus einer Audionachricht ein Bild generieren können).</p>
</li>
<li><p><strong>Reasoning Models:</strong> Modelle, die nicht nur einfache Antworten generieren, sondern auch ihr eigenes <em>Denken</em> reflektieren können.</p>
</li>
</ul>
]]></content:encoded></item></channel></rss>