Zum Hauptinhalt der Seite springen

KI verstehen

Ist Künstliche Intelligenz wirklich intelligent? Nutzt Automatisierung immer KI? Was sind Transformer und wie funktioniert maschinelles Lernen? Wo kommt ChatGPT her? Ein Blick zurück auf die Entwicklung dieser neuen Technologie. 

Abstrakte Grafik

Künstliche Intelligenz - ein Marketingbegriff

Künstliche Intelligenz - ein Marketingbegriff

Die Entstehung des Begriffs „Künstliche Intelligenz“ ist banaler, als man denkt: Er geht zurück auf den Stanford-Professor John McCarthy. Der erfand ihn 1955, um Geld für ein zweimonatiges Forschungs­projekt im Sommer 1956 zu bekommen. Eine Erklärung oder formale Definition des Begriffs sucht man in seinem Förder­antrag vergeblich. Überhaupt taucht er darin eher als Oberbegriff auf. „In der Studie wird davon ausgegangen, dass jeder Aspekt des Lernens beziehungsweise jedes weitere Merkmal von Intelligenz im Prinzip so präzise beschrieben werden kann, dass die Entwicklung einer Maschine zur Simulation aller einzelnen Schritte möglich wird“ (McCarthy et al. 1955). Dann werden „einige Aspekte des Problems künstlicher Intelligenz“ aufgeführt. Das wars. Ein Marketingbegriff also. McCarthy bekam das Geld und der Begriff war in der Welt. Doch genau zu beschreiben, was Intelligenz ist, misslang (vgl. Brooks 2018; Whittaker 2023). 

Hier setzt auch die aktuelle Kritik am Begriff Künstliche Intelligenz (KI) an. Denn bis heute gibt es keine allgemeine Definition von Intelli­genz. Wenn wir also schon nicht wissen, was menschliche Intelligenz ausmacht – wie sollen wir dann eine künstliche Intelligenz definieren? Doch auch, wenn der Begriff nicht eindeutig ist, so ist KI nun da.  
KI ist nicht neu, die Forschung darüber schon gar nicht. Neu ist aber seit 2022, dass Programme, die mit generativer KI arbeiten, nun für alle zugänglich und sehr einfach nutzbar sind. Es ist also an der Zeit, sich einmal genauer anzuschauen, was dahintersteckt. 

Automatisierte Texte 

Wenn es derzeit darum geht, wie KI im Journalismus eingesetzt wird, so werden nicht selten zwei völlig unterschiedliche Herangehens­weisen in einen Topf geworfen: das automatisierte Erstellen von Inhalten einerseits und die Generierung synthetischer Inhalte durch den Einsatz großer Sprachmodelle (-> Glossar) andererseits. Diese Unterscheidung ist aber für uns Journalistinnen und Journalis­ten von zentraler Bedeutung. Denn bei automa­tisiert erstellten Texten können wir das Ergebnis und bei Bedarf auch Fehler nach­vollziehen, bei den Ergebnissen von Sprachmodellen bisher nicht. Warum? Bei der reinen Automatisierung macht der Mensch so genaue Vorgaben, dass die Ergebnisse nachvollziehbar bleiben. Sprachmodelle generieren Inhalte hingegen eigenständig, so dass diese Nachvollziehbarkeit fehlt.  

Für automatisierte Texte braucht es zweierlei: Strukturierte Daten wie etwa eine Tabelle mit Wetterdaten, Wahlergebnissen oder Sportereignissen und ein Pro­gramm wie Retresco oder AX Semantics, in dem Textbau­steine vorbereitet und Regeln vorgegeben werden, nach denen dann automatisiert Texte erstellt werden.  

Die Nachrichtenagentur Associated Press (AP) nutzte diese Technik schon 2014, um automatisiert Texte über Quartalsberichte börsen­notierter Unternehmen verfassen zu lassen. Inzwischen ist die Liste der Einsatzbereiche lang. Das Magazin Der Spiegel stellte zur Bundestagswahl 2021 auf diese Weise auch Einzelanalysen für alle 299 Wahlkreise zur Verfügung.

Diese Art der Texterstellung kann Routinen erleichtern und eröffnet neue Möglichkeiten. KI ist das aber noch nicht. 

Entwicklungsstufen Künstlicher Intelligenz

Entwicklungsstufen Künstlicher Intelligenz

Um zu verstehen, was hinter dem steckt, was wir als Künstliche Intelligenz bezeichnen, und wie sie funktioniert, werden wir die Motorhaube heben und uns anschauen, was sich darunter verbirgt. Was bezeichnen Begriffe wie Künstliche Neuronale Netze, Transformer oder GPT? Dieses Wissen gehörte bislang nicht zum Repertoire von uns Medienschaffenden. Wenn wir nun aber beginnen, KI-Anwendungen im Redaktionsalltag zu nutzen, sollten wir hiervon ein Grundverständnis haben. Wer Auto fährt, muss zwar weder ein Auto bauen noch es reparieren können. Den Motor von Tank und Auspuff zu unterscheiden, gehört hingegen durchaus zum Allgemeinwissen des 20. Jahrhunderts. Zum Allgemeinwissen des 21. Jahrhunderts wird es bald auch gehören, ein grundlegendes Verständnis von KI-Technologien zu haben. Doch wie hängen Künstliche Intelligenz, Maschinelles Lernen, Künstliche Neuronale Netze, Tiefes Lernen und generative KI zusammen? Wo liegen die Unterschiede? Und was muss man darüber wissen?  

Um das zu verstehen, kann es uns helfen, die technologische Entwicklung mit dem Bau eines Stapelturms zu vergleichen. Stapeltürme gibt es in vielen Kinderzimmern und in verschiedenen Ausführungen. Der Klassiker besteht aus hohlen Holzwürfeln, die an einer Seite offen sind und sich in absteigender Größe aufeinander stapeln lassen. Je höher der Turm wird, desto wackeliger wird er. Für kleine Kinder ist das Stapeln eine Herausforderung, gilt es doch zu verstehen in welcher Reihenfolge die Würfel stabil stehen. Für noch kleinere ist es ein großer Spaß, die Türme zum Einstürzen zu bringen. Eltern wiederum freuen sich, dass sich die Würfel platzsparend ineinander stapeln lassen – alle in den größten hinein.  

Ähnlich wie beim Stapelturm war es in der Entwicklung von KI: Generative KI ist nicht plötzlich entstanden, sondern nach und nach. Jede Stufe baut jeweils auf den Erkenntnissen der vorherigen auf. Generative KI, die uns im Moment am meisten beschäftigt, ist die am weitesten fortgeschrittene Technologie im Kontext Künstlicher Intelligenz und ist daher der oberste Würfel unseres Turms.

KI Entwicklungsstufen

Expertensysteme

Der größte und erste Würfel unseres imaginären Stapelturmes ist Künstliche Intelligenz. Davon sprechen Expertinnen und Experten, wenn Maschinen in der Lage sind, automatisiert sinnvolle Ergebnisse zu liefern, ohne dass ihnen die Programmierung konkrete Lösungswege vorgibt. Das Fraunhofer-Institut für Kognitive Systeme IKS erklärt es so: „Künstliche Intelligenz imitiert menschliche kognitive Fähigkeiten, indem sie Informationen aus Eingabedaten erkennt und sortiert“ (IKS 2024).

In der Geschichte der KI haben Forschende zunächst versucht, Soft­ware alle notwendigen Regeln zu geben, mit dem Ziel, dass die Systeme daraus eigene Entscheidungen ableiten können. Ein solches sogenanntes Expertensystem war auch der 1966 vorgestellte und damit weltweit erste Chatbot ELIZA, der einen Psychotherapeuten nach­ahmen sollte. Auch die Verarbeitung menschlicher Sprache sollten Programme zunächst über die Eingabe diverser Regeln lernen. Das gelang allerdings nur mit mäßigem Erfolg. Denn es stellte sich heraus, dass die Regeln, denen Sprache folgt, zu komplex sind. Daher wurde nach neuen Wegen gesucht. Für die heute wichtigen KI-Anwendungen ist Maschinelles Lernen von zentraler Bedeutung.

Maschinelles Lernen

Maschinelles Lernen („machine learning“) ist ein Teilbereich von Künstlicher Intelligenz und damit unser zweiter Ring. Es unterscheidet sich vom größeren Feld der KI dadurch, dass hier Computer aus Daten selbst etwas „lernen“ und eben nicht über Regeln. Dabei wird ein Lernalgorithmus mit sehr großen Datenmengen gefüttert. Aus der Analyse all dieser Daten leitet der Algorithmus dann Zusammenhänge ab und entwickelt für sich ein statistisches Modell. Manchmal werden solche Prozesse von menschlichem Feedback begleitet, manchmal aber auch nicht. Je nach Methode spricht man von überwachtem Lernen („supervised learning“) oder unüberwachtem Lernen („unsupervised learning“). Welche Lernmethode gewählt wird, hängt von den Entscheidungen der Programmierenden ab und ist Teil des Lernalgorithmus. 

Das statistische Modell, das die Software während des Lernprozesses entwickelt, ist, nach dem Trainingsprozess, dann die Grundlage für Vorhersagen der Software. Das heißt, die Software kann dann ihr Modell später auf andere, ihr bis dahin unbekannte Daten anwenden und ebenso korrekte Antworten generieren.

Ab diesem Punkt der technologischen Entwicklung beginnt es für Menschen undurchsichtig zu werden. Denn: „Die Entwicklerinnen und Entwickler geben der Maschine dabei nur die grobe Struktur vor. Die Feinheiten werden durch die lernende Methode in Zusammenwirkung mit den Daten festgelegt“, erklärt Informatikprofessorin Katharina Zweig (2023). Das heißt: Was wir als Lernen der Maschine bezeichnen, ist ein Prozess, der auch von den Programmierenden nicht mehr vollends nachvollzogen werden kann. Sie können sich zwar das statistische Modell anschauen, das die Software im Lernprozess entwickelt. Wie genau aber das System dazu gekommen ist, können auch Fachleute nur erahnen. 

Die Theorie des Maschinellen Lernens ist ebenso wie die der Künst­lichen Intelligenz schon mehr als 70 Jahre alt. Das erste wissen­schaft­liche Papier dazu schrieb Alan Turing. Es ging den Fragen nach: Können Maschinen denken? Und wie ließe sich das testen? Veröffentlicht wurde es 1950 und damit noch bevor der Begriff „Künstliche Intelligenz“ erfunden war. Es blieb dann zunächst bei der Theorie – denn für die Umsetzung und das Testen der Ideen fehlten lange zwei Dinge: Daten und Rechenpower.

Punktuell gab es wichtige Erfolge: So etwa, als der Schachcomputer Deep Blue von IBM 1996 den damaligen Schachweltmeister Gary Kasparow besiegte. Gut zwanzig Jahre danach gelang es 2017 einem Computer namens AlphaGo, den die Google-Tochter Deepmind konstruiert hatte, den weltweit besten Spieler im Spiel Go, Ke Jie, zu besiegen. Doch der Durchbruch in der Anwendbarkeit ließ noch auf sich warten.  

Künstliche Neuronale Netze

Bei der weiteren Entwicklung erwiesen sich dann ausgerechnet Katzenvideos als nützliche Ressource. Womit wir bei der dritten Entwicklungsstufe und dem nächsten Würfel unseres Turms wären: Künstlichen Neuronale Netzen.  

Dieser Begriff bezeichnet eine spezielle Methode des Maschinellen Lernens, die schon 1943 erfunden wurde (vgl. Brooks 2018). Bis zu ihrem Durchbruch dauerte es aber eine ganze Weile. Inzwischen wird sie gern bei komplexen Lernprozessen ein­gesetzt. Künstliche Neuronale Netze sind sehr ausgefeilte Algo­rithmen, deren Strukturen das menschliche Gehirn mit Neuronen und Synapsen zum Vorbild haben. Was im Gehirn Neuronen sind, ist im Algorithmus jeweils eine Rechenanweisung – genauer gesagt eine mathematische Funktion. Diese instruiert die Software, eine Reihe von Eingabewerten auf eine bestimmte Weise zusammenzuzählen. Diese Ergebnisse werden dann zu den Eingabewerten der nächsten Ebene.  

So, wie die Synapsen im Gehirn Reize erst ab einer gewissen Inten­si­tät weiterleiten, bestimmt auch der Algorithmus, wie stark ein einzelnes Ergebnis weitergegeben und in der nächsten Ebene berücksichtigt wird. Das führt zu dem Effekt, dass – vergleichbar wie beim menschlichen Gehirn – nicht alle Ergebnisse gleichermaßen berücksichtigt werden.  

Ein einfaches Künstliches Neuronales Netz hat drei Ebenen: Eine Eingabe-Ebene, eine verdeckte Ebene und eine Ausgabe-Ebene. Auf der Eingabe-Ebene stehen von Menschen konzipierte Rechenformeln. Sie machen der Maschine Vorgaben und setzen den Rechenprozess in Gang. Die Rechenergebnisse dieser ersten Ebene werden von der zweiten Ebene eigenständig weiterverarbeitet. Die Berechnungen für die verdeckte Ebene sind vorgegeben.  

Der „Lernprozess“ der Maschine bezieht sich darauf, in vielen Durch­gängen die Gewichtungen festzulegen, mit denen die Ergebnisse der ersten Ebene in die Berechnungen der nächsten Ebene einfließen. Diese zweite Ebene aber ist verdeckt – hier rechnet der Algorithmus mit den Ergebnissen der ersten Ebene und den von ihm selbst entwickelten Gewichtungen weiter. Einen Einblick in diese Ebene haben die Programmierenden nicht. Das ist ein Charakteristikum Künstlicher Neuronaler Netze und der Hintergrund, warum KI oft auch als Black Box beschrieben wird.

Einfaches Neuronales Netz

Tiefes Lernen

Was hat das nun mit den Katzenvideos zu tun? Wie erwähnt, fehlte für die Entwicklung Künstlicher Intelligenz lange eine aus­rei­c­hend große Menge verfügbarer Daten. Das änderte sich in den Nuller­­jahren. Nach der Gründung von YouTube 2005 wurden dort millionen­fach Videos hochgeladen. Ein Datenschatz, den sich der Informatiker Andrew Ng zunutze machte: Er verwendete einen Trainingsdatensatz mit zehn Millionen Videos dazu, ein Künstliches Neuronales Netz auf das Erkennen von Katzen in Videos zu trainieren. Sein Ziel war dabei, dass die Soft­ware lernen sollte, wie eine Katze aussieht, ohne dass er es der Soft­ware vorher gezeigt hatte (vgl. DataScientest 2023). Das war der Beginn einer neuen Ära: der des sogenannten Tiefen Lernens („deep learning“), dem vierten Würfel unseres Stapelturms.

Beim Deep Learning oder auch Tiefen Lernen werden neuronale Netze mit sehr vielen Ebenen eingesetzt. Ein Künstliches Neuronales Netz, das mindestens zwei dieser versteckten Ebenen hat, wird schon als Tiefes Neuronales Netz bezeichnet. Laut Fraunhofer IKS (2024) können sie aber sogar bis zu Hunderttausende oder Millionen Schichten haben. Können wir uns das noch vorstellen? Hunderttausende auf­ein­anderfolgende Ebenen, auf denen jeweils unzählige parallele Rechenoperationen ausgeführt werden... Zu Gesicht bekommen wir davon nur das Ergebnis: Katze erkannt! – und sind verblüfft.

Tiefes Neuronales Netz

Generative KI

Noch verblüffender sind die Möglichkeiten der nächsten Entwicklungsstufe von KI – dem obersten Würfel unseres Turms: generativer KI. Seit die Firma OpenAI im November 2022 ChatGPT für die Allgemeinheit freigegeben hat, kom­men immer mehr Angebote hinzu. Claude, Imagen, Sora und andere Tools können in Windeseile Texte, Bilder und Videos gene­rieren.  

Doch was unterscheidet diese Art von KI nun von den anderen Bereichen, die wir schon betrachtet haben? Auf den Punkt bringt das der leitende KI-Experte der New York Times, Zach Seward (2023): „Wenn traditionelles Maschinelles Lernen gut Muster in einem Haufen ungeordneter Daten erkennen kann, so könnte man sagen, dass die Superpower generativer KI darin liegt, Muster zu kreieren.“

KI-Anwendungen werden in der Regel jeweils für eine spezifische Aufgabe entwickelt. Das gilt für die Antworten des Robo-Therapeuten ELIZA genauso wie für das Erkennen von Katzen in Videos und ebenso für generative KIs. Die großen Sprachmodelle (-> Glossar) sind dabei auf eine sehr komplexe und umfangreiche Aufgabe trainiert worden: das Verarbeiten von natürlicher Sprache.

Deswegen heißen sie auch Sprachmodelle. Ihr statistisches Modell ist darauf trainiert, die Wahrscheinlichkeit von Wortteilen und Sätzen vor­herzusagen – zum Beispiel auch die Sequenz „Alle meine Entchen … “ zu vervollständigen.

Transformer

Möglich wird das in der aktuellen Qualität und Schnelligkeit durch so genannte Transformer. ChatGPT trägt das Wort sogar im Namen: GPT steht nämlich für Generative Pretrained Transformer – es beschreibt also auf Englisch, womit wir es hier zu tun haben: einem gene­rativen vortrainierten Transformer. Transformer bezeichnet dabei die Art des Lernalgorithmus. Vortrainiert beschreibt, dass das Modell zunächst trainiert werden muss, bevor es einsatzbereit ist, und dann aber auch weiterhin verbessert werden kann. Und  
generativ beschreibt schließlich die Art des Outputs – etwas neu Geschaffenes.  

Technisch ist ein Transformer eine speziell aufgebaute Deep-Learning-Architektur eines Künstlichen Neuronalen Netzwerks. Sie wurde 2017 erstmals auf einer Fachkonferenz vorgestellt und hat seitdem die Verarbeitung natürlicher Sprache revolutioniert. Denn die besondere Herausforderung bei der Verarbeitung von Sprache im Unterschied zu numerischen Daten ist, dass Wörter je nach ihrer Platzierung im Satz und auch trotz gleicher Schreib­­­weise unterschiedliche Bedeutungen haben können. Es kommt also auf den Sinnzusammenhang an.

Um Text zu verarbeiten, muss dieser zunächst in Zahlen übersetzt werden. Transformer-Modelle sind erstmals in der Lage, auch die Position der Wörter im Satz in numerischen Werten zu markieren und dadurch den Kontext von Wörtern besser zu erfassen. Zudem ist es durch Transformer erstmals möglich, dass Algorithmen lernen, welche Teile der eingespeisten Daten am relevantesten für einen bestimmten Output sind (vgl. Klofat 2023 und Clarke et al. 2023).

Im Fall von ChatGPT haben wir es mit einem sehr großen Sprach­modell zu tun, dessen Aufgabe es ist, Sprache zu verarbeiten und zu generieren. Ähnlich verhält es sich mit anderen Angeboten. 

Der Chatbot von Open AI, ChatGPT, basiert – je nach Tarif – auf den Modellen GPT 3.5, GPT 4 oder GPT 4o. Weil diese Modelle für verschiedene Aufgaben weitertrainiert werden können, heißen sie auch Basismodelle oder Grundmodelle („foundation models“).  

Sind große Sprachmodelle (LLM) und Basismodelle also das Gleiche? Nein, nicht ganz. Der Begriff Basismodelle umfasst zwar die großen Sprachmodelle. Aber er erfasst darüber hinaus auch Modelle, die nicht Sprache erzeugen, sondern Bilder oder Videos. Denn während Sprachmodelle ausschließlich mit Textdaten trainiert werden, werden andere Basismodelle wie beispielsweise DALL-E von Open AI neben Textdaten auch mit Bilddaten trainiert und Sora auch mit Videodaten. Entsprechend haben sie auch andere Fähigkeiten wie das Generieren von Bildern, Audio oder Videos. 

Bekannte KI-Modelle

Bekannte KI-Modelle

Die Firma OpenAI wurde 2015 gegründet und bietet neben ChatGPT für Text mit DALL-E auch ein Tool an, das Bilder aus Text­be­schrei­­bungen generieren kann. Mit Sora kommt bald noch ein Werkzeug hinzu, das Videos aus Texteingaben erstellen kann. Mit ChatGPT 3.5 gibt es eine kostenfreie Version. Das leistungsfähigere Sprachmodell ChatGPT 4.0 liegt dem kosten­pflichtigen Angebot ChatGPT+ zugrunde. Tatsächlich liefert die kosten­lose Variante weit weniger elo­quente Ergebnisse und macht mehr Fehler als ChatGPT 4.0. Mit ChatGPT 4o gibt es seit Mai 2024 zudem ein drittes Modell, das Text, Video und Audio verarbeiten kann.

Software-Anbieter Microsoft hat seit 2019 mehr als 13 Milliarden US-­Dollar in OpenAI investiert und sich so Zugang zu dessen Techno­­logie gesichert. Daher beruht das KI-Angebot von Microsoft, das unter dem Namen Copilot bekannt ist, auch auf Chat­GPT. Copilot kann direkt aus Micro­soft-An­wen­dungen wie Word, Excel oder PowerPoint auf­­­gerufen werden. Darüber hinaus koope­riert Microsoft mit Meta. Und außerdem entwickelt das Unternehmen ein eigenes KI-Sprach­modell namens MAI-1, das mit den Modellen von Google und OpenAI konkurrieren soll.

Der Facebook-Mutterkonzern Meta Platforms hat im Februar 2023 sein Sprachmodell LLaMA veröffentlicht. Die Abkürzung steht für Large Language Model Meta AI. Der Code, den das Modell bei der Aus­führung von Anfragen verwendet, ist frei zugänglich. Im Juli 2023 ist in Kooperation mit Microsoft das Nach­folgemodell LLaMA 2 erschienen, das ebenfalls Open Source ist. Neben Text und Bildern kann LLaMa 2 auch Code generieren. Im April 2024 stellte Meta LLaMA 3 vor. 

Google hat als Reaktion auf den Release von ChatGPT im Februar 2023 den Chatbot Bard veröffentlicht, den das Unternehmen im Februar 2024 in Gemini umbenannt hat. Die Modelle, die dem zugrunde liegen, sind unterschiedlich in Größe und Funk­tions­umfang und teils kostenpflichtig. Die aktuelle Version kann verschiedene Arten von Inhal­ten, wie Text, Bilder, Audio und Video, verar­beiten. Insgesamt sind die Funktionen denen von OpenAI sehr ähnlich. Gemini gibt es auch als App.

Anthropic ist ein 2021 von ehemaligen Open­AI Mitarbeitenden gegründetes Unter­neh­men, das sich der Entwicklung einer siche­ren und verständlichen KI verschrieben hat. Sein Sprachmodell Claude kann Texte gene­rieren und fokussiert sich dabei besonders auf KI-Sicher­heit. Die im März 2024 veröffent­lichte Version Claude 3 umfasst drei Modelle, die auf verschiedene Kundentypen und Anwen­dungs­fälle angepasst sind. Lange war Claude nur in den USA und Großbritannien ver­füg­bar, inzwischen gibt es das Angebot auch in der EU. Hauptzielgruppe sind zwar Unter­nehmen, dennoch ist Claude auch für Einzel­personen und die allgemeine Nutzung zugäng­lich. Im Juni 2024 stellte Anthropic mit Claude 3.5 Sonnet ein Sprachmodell vor, das sowohl Text als auch Bilder analysieren kann.

Midjourney ist ein unabhängiges For­schungs­labor aus San Francisco. Es wurde im Juli 2022 gegründet und hat sich auf die Generierung von Bildern aus Textbeschreibungen spezia­­li­siert. Zugänglich ist das gleichnamige Tool über einen Chatbot auf der Platt­­form Discord. Die Anwen­dung ist kostenpflichtig und ermög­licht es Nutzenden, über die Ein­gabe von Text­an­weisungen, Bilder zu gene­rieren. Midjourney zeichnet sich dadurch aus, dass es spezi­fische künst­­le­rische Stile und Bild­inter­pretationen ermög­­licht und sehr foto­realis­tische Bilder produ­zieren kann.  

Die Firma Stability AI, die 2019 von Emad Mostaque in London gegrün­det wurde, arbeitet ebenfalls vor allem an der Ent­wick­lung von bild­­generierenden KI-Anwen­dungen. Flaggschiff ist das Tool Stable Diffusion, dessen Code von einem Team der Universität München ent­­wickelt und frei zugänglich ver­öffentlicht wurde. Stability AI unter­scheidet sich von DALL-E und Midjourney durch seinen Open-Source-Ansatz, der Entwicklerinnen und Entwicklern ebenso wie Unter­nehmen einen leichteren Zugang sowie die Möglich­keit bietet, das Modell an spezifische Bedürf­nisse anzupassen. Inzwischen lassen sich mit diesem Werkzeug zum Teil auch schon kurze Video-Sequen­zen und animierte Bilder erstellen. 

Die deutsche Firma Aleph Alpha arbeitet seit 2019 an einem großen Sprachmodell mit dem Namen Luminous. Es ist noch in der Entwick­lung und wird derzeit nicht für die breite Öffentlichkeit angeboten, vielmehr richtet es sich an Unternehmen und Organi­sationen. Ziel von Aleph Alpha ist es, die Sicherheit und Anwend­bar­keit von KI im europäischen Kontext zu erhöhen, indem sie die Einhaltung von Datenschutzbestimmungen garantieren und maßgeschneiderte Lösungen für lokale Märkte bieten. Zudem möchte Aleph Alpha für die Nutzenden nachvollziehbar machen, wie die KI Luminous zu ihrer Entschei­dung kommt. Erste Kunden sind beispiels­weise Bosch, SAP und verschiedene Kommunal­ver­waltungen. 

Das französische Start-up Mistral ist gerade mal ein Jahr alt und derzeit die große Hoffnung der europäischen KI-Szene. Gegrün­­det wurde es im April 2023 von drei Soft­­ware-Entwicklern: Guillaume Lample und Timothée Lacroix waren früher beim Face­book-Mutter­konzern Meta an der Ent­wicklung von LLaMA beteiligt und Arthur Mensch war Mitar­beiter von Deepmind, der KI-Tochter von Google. Seinen Sitz hat Mistral in Paris, inves­tiert wird inzwischen aber größtenteils aus den USA – darunter Wagniskapitalgeber Andreessen Horowitz, der Software-Konzern Sales­force und Microsoft. Le Chat heißt das Angebot von Mistral, dessen Betaversion derzeit nach einer Registrierung nutzbar ist. Wie Aleph Alpha richtet sich auch Mistral primär an Unternehmen und Organisationen. Zur Kund­schaft gehören die Bank BNP Paribas und der Mobilfunkanbieter Orange.

Konstruktiver KI-Kompass

Künstliche Intelligenz verstehen und nutzen, um die eigene journalistische Arbeit konstruktiver zu machen – das bietet der Konstruktive KI-Kompass.

Unsere Inhalte gibt es alle online. Zudem steht das geballte Wissen im gleichnamigen E-Book kostenlos zum Download bereit:

Übersicht und Download