Gefahr für Chat-GPT? Facebook-Mutter Meta kündigt KI-Konkurrenz an

Meta hat nach Microsoft Bing und Google Bard nun auch ein eigenes Sprachmodell auf den Markt. Was das können soll, erfahrt ihr hier.

Der Hype um künstliche Intelligenz scheint kein Ende zu finden. Es ist wohl nur eine Frage der Zeit, bis auch die letzte Tech-Firma ein eigenes Sprachmodell entwickelt. So reiht sich jetzt auch Meta neben OpenAI, Microsoft und Google ein, um sich auch schnellstmöglich auf dem KI-Markt zu etablieren. 

Im Falle von Meta ist es noch nicht mal das erste seiner Art. Schon im letzten Jahr hat Meta Galactica vorgestellt. Dieses Projekt wurde nach drei Tagen allerdings wieder beendet, da es voreingenommene oder falsche Antworten gegeben hat. Was die neuste KI von der Facebook-Mutter draufhaben soll, erfahrt ihr jetzt.

Noch mehr Alternativen zu ChatGPT gefällig? Dann schaut doch gerne mal hier vorbei: 

Die vielversprechendsten ChatGPT-Alternativen: Es muss nicht nur einen geben 

Metas Sprachmodell: LLaMA

Das neue Projekt wurde auf Metas Blog vorgestellt. Das neue Sprachmodell von Meta hört auf den Namen LLaMA und steht für »Large Language Model Meta AI«. Es soll in 4 Varianten mit jeweils 7 Milliarden, 13 Milliarden, 33 Milliarden und 65 Milliarden Parametern verfügbar sein. Mit je mehr Parameter eine KI trainiert wurde, desto besser sollen die Antworten sein.

(Bild: Meta) (Bild: Meta)

Vorerst wird es mit nicht-kommerziellen Lizenzen für Forschungsarbeiten bereitstehen. Damit sollen unter anderem Labore, Universitäten oder staatliche Einrichtungen ausgestattet werden. 

»LLMs haben sich als vielversprechend erwiesen beim Generieren von Texten, dem Führen von Gesprächen, dem Zusammenfassen von schriftlichem Material sowie komplizierteren Aufgaben wie dem Lösen mathematischer Theoreme oder der Vorhersage von Proteinstrukturen.«

Weitere Informationen hat Meta auf einer Github-Model-Card und einem kleinen Research-Beitrag veröffentlicht. Diesem zufolge soll LLaMA nur mit öffentlich zugänglichen Daten trainiert worden sein.  

LLaMA-13B (13 Milliarden Parameter) soll angeblich OpenAIs GPT-3 (175 Milliarden Parameter) in den meisten Benchmarks schlagen. ChatGPT verwendet allerdings bereits GPT-3.5 und GPT-4 ist bereits auf dem Weg. 

Einige Daten stammen von Wikipedia und Github, während der Großteil mit rund zwei Drittel der Daten angeblich aus einer CommonCrawl-Datenbank stammt. Auch aus literarischen Werken zieht LLaMA seine Daten. Dazu nutzt Meta angeblich die Gutenberg-Sammlung

Wann und ob LLaMA einer breiten Masse zur Verfügung stehen wird, ist nicht bekannt. 

Gamestar-Kollege Mario Donick fühlt sich bei den ganzen neun KIs an einen Kindheitstraum erinnert. Ob das etwas Gutes ist, erfahrt ihr hier: 

Was sagt ihr zu Metas neuem Sprachmodell? Wollt ihr das unbedingt mal ausprobieren, oder reichen erstmal ChatGPT, Bing und Google Barde? Haben so viele verschiedene Modelle überhaupt einen Mehrwert für uns Nutzer? Welche KI würdet ihr am liebsten verwenden, wenn alle genau gleich gut wären, und warum? Schreibt es uns gerne in die Kommentare! 

zu den Kommentaren (7)

Kommentare(5)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.