630 Genies haben sich gerade auf der Mathe-Olympiade duelliert. Am Ende geht eine der Goldmedaillen an Googles KI

Gemini, Googles KI, hat Gold bei der Mathe-Olympiade 2025 gewonnen. Was bedeutet das für die Zukunft der künstlichen Intelligenz?

Gemini hat jetzt eine Goldmedaille von der Mathe-Olympiade. (Bild: Google) Gemini hat jetzt eine Goldmedaille von der Mathe-Olympiade. (Bild: Google)

Die Entwicklung von künstlicher Intelligenz wird derzeit von mehreren konkurrierenden Herstellern stark vorangetrieben. Googles Gemini Deep Think hat kürzlich zum wiederholten Mal an der Mathe‑Olympiade teilgenommen und konnte dort zum ersten Mal eine Goldmedaille verdienen.

Gemini gewinnt Gold, ChatGPT nimmt gar nicht teil

Was ist das für ein Event? Die 66. Internationale Mathe‑Olympiade (IMO) fand im Juli 2025 in Queensland, Australien statt. Dabei traten 630 Nachwuchs-Mathematikerinnen und -Mathematiker aus über 110 Ländern gegeneinander an.

Die Olympiade umfasst sechs besonders komplexe Aufgaben aus den Gebieten Algebra, Kombinatorik, Geometrie und Zahlentheorie. Insgesamt sind es sechs Aufgaben, bei jeder davon können maximal sieben Punkte erzielt werden.

Video starten 0:50 Pixel Drop im Juli: Google bringt Gemini auf seine Smartwatches

Ab 35 Punkten (also 5 von 6 gelösten Aufgaben) wird eine Goldmedaille verliehen. In diesem Jahr erreichten nur 67 Teilnehmer diese Punktzahl. Einer davon war eine KI von Google.

Gemini bei Olympia: Gemini Deep Think, ein spezieller Modus des neuesten Gemini‑Modells von Google DeepMind, trat als vollständiger Wettbewerber an. Google hatte die KI im Vorfeld auf IMO-Aufgaben trainiert.

Während es im Vorjahr »nur« zur Silbermedaille gereicht hatte, löste die Google-KI in diesem Jahr fünf Aufgaben richtig und erreichte so die benötigten 35 Punkte. Einzig an der Aufgabe 6 scheiterte die KI, diese konnte allerdings insgesamt nur von sechs der 630 Teilnehmer gelöst werden.

Wo ist die KI-Konkurrenz? OpenAI hat ChatGPT zwar nicht zur Mathe-Olympiade angemeldet, aber trotzdem den Aufgaben ausgesetzt. ChatGPT erreichte ebenfalls 35 Punkte und scheiterte an Aufgabe 6. Eine Goldmedaille gibt es allerdings nur bei der offiziellen Teilnahme.

Was bedeutet das? Das Ergebnis zeigt, dass KI immer besser im Lösen von komplexen und abstrakten Problemen wird und menschliche Spitzenleistung erreichen kann. Es ist aber wichtig, festzuhalten, dass die IMO-Aufgaben stark standardisiert sind, echte Forschungsprobleme sind oft deutlich anspruchsvoller.

Reale, unstrukturierte Forschungsfragen stellen daher die nächste Hürde für KI-Modelle wie Gemini Deep Think dar. Bei dem Tempo, das Google, OpenAI und Co. vorlegen, wird das aber möglicherweise nur eine Frage der Zeit sein.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.