
Startup DeepSeek aus China sorgt für Aufsehen: Neue Trainingsmethode könnte Sprachmodelle revolutionieren
2025-04-06
Autor: Leonardo
Das aufstrebende KI-Startup DeepSeek aus Hangzhou, China, hat gemeinsam mit der renommierten Tsinghua-Universität in Peking eine bahnbrechende Optimierungsmethode entwickelt, die darauf abzielt, Sprachmodelle besser an menschliche Präferenzen anzupassen. Dieser innovative Ansatz kommt zu einem entscheidenden Zeitpunkt: Der Nachfolger des erfolgreichen Reasoning-Modells, DeepSeek-R1, steht kurz vor der Markteinführung, und es gibt bereits erste vielversprechende Berichte über dessen Leistung.
DeepSeek kombiniert mit dieser neuartigen Methode zwei bislang getrennte Herangehensweisen: Generative Reward Modelling (GRM) und Self-Principled Critique Tuning. GRM erzeugt eigene Belohnungssignale, anstatt sich auf externe Bewertungsdaten zu stützen, während das Tuning-Verfahren es dem Modell ermöglicht, seine Antworten nach selbstgelernten Prinzipien zu bewerten. Diese Kombination soll die Reaktionszeiten der Sprachmodelle verkürzen und die Präzision bei der Beantwortung offener Fragen erhöhen.
Das Potenzial dieser neuen Methode ist enorm. Laut einem kürzlich auf der Plattform Arxiv veröffentlichten Fachartikel haben die resultierenden DeepSeek-Modelle bereits bestehende Methoden übertroffen. Die Forscher berichten von einer bemerkenswerten Konkurrenzfähigkeit gegenüber traditionellen Belohnungsmodellen, was diesen Ansatz zu einer vielversprechenden Alternative macht.
Belohnungsmodellierung ist ein entscheidender Bestandteil in der modernen KI-Entwicklung. Sie soll sicherstellen, dass KI-Modelle nicht nur logisch korrekte, sondern auch gesellschaftlich akzeptable Antworten liefern. DeepSeek verfolgt mit seinem Doppelschritt-Ansatz das Ziel, schneller sowie qualitativ bessere Antworten zu generieren, indem eine rechnerische Bewertung mit einer kritischen Selbstreflexion kombiniert wird.
Die Gerüchteküche brodelt um das bevorstehende Modell DeepSeek-R2, das als Nachfolger des beeindruckenden R1 gilt. Laut Berichten der Nachrichtenagentur Reuters könnte es noch in diesem Monat veröffentlicht werden, obwohl eine offizielle Bestätigung bislang aussteht.
Im Gegensatz zu US-Startups wie OpenAI und Anthropic, die für ihre Transparenz und aktiven Kommunikation bekannt sind, setzt DeepSeek auf ein eher bescheidenes Auftreten und konzentriert sich primär auf Forschung und Open Source Initiativen. Die wenigsten Informationen über Finanzierungsquellen, institutionelle Verflechtungen oder politische Einflüsse deuten darauf hin, dass Chinas KI-Strategie nicht nur technische Fortschritte, sondern auch eine kontrollierte Sichtbarkeit nach außen und innen priorisiert.
Obwohl DeepSeek bereits im Februar mehrere Code-Repositories veröffentlicht hat und angekündigt hat, künftig mit ‚voller Transparenz‘ weiterzuarbeiten, bleibt unklar, wann genau die neu entwickelten GRM-Modelle der Öffentlichkeit zur Verfügung stehen werden. Das Versprechen der Transparenz bleibt somit vorerst ein spannendes Thema, das die KI-Community weiterhin beschäftigt.