Das chinesische Unternehmen DeepSeek bietet heute eine Lernlösung für KI an, die deutlich günstiger ist als der amerikanische Konkurrent OpenAI.
L’künstliche Intelligenz ist ein umfangreiches Thema, das verschiedene Themen abdeckt, von praktischen Anwendungen bis hin zu theoretischen Aspekten, einschließlich des Lernens von Daten aus diesen KIs durch das, was wir nennen LLM (Sprachmodelle). Heutzutage sind die Unternehmen, die hinter vielen KI-Systemen stehen, attraktiv Anliegen hinsichtlich der wirtschaftlichen und ökologischen Kosten, die sie verursachen. DeepSeek bietet zumindest aus wirtschaftlicher Sicht eine Lösung für dieses Problem.
Schneller und günstiger
Indem sie fortschreitet und immer effizienter wird, erhöht die künstliche Intelligenz die Parameter ihrer Sprachmodelle auf Bleiben Sie relevant und immer komplexere Anfragen verstehen. Eine Verbesserung, die ihren Preis hat. Als Beispiel: Version 3 von ChatGPTwas zählen würde 175 Milliarden Parameter entsprechend Der RandDie Entwicklung kostete mehrere hundert Millionen Dollar. OpenAI, seine Muttergesellschaft, wird ebenfalls regelmäßig für die astronomischen Summen ausgezeichnet, die es ihr ermöglichen, über Wasser zu bleiben.
Laut Jim Fan, Forschungswissenschaftler bei NvidiaDeepSeek mit Sitz in Hangzhou, China, wird in Betracht gezogen „der größte Außenseiter“ von 2025 im Bereich großer Open-Source-LLMs, berichten chinesische Medien South China Morning Post.
Im Vergleich zu ChatGPT, DeepSeek V3das über 671 Milliarden Parameter verfügt, wurde in nur zwei Monaten zu einem Preis von trainiert 5,58 Millionen US-Dollar.
Ein Open-Source-Modell
DeepSeek ist nicht nur wirtschaftlich, sondern positioniert sich auch als Modell Open Source was sich unter Fachleuten zu bewähren scheint. „DeepSeek V3 scheint mit nur 2,8 Millionen GPU-Stunden ein leistungsstärkeres Modell zu sein“sagte Andrej Karpathy, ehemaliger Leiter der KI bei Tesla und Gründungsmitglied des OpenAI-Teams, in einem Beitrag auf X (Twitter). Zum Vergleich: Lama 3.1die KI der Meta-Gruppe, erforderte laut Angaben 30,8 Millionen GPU-Trainingsstunden South China Morning Post.
„Ich verfolge DeepSeek schon seit langer Zeit. Letztes Jahr hatten sie eines der besten Open-Coding-Modelle »sagt Fan. Er führt weiter aus, dass diese Open-Source-Modelle einen enormen Druck auf die Branche ausüben werden, was zu einer schnellen Entwicklung führen wird.
Für die Neugierigsten: Das DeepSeek-Modell ist auf Hugging Face verfügbar und wird von seiner Dokumentation auf GitHub begleitet.
Wussten Sie? Bei Google News können Sie Ihre Medien auswählen. Verpassen Sie nicht Frandroid und Numerama.