[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"blog-content-ai-news-der-woche-kw-14":3},"\u003Cp>Ein Supply-Chain-Angriff trifft LiteLLM und erschüttert das AI-Infrastruktur-Ökosystem. OpenAI stellt Sora ein — $1 Million pro Tag für unter 500.000 Nutzer war dann doch zu viel. Und Anthropic hat versehentlich ein neues Modell geleakt, das angeblich alles Bisherige in den Schatten stellt. Willkommen in KW 14.\u003C\u002Fp>\n\n\u003Ch2>🔥 Top-Story: Supply-Chain-Angriff auf LiteLLM — Backdoor in AI-Infrastruktur\u003C\u002Fh2>\n\u003Cp>\u003Cimg src=\"\u002Fimages\u002Fblog\u002Fweekly-ai-news-kw14-supply-chain.webp\" alt=\"Supply-Chain-Angriff auf LiteLLM: Backdoor in AI-Infrastruktur\" loading=\"lazy\">\u003C\u002Fp>\n\u003Cp>Die wohl alarmierendste Nachricht der Woche: Am 24. März hat die Hackergruppe \u003Ca href=\"https:\u002F\u002Fsecuritylabs.datadoghq.com\u002Farticles\u002Flitellm-compromised-pypi-teampcp-supply-chain-campaign\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">TeamPCP die Python-Pakete LiteLLM v1.82.7 und v1.82.8 auf PyPI kompromittiert\u003C\u002Fa>. Die manipulierten Versionen enthielten einen mehrstufigen Payload — Credential-Stealer für SSH-Keys, Cloud-Tokens und Kubernetes-Secrets, Lateral-Movement über privilegierte Pods, und eine persistente Backdoor via systemd.\u003C\u002Fp>\n\u003Cp>Der Angriff war Teil einer größeren Kampagne: TeamPCP hatte zuvor bereits \u003Ca href=\"https:\u002F\u002Fwww.kaspersky.com\u002Fblog\u002Fcritical-supply-chain-attack-trivy-litellm-checkmarx-teampcp\u002F55510\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Trivy (den populären Vulnerability-Scanner) und Checkmarx kompromittiert\u003C\u002Fa>. Über eine ungepinnte Trivy-Dependency in LiteLLMs CI\u002FCD-Pipeline gelangten die Angreifer an den PyPI-Publishing-Token und konnten die manipulierten Pakete hochladen.\u003C\u002Fp>\n\u003Cp>Die betroffenen Versionen waren nur rund drei Stunden online, bevor PyPI sie entfernte. Aber bei \u003Ca href=\"https:\u002F\u002Fwww.endorlabs.com\u002Flearn\u002Fteampcp-isnt-done\" target=\"_blank\" rel=\"noopener noreferrer\">95 Millionen Downloads pro Monat\u003C\u002Fa> ist der Blast Radius nicht zu unterschätzen. Der Vorfall wurde als \u003Ca href=\"https:\u002F\u002Fthehackernews.com\u002F2026\u002F03\u002Fteampcp-backdoors-litellm-versions.html\" target=\"_blank\" rel=\"noopener noreferrer\">CVE-2026-33634 mit CVSS 9.4\u003C\u002Fa> eingestuft.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Wer ist betroffen?\u003C\u002Fstrong> Laut \u003Ca href=\"https:\u002F\u002Fdocs.litellm.ai\u002Fblog\u002Fsecurity-update-march-2026\" target=\"_blank\" rel=\"noopener noreferrer\">LiteLLMs eigenem Security-Update\u003C\u002Fa> sind Nutzer des offiziellen Docker-Images nicht betroffen — dort werden Dependencies in \u003Ccode>requirements.txt\u003C\u002Fcode> gepinnt. Gefährdet sind Entwickler, die am 24. März via \u003Ccode>pip install\u003C\u002Fcode> ohne Version-Pinning installiert oder aktualisiert haben.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Was das für uns bedeutet:\u003C\u002Fstrong> LiteLLM ist eine Kernkomponente in vielen AI-Stacks — auch in unserer AI OpenStack Lösung. Wir haben unsere Deployments sofort überprüft: Unsere Kunden waren durch gepinnte Versionen und Container-basierte Deployments nicht betroffen. Aber der Vorfall zeigt, wie fragil die Supply-Chain im AI-Ökosystem ist. Wer AI-Infrastruktur betreibt, sollte jetzt seine Dependency-Pinning-Strategie und CI\u002FCD-Absicherung überprüfen.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fsecuritylabs.datadoghq.com\u002Farticles\u002Flitellm-compromised-pypi-teampcp-supply-chain-campaign\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Datadog Security Labs: LiteLLM kompromittiert\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fwww.kaspersky.com\u002Fblog\u002Fcritical-supply-chain-attack-trivy-litellm-checkmarx-teampcp\u002F55510\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Kaspersky: Trivy\u002FLiteLLM\u002FCheckmarx\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fwww.endorlabs.com\u002Flearn\u002Fteampcp-isnt-done\" target=\"_blank\" rel=\"noopener noreferrer\">Endor Labs: TeamPCP Analyse\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fdocs.litellm.ai\u002Fblog\u002Fsecurity-update-march-2026\" target=\"_blank\" rel=\"noopener noreferrer\">LiteLLM Security Update\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fthehackernews.com\u002F2026\u002F03\u002Fteampcp-backdoors-litellm-versions.html\" target=\"_blank\" rel=\"noopener noreferrer\">The Hacker News: CVE-2026-33634\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>OpenAI stellt Sora ein — $1M pro Tag war zu teuer\u003C\u002Fh2>\n\u003Cp>Die symbolische Nachricht der Woche: \u003Ca href=\"https:\u002F\u002Fedition.cnn.com\u002F2026\u002F03\u002F24\u002Ftech\u002Fopenai-sora-video-app-shutting-down\" target=\"_blank\" rel=\"noopener noreferrer\">OpenAI stellt Sora ein\u003C\u002Fa>. Das Videogeneration-Tool, das Ende 2024 noch als revolutionär gefeiert wurde, verbrennt laut \u003Ca href=\"https:\u002F\u002Ftechcrunch.com\u002F2026\u002F03\u002F29\u002Fwhy-openai-really-shut-down-sora\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">TechCrunch rund $1 Million pro Tag\u003C\u002Fa> — bei weniger als 500.000 aktiven Nutzern.\u003C\u002Fp>\n\u003Cp>Die Hintergründe sind ernüchternd: Die Nutzerzahlen kollabierten nach dem Launch-Hype. Disney hatte einen \u003Ca href=\"https:\u002F\u002Fvariety.com\u002F2026\u002Fdigital\u002Fnews\u002Fopenai-shutting-down-sora-video-disney-1236698277\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">$1-Milliarden-Deal\u003C\u002Fa> unterschrieben und erfuhr von der Einstellung weniger als eine Stunde vor der Öffentlichkeit. Und intern hat OpenAIs neue App-Chefin Fidji Simo den \"Side Quests\" den Kampf angesagt — alles, was nicht direkt Produktivität und Enterprise bedient, wird gestrichen.\u003C\u002Fp>\n\u003Cp>Was bleibt: Sora 2 lebt als Modell hinter der ChatGPT-Paywall weiter. Aber als eigenständiges Produkt ist AI-Videogeneration vorerst tot — zumindest bei OpenAI. Open-Source-Alternativen wie ByteDances Helios oder Lightricks' LTX 2.3 füllen die Lücke von unten.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fedition.cnn.com\u002F2026\u002F03\u002F24\u002Ftech\u002Fopenai-sora-video-app-shutting-down\" target=\"_blank\" rel=\"noopener noreferrer\">CNN: OpenAI shutting down Sora\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Ftechcrunch.com\u002F2026\u002F03\u002F29\u002Fwhy-openai-really-shut-down-sora\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">TechCrunch: Why OpenAI really shut down Sora\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fvariety.com\u002F2026\u002Fdigital\u002Fnews\u002Fopenai-shutting-down-sora-video-disney-1236698277\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Variety: Disney drops $1B plans\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Neue Modelle &amp; Releases\u003C\u002Fh2>\n\n\u003Ch3>Anthropics \"Capybara\"-Leak: Geheimes Mega-Modell enthüllt\u003C\u002Fh3>\n\u003Cp>Peinlich, aber aufschlussreich: \u003Ca href=\"https:\u002F\u002Ffortune.com\u002F2026\u002F03\u002F26\u002Fanthropic-says-testing-mythos-powerful-new-ai-model-after-data-leak-reveals-its-existence-step-change-in-capabilities\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Anthropic hat durch einen CMS-Konfigurationsfehler einen internen Blogpost-Entwurf öffentlich gemacht\u003C\u002Fa>. Darin beschrieben: Ein neues Modell namens \"Capybara\" (interner Codename \"Mythos\"), das als neue Tier über Opus positioniert wird — \"larger and more intelligent\" als Claude Opus 4.6.\u003C\u002Fp>\n\u003Cp>Laut dem geleakten Entwurf erzielt Capybara \"dramatically higher scores\" bei Coding, Academic Reasoning und Cybersecurity. Anthropic bestätigte die Existenz und nannte es einen \u003Ca href=\"https:\u002F\u002Fthe-decoder.com\u002Fanthropic-leak-reveals-new-model-claude-mythos-with-dramatically-higher-scores-on-tests-than-any-previous-model\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">\"step change\"\u003C\u002Fa>. Gleichzeitig warnt der Entwurf vor \u003Ca href=\"https:\u002F\u002Ffuturism.com\u002Fartificial-intelligence\u002Fanthropic-step-change-new-model-claude-mythos\" target=\"_blank\" rel=\"noopener noreferrer\">\"unprecedented cybersecurity risks\"\u003C\u002Fa> — stark genug, dass \u003Ca href=\"https:\u002F\u002Fwww.investing.com\u002Fnews\u002Fstock-market-news\u002Fcybersecurity-stocks-plunge-as-anthropics-claude-mythos-leak-sparks-ai-fear-4584897\" target=\"_blank\" rel=\"noopener noreferrer\">Cybersecurity-Aktien nach dem Leak einbrachen\u003C\u002Fa>.\u003C\u002Fp>\n\u003Cp>Kein Release-Datum bekannt. Anthropic will das Modell \"much more efficient\" machen, bevor es öffentlich verfügbar wird.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Ffortune.com\u002F2026\u002F03\u002F26\u002Fanthropic-says-testing-mythos-powerful-new-ai-model-after-data-leak-reveals-its-existence-step-change-in-capabilities\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Fortune: Anthropic Mythos Leak\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fthe-decoder.com\u002Fanthropic-leak-reveals-new-model-claude-mythos-with-dramatically-higher-scores-on-tests-than-any-previous-model\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">The Decoder: Dramatically higher scores\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Ffuturism.com\u002Fartificial-intelligence\u002Fanthropic-step-change-new-model-claude-mythos\" target=\"_blank\" rel=\"noopener noreferrer\">Futurism: Unprecedented cybersecurity risks\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch3>Frontier-Modell-Monat März: GPT-5.4, Gemini 3.1, Grok 4.20\u003C\u002Fh3>\n\u003Cp>Drei Frontier-Modelle in einem Monat — das gab's noch nie.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>GPT-5.4\u003C\u002Fstrong> ist seit 5. März verfügbar und bringt ein \u003Ca href=\"https:\u002F\u002Ftechcrunch.com\u002F2026\u002F03\u002F05\u002Fopenai-launches-gpt-5-4-with-pro-and-thinking-versions\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">vereinheitlichtes Modell für Coding, Reasoning und Computer Use\u003C\u002Fa> in drei Varianten (Standard, Thinking, Pro). Die Highlights: 75% auf OSWorld (Computer Use — über der menschlichen Expert-Baseline von 72,4%), 1,1 Millionen Token Kontextfenster, und ein neues \"Tool Search\"-System für effizientes Function Calling. Preislich bei \u003Ca href=\"https:\u002F\u002Fwww.nxcode.io\u002Fresources\u002Fnews\u002Fgpt-5-4-release-date-features-pricing-2026\" target=\"_blank\" rel=\"noopener noreferrer\">$2,50\u002FMTok Input, $15\u002FMTok Output\u003C\u002Fa>.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Gemini 3.1 Pro\u003C\u002Fstrong> von Google folgte mit \u003Ca href=\"https:\u002F\u002Fblog.google\u002Finnovation-and-ai\u002Fmodels-and-research\u002Fgemini-models\u002Fgemini-3-1-pro\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">77,1% auf ARC-AGI-2\u003C\u002Fa> — dem Benchmark für neuartige Logik-Muster. Dazu kommt Gemini 3.1 Flash-Lite mit \u003Ca href=\"https:\u002F\u002Fsiliconangle.com\u002F2026\u002F03\u002F03\u002Fgoogle-launches-speedy-gemini-3-1-flash-lite-model-preview\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">$0,25\u002FMTok\u003C\u002Fa>, das in sechs von zehn Benchmarks GPT-5 mini und Claude 4.5 Haiku schlägt.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Grok 4.20\u003C\u002Fstrong> von xAI ist seit dem \u003Ca href=\"https:\u002F\u002Fartificialanalysis.ai\u002Fmodels\u002Fgrok-4-20\" target=\"_blank\" rel=\"noopener noreferrer\">24. März offiziell verfügbar\u003C\u002Fa> und bringt ein eingebautes Multi-Agenten-System mit vier spezialisierten Sub-Agenten. Der Clou: \u003Ca href=\"https:\u002F\u002Fwinbuzzer.com\u002F2026\u002F03\u002F25\u002Fxai-grok-420-honesty-record-intelligence-gap-xcxwbn\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">78% Non-Hallucination-Rate\u003C\u002Fa> — Rekord im Artificial Analysis Omniscience Test. Allerdings liegt Grok auf dem Intelligence Index mit Score 48 deutlich hinter Gemini 3.1 Pro und GPT-5.4 (beide 57).\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Ftechcrunch.com\u002F2026\u002F03\u002F05\u002Fopenai-launches-gpt-5-4-with-pro-and-thinking-versions\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">TechCrunch: GPT-5.4\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fblog.google\u002Finnovation-and-ai\u002Fmodels-and-research\u002Fgemini-models\u002Fgemini-3-1-pro\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Google: Gemini 3.1 Pro\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fartificialanalysis.ai\u002Fmodels\u002Fgrok-4-20\" target=\"_blank\" rel=\"noopener noreferrer\">Artificial Analysis: Grok 4.20\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fwinbuzzer.com\u002F2026\u002F03\u002F25\u002Fxai-grok-420-honesty-record-intelligence-gap-xcxwbn\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">WinBuzzer: Grok Honesty Record\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Open Source &amp; Infrastructure\u003C\u002Fh2>\n\n\u003Ch3>Cursor Composer 2: Frontier-Level? Eher Kimi K2.5 mit RL-Feintuning\u003C\u002Fh3>\n\u003Cp>Cursor hat letzte Woche Composer 2 gelauncht und als \"frontier-level coding intelligence\" vermarktet. Was sie nicht erwähnten: \u003Ca href=\"https:\u002F\u002Ftechcrunch.com\u002F2026\u002F03\u002F22\u002Fcursor-admits-its-new-coding-model-was-built-on-top-of-moonshot-ais-kimi\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Das Modell basiert auf Kimi K2.5 von Moonshot AI\u003C\u002Fa>, einem chinesischen Open-Source-Modell backed by Alibaba und Tencent.\u003C\u002Fp>\n\u003Cp>Ein Entwickler \u003Ca href=\"https:\u002F\u002Fwww.datastudios.org\u002Fpost\u002Fcursor-composer-2-and-kimi-k2-5-what-happened-what-cursor-later-admitted-and-why-the-controversy\" target=\"_blank\" rel=\"noopener noreferrer\">fand den Model-Identifier \u003Ccode>kimi-k2p5-rl-0317-s515-fast\u003C\u002Fcode> in der API-Response\u003C\u002Fa>. Elon Musk kommentierte trocken: \"Yeah, it's Kimi 2.5.\" Cursor bestätigte innerhalb von Stunden und erklärte, \u003Ca href=\"https:\u002F\u002Fwww.mindstudio.ai\u002Fblog\u002Fcursor-composer-2-kimi-k25-open-source-attribution\" target=\"_blank\" rel=\"noopener noreferrer\">nur ~25% des Compute käme vom Base-Modell\u003C\u002Fa>.\u003C\u002Fp>\n\u003Cp>Pikant: Kimis Modified MIT License \u003Ca href=\"https:\u002F\u002Fventurebeat.com\u002Ftechnology\u002Fcursors-composer-2-was-secretly-built-on-a-chinese-ai-model-and-it-exposes-a\" target=\"_blank\" rel=\"noopener noreferrer\">verlangt prominente Attribution bei Produkten mit über $20M Monatsumsatz\u003C\u002Fa> — Cursors Umsatz liegt laut Schätzungen beim 8-fachen dieser Schwelle. Die Kontroverse zeigt ein breiteres Problem: Westliche AI-Unternehmen sind zunehmend auf chinesische Open-Weight-Modelle angewiesen, weil Metas Llama 4 enttäuschte und Behemoth auf unbestimmte Zeit verschoben wurde.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Ftechcrunch.com\u002F2026\u002F03\u002F22\u002Fcursor-admits-its-new-coding-model-was-built-on-top-of-moonshot-ais-kimi\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">TechCrunch: Cursor admits Kimi base\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fventurebeat.com\u002Ftechnology\u002Fcursors-composer-2-was-secretly-built-on-a-chinese-ai-model-and-it-exposes-a\" target=\"_blank\" rel=\"noopener noreferrer\">VentureBeat: Chinese AI reliance\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fwww.datastudios.org\u002Fpost\u002Fcursor-composer-2-and-kimi-k2-5-what-happened-what-cursor-later-admitted-and-why-the-controversy\" target=\"_blank\" rel=\"noopener noreferrer\">Data Studios: Full breakdown\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch3>KubeCon EU 2026: CNCF wird zur AI-Infrastruktur-Organisation\u003C\u002Fh3>\n\u003Cp>Die \u003Ca href=\"https:\u002F\u002Fevents.linuxfoundation.org\u002Fkubecon-cloudnativecon-europe\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">KubeCon Europe 2026 in Amsterdam\u003C\u002Fa> war mit 13.500+ Teilnehmern die größte aller Zeiten. Der Tenor: Cloud Native ist jetzt AI Native. Die wichtigsten Neuzugänge im CNCF-Ökosystem:\u003C\u002Fp>\n\u003Cp>\u003Ca href=\"https:\u002F\u002Fwww.efficientlyconnected.com\u002Fkubecon-europe-2026-keynote-cloud-natives-ai-pivot-moves-from-hype-to-infrastructure\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">\u003Cstrong>llm-d\u003C\u002Fstrong>\u003C\u002Fa> kommt als Sandbox-Projekt und standardisiert LLM-Inference auf Kubernetes. \u003Ca href=\"https:\u002F\u002Fwww.cncf.io\u002Fblog\u002F2026\u002F03\u002F24\u002Ftekton-becomes-a-cncf-incubating-project\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">\u003Cstrong>Tekton\u003C\u002Fstrong>\u003C\u002Fa> erreicht Incubating-Status als Kubernetes-native CI\u002FCD-Engine. \u003Ca href=\"https:\u002F\u002Fwww.cncf.io\u002Fblog\u002F2026\u002F03\u002F25\u002Fhigress-joins-cncf-delivering-an-enterprise-grade-ai-gateway-and-a-seamless-path-from-nginx-ingress\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">\u003Cstrong>Higress\u003C\u002Fstrong>\u003C\u002Fa> tritt als AI Gateway der nächsten Generation bei — praktisch als direkter Nachfolger von Ingress-NGINX, das \u003Ca href=\"https:\u002F\u002Fthenewstack.io\u002Fcncf-retires-the-ingress-nginx-controller-for-kubernetes\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">ab März 2026 offiziell eingestellt wird\u003C\u002Fa>.\u003C\u002Fp>\n\u003Cp>NVIDIA wurde \u003Ca href=\"https:\u002F\u002Fwww.efficientlyconnected.com\u002Fkubecon-europe-2026-keynote-cloud-natives-ai-pivot-moves-from-hype-to-infrastructure\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Platinum-Mitglied der CNCF\u003C\u002Fa>, doniert seinen GPU-Treiber als Referenz-Implementierung für die DRA-API und investiert $4 Millionen über drei Jahre in GPU-Zugang für CNCF-Projekte. Sovereign AI war das Buzzword der Konferenz — direkt in unserem Wheelhouse mit unserer AI OpenStack Lösung.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fevents.linuxfoundation.org\u002Fkubecon-cloudnativecon-europe\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">KubeCon EU 2026\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fwww.cncf.io\u002Fblog\u002F2026\u002F03\u002F24\u002Ftekton-becomes-a-cncf-incubating-project\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">CNCF: Tekton Incubating\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fwww.cncf.io\u002Fblog\u002F2026\u002F03\u002F25\u002Fhigress-joins-cncf-delivering-an-enterprise-grade-ai-gateway-and-a-seamless-path-from-nginx-ingress\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">CNCF: Higress joins\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Community-Highlight\u003C\u002Fh2>\n\n\u003Ch3>deer-flow: ByteDances Open-Source-Agent-Framework explodiert auf GitHub\u003C\u002Fh3>\n\u003Cp>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbytedance\u002Fdeer-flow\" target=\"_blank\" rel=\"noopener noreferrer\">deer-flow von ByteDance\u003C\u002Fa> hat diese Woche 53.198 GitHub-Stars erreicht (+18.158 in einer Woche) und ist damit das am schnellsten wachsende Projekt der Woche. Das \"Extended-Duration Intelligent Assistant Framework\" verspricht langlebige, autonome Agent-Workflows — ein Zeichen dafür, dass auch die großen Tech-Konzerne massiv in Open-Source-Agenten investieren.\u003C\u002Fp>\n\u003Cp>Ebenfalls bemerkenswert: \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FTradingAgents\" target=\"_blank\" rel=\"noopener noreferrer\">TradingAgents\u003C\u002Fa> (44.148★, +7.622) für LLM-basierte Finanz-Trading-Agents und \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fproject-nomad\" target=\"_blank\" rel=\"noopener noreferrer\">project-nomad\u003C\u002Fa> (19.894★, +11.503) als Offline-Survival-Computer mit KI — eine Art Raspberry Pi trifft auf lokale LLMs für Extremsituationen.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftrending?since=weekly\" target=\"_blank\" rel=\"noopener noreferrer\">GitHub Trending Weekly\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Unser Take\u003C\u002Fh2>\n\u003Cp>Diese Woche hat gezeigt, dass die AI-Branche gleichzeitig wächst und verwundbar ist. Der LiteLLM-Angriff ist ein Weckruf: Wer AI-Infrastruktur produktiv betreibt, muss Supply-Chain-Security genauso ernst nehmen wie Model-Performance. Dependency-Pinning, isolierte Build-Pipelines, regelmäßige Audits — das sind keine Nice-to-haves mehr.\u003C\u002Fp>\n\u003Cp>Soras Ende zeigt, dass nicht jedes AI-Produkt einen nachhaltigen Markt findet. Die Technologie ist beeindruckend, aber $1M\u002FTag für ein halbes Million Nutzer rechnet sich schlicht nicht. OpenAI fokussiert sich jetzt auf Enterprise und Produktivität — und da liegt auch die Zukunft für die meisten AI-Anwendungen.\u003C\u002Fp>\n\u003Cp>Und Anthropics Capybara-Leak? Spannend, aber auch bezeichnend: Wenn selbst die Firma, die als erste vor AI-Risiken warnt, ihre eigenen Systeme nicht absichern kann, sagt das viel über den Zustand der Branche. Wir sind gespannt, was Capybara\u002FMythos bringt — und ob Anthropic die eigenen Cybersecurity-Bedenken ernst genug nimmt, um das Modell verantwortungsvoll zu releasen.\u003C\u002Fp>\n\u003Cp>\u003Cem>Kuratiert von SEADEV Studios — jede Woche die wichtigsten AI-News, eingeordnet für Entwickler und Entscheider.\u003C\u002Fem>\u003C\u002Fp>\n"]