solid4

Scroll, Farbe, Kontext

Diese Woche hat sich einiges getan – und zwar nicht nur an der Oberfläche. Wer unsere Arbeit als Digitalagentur ein bisschen verfolgt, weiß: Wir schauen uns neue Entwicklungen nicht aus Neugier an, sondern weil sie früher oder später den Alltag unserer Kunden beeinflussen. Drei Entwicklungen der letzten Tage haben uns im Team besonders beschäftigt: Browser, die endlich miteinander reden; ein KI-Tool, das man einfach anspricht; und eine stille Verschiebung in dem, was Designwerkzeuge leisten können.

CSS braucht keine Krücken mehr

Wer eine Website baut, kennt das Leid: Ein CSS-Feature funktioniert in Chrome wunderbar, in Safari oder Firefox aber gar nicht oder anders. Jahrelang war das die Normalität – Entwickler haben JavaScript eingesetzt, wo eigentlich CSS gereicht hätte, einfach weil sich Browser nicht einig waren.

Das ändert sich gerade grundlegend. Apple, Google, Microsoft, Mozilla und Igalia betreiben gemeinsam die Initiative Interop 2026 (webkit.org), in der sie sich auf zwanzig konkrete CSS-Features einigen, die bis Ende 2026 in allen großen Browsern identisch funktionieren sollen. Das ist weniger technisches Kleinklein als es klingt – es bedeutet, dass unser Entwicklungsteam endlich Features einsetzen kann, die wir bisher bewusst vermieden haben.

Scroll-Driven Animations und Anchor Positioning

Zwei Beispiele, die uns in laufenden Projekten direkt betreffen: Scroll-Driven Animations verknüpfen CSS-Animationen direkt mit dem Scrollverhalten – ohne eine einzige Zeile JavaScript. Was bisher externe Libraries oder aufwendigen eigenen Code erforderte, wird zur reinen CSS-Deklaration. In einem aktuellen Kundenprojekt für einen Vorarlberger Industriebetrieb haben wir das bewusst noch mit JavaScript umgesetzt, weil die Browser-Unterstützung fehlte. Mit Interop 2026 im Rücken würden wir heute anders entscheiden.

Ähnlich verhält es sich mit Anchor Positioning: Tooltips, Dropdown-Menüs und Popovers, die sich relativ zu einem anderen Element ausrichten, brauchten bisher JavaScript-Berechnungen. Mit anchor-position in CSS wird das zur reinen Styling-Aufgabe. Für Sie als Kunde bedeutet das: schlankerer Code, weniger Abhängigkeiten, schnellere Ladezeiten.

Neu dabei ist auch die shape()-Funktion für komplexe Clipping-Pfade – etwas, das wir bisher über SVG lösen mussten – sowie Container Style Queries, die es erlauben, Komponenten in Abhängigkeit von ihrem Kontext zu stylen, ohne dass das JavaScript-Schicht dazwischenkommt. Das macht Designsysteme wartbarer und Komponenten wirklich wiederverwendbar (CSS-Tricks).

Vibe Design: einfach ansprechen, was man haben möchte

Am 19. März hat Google Labs sein KI-Design-Tool Google Stitch grundlegend überarbeitet (The Register). Was bisher ein netter Prototypen-Generator war, ist jetzt eine vollständige Design-Plattform mit einer Funktion, die uns direkt aufgefallen ist: Voice Canvas.

Man spricht buchstäblich mit dem Canvas. „Mach die Navigation sticky und füge einen Dark-Mode-Schalter ein“ – Stitch versteht den Auftrag und setzt ihn sofort um, stellt Rückfragen wenn nötig. Google nennt den Ansatz dahinter Vibe Design: statt Wireframes zu zeichnen, beschreibt man Absichten. Das klingt nach Zukunftsmusik, ist aber bereits nutzbar.

MCP-Integration und DESIGN.md

Was uns dabei wirklich interessiert, ist das technische Rückgrat: Stitch hat einen eigenen MCP-Server bekommen, der sich direkt mit Claude Code, Gemini CLI und Cursor verbindet. Designs fließen damit nahtlos in den Entwicklungs-Workflow. Wir haben das in den letzten Wochen in einem internen Testprojekt mit Cursor und Claude Code evaluiert – die Idee, dass Designer und Entwickler an derselben Quelle arbeiten, ohne Designs als Bild zu exportieren, funktioniert erstaunlich gut.

Dazu kommt die DESIGN.md-Datei: ein maschinenlesbares Designsystem-Dokument, das Stitch aus jeder beliebigen URL extrahieren kann und das Regeln und Guardrails für das Design enthält. Das ist kein Feature für Designer – das ist ein Feature für Unternehmen, die wollen, dass ihr Erscheinungsbild konsistent bleibt, egal welches Tool gerade im Einsatz ist. Für unsere Kunden, die mit einem bestehenden Markensystem arbeiten, wäre das eine bemerkenswerte Vereinfachung (WinBuzzer).

Eine kleine Einschränkung sei aber erlaubt: Figmas tiefere Kollaborationsfunktionen und ausgereifte Designsystem-Verwaltung erreicht Stitch noch nicht. Für echte Teamarbeit in komplexen Projekten bleibt Figma vorerst das robustere Werkzeug.

Figma und KI: vom Einzelfeature zur Infrastruktur

Apropos Figma: Auch dort hat sich diese Woche etwas verschoben. Mit dem neuen AI Credits-System (ab 11. März 2026) stellt Figma die KI-Funktionen auf eine stabile Abrechnungsgrundlage – Teams können einen gemeinsamen Credit-Pool abonnieren oder Pay-as-you-go nutzen (Figma Blog). Das klingt zunächst nach reiner Buchhaltung, ist aber ein Signal: KI ist in Figma kein Experiment mehr, sondern Infrastruktur.

GitHub Copilot trifft Figma

Gleichzeitig können GitHub Copilot-Nutzer jetzt über den Figma MCP-Server direkt auf Design-Kontext zugreifen – Entwickler können gerendertes UI auf den Figma-Canvas pushen und Design-Informationen direkt in ihre Code-Umgebung ziehen. In VS Code ist das bereits verfügbar.

Bei uns im Team arbeiten wir seit einiger Zeit mit Figma und Cursor in einem gemeinsamen Workflow, und die Frage nach dem MCP-Ansatz ist regelmäßig aufgetaucht. Die direkte Verbindung zwischen Designdatei und Code-Editor nimmt damit eine konkrete Form an – weniger Abstimmung per Screenshot, weniger Flüsterpost zwischen Design und Entwicklung.

Was bleibt

Die drei Entwicklungen der letzten Tage haben eines gemeinsam: Das Werkzeug übernimmt mehr Denkarbeit. CSS löst, was früher JavaScript brauchte. Ein KI-Tool versteht, was man sich vorstellt, statt auf das Zeichnen zu warten. Und Figma verbindet Design und Code direkter als je zuvor.

Für Unternehmen, die ihre digitale Präsenz weiterentwickeln, hat das eine praktische Konsequenz: Die Umsetzung wird schneller, der Code schlanker, die Konsistenz zwischen Design und Realität größer. Das sind keine abstrakten Versprechen – das sind Features, die wir heute schon einsetzen und die in den nächsten Monaten selbstverständlich werden.

Eines bleibt dabei konstant: Werkzeuge können Perspektive nicht ersetzen. Die Frage, was ein digitales Produkt leisten soll, wie es wirkt und wen es ansprechen will – das ist nach wie vor menschliche Arbeit. Und die fängt immer mit einem Gespräch an.

Follow us on: