Pitch — xtan.ai

KI-Gestensteuerung für 3D‑Workflows ⚡️

💡 Idee

MotionCoder ist ein KI‑gestütztes Framework, das Gesten und Gebärden in Echtzeit in präzise CAD/DCC‑Befehle übersetzt – für schnellere 3D‑Workflows, weniger Klicks und bessere Ergonomie.

🚧 Das Problem

Heutige 3D‑Workflows (CAD/DCC) sind klickintensiv, zeitaufwändig und modusgebunden: ständig Modi wechseln, Dialoge öffnen, Parameter tippen. Das kostet Zeit, Fokus und Nerven.

✅ Die Lösung

MotionCoder erkennt ikonische Gesten (z. B. Linie, Kreis, Schere, Handrad) und setzt sie in Echtzeit als Befehle mit Parametern um.

Primär für Desktop mit großem Monitor konzipiert – komfortabler & effizienter als VR. VR ist optional.

Warum jetzt? Moderne GPUs mit KI‑Beschleunigung ermöglichen latenzarme On‑Prem‑Pipelines mit hoher Leistung und gutem Preis‑Leistungs‑Verhältnis – oft günstiger als ToF‑Setups.

🚨 Lücke

Ähnliche Ideen zur Gestensteuerung gibt es, doch es fehlte meist an durchgängiger Echtzeitfähigkeit – und an der Einbindung gebärdensprachlicher Nuancen (Handform, Feingefühl, kognitiver Denkbezug, Raumgrammatik, Koartikulation, Timing/Rhythmus, Prosodie usw.). Daher haben sie sich kaum verbreitet oder sind wieder verschwunden. Meine unternehmerische Erfahrung in Gebärdensprache, Programmierung und Maschinenbau schließt genau diese Lücke.

⚙️ Wie es funktioniert

  • Multi‑View‑Kameras erkennen Gesten und rekonstruieren sie als 3D‑Gesten.
  • Echtzeit‑Pipeline: 3D‑Gesten → Intent + Parameter + kontinuierliche Werte (z. B. Winkel/Ø/Tiefe).
  • Plugins steuern die Zielsoftware (Start: Blender, danach Unreal etc.).

🎯 Warum das überzeugt

  • Schneller arbeiten: Weniger Moduswechsel, mehr Aktionen pro Sekunde.
  • Ergonomisch: Weniger Maus‑Mikroarbeit, mehr Fokus im Viewport.
  • Intuitiv: Ikonische Gesten sind selbsterklärend.
  • Barrierefreiheit: Gebärden als First‑Class‑Interface ♿️
  • Sicher & privat: On‑Prem, keine Cloud‑Pflicht, Datenminimierung.

👥 Wer profitiert?

⚔️ Wettbewerbslandschaft

  • Direkte Konkurrenz: Keine Lösung vereint präzises Multi‑View‑Tracking, Echtzeit‑Semantik und parametrische CAD/DCC‑Automation zu einer End‑to‑End‑Pipeline.
  • Indirekt/teilweise: Tracking-Stacks für VR/Animation (z. B. MediaPipe, YOLO, Meta Quest) sowie Standard-Hardware liefern in der Praxis nicht die Industrie-Robustheit für parametrische CAD/DCC-Automation.
  • Differenzierung: MotionCoder schließt die Lücke: Intent + Parameter in Echtzeit, undo‑sichere Integrationen in CAD/DCC.

👨‍🔧 Warum ich?

Eigener CNC‑Fachbetrieb; Erfahrung in Maschinenbau, Antriebstechnik, CAD, Kinematik, C/C++ sowie Gebärdenkommunikation. Die Idee für MotionCoder entsteht aus meiner CNC‑Softwareentwicklung; dazu praxisnahe Vision/Kamera‑Projekte für Kund:innen.

Aus der Praxis weiß ich, wann MotionCoder im Alltag schneller und ergonomischer als die Maus ist. Gesten sind in vielen Szenarien natürlicher und schneller – dieses Handwerks-Know-how steckt in xtan.ai.

♻️ Fazit

Gesten rein → Ergebnis raus: schnell ⚡️, präzise 🎯, performant 💪.

Mehr Infos: xtan.ai · GitHub: xtanai/overview