Wir sind fonio.ai – eine Telefon-KI, die wie ein Mensch klingt und komplette Anrufe übernimmt. Seit unserem Start vor etwas über einem Jahr vertrauen uns bereits über 6.000 Unternehmen.
Damit fonio bei Kund:innen wirklich “live” funktioniert, braucht es Menschen, die schnell verstehen, was ein Business braucht – und das dann sauber in ein funktionierendes Setup übersetzen: Integrationen, Workflows, Logik, Prompts, Datenflüsse, Edge Cases.
Wir suchen dafür eine:n Forward Deployment Engineer, der/die AI-Systeme versteht, Workflows denkt und gleichzeitig solide coden kann – pragmatisch, schnell, zuverlässig.
Du bist das technische Bindeglied an der Schnittstelle zwischen Produkt und Kunden-Setups. Du nimmst Anforderungen auf, übersetzt sie in robuste Implementierungen und schaltest fonio bei Kund:innen live – inkl. Integrationen, Automatisierungen und laufender Optimierung.
Du arbeitest eng mit Produkt/Engineering und Go-to-Market zusammen und sorgst dafür, dass Deployments schnell, stabil und wiederholbar werden.
Kundenanforderungen technisch aufnehmen, strukturieren und in klare Implementierungspläne übersetzen
Aufbau und Rollout von fonio-Setups in Produktion (Workflows, Logik, Datenflüsse, Prompts, Guardrails)
Implementierung von Integrationen zu Drittsystemen (APIs, Webhooks, CRM, Kalender, Ticketing, Payments etc.)
Entwicklung kleiner bis mittlerer Features/Glue-Code, um Kundencases sauber abzubilden (inkl. Tests/Monitoring/Logging)
Debugging in Echtzeit: Calls, Flows, Daten, Edge Cases – und schnelle Fixes unter Produktionsbedingungen
Standardisierung: wiederverwendbare Templates, Best Practices, “Deployment Playbooks”, um Setups skalierbar zu machen
Feedback-Loop ins Produkt: Pain Points, Feature Gaps, wiederkehrende Muster – priorisiert und konkret
Ownership im Deployment: du bist direkt verantwortlich, dass Setups beim Kunden funktionieren
Schnelle, sichtbare Wirkung: deine Arbeit ist unmittelbar in Live-Telefonaten messbar
Nähe zum Produkt: du beeinflusst aktiv, was gebaut wird (basierend auf echten Anforderungen)
Viel Abwechslung: von AI-Logik über Integrationen bis zu Cloud/Infra-Themen
Kleines, schnelles Team: kurze Entscheidungswege, hohe Taktung, viel Verantwortung
Solide Coding Skills (du kannst eigenständig implementieren, nicht nur “konfigurieren”)
Starkes Verständnis für AI-Systeme und LLM-basierte Anwendungen (Prompting, Tool-Use, RAG/Knowledge, Evaluierung, Failure Modes)
Workflow-Denken: du kannst komplexe Prozesse in robuste, testbare Flows übersetzen
Erfahrung mit APIs/Webhooks, Auth (OAuth/API Keys), Datenformaten und Integration-Patterns
Cloud-Grundverständnis (Deployments, Observability, Debugging in Produktionsumgebungen)
Sehr pragmatische Arbeitsweise: schnell liefern, stabil machen, iterieren
Bonus (nicht Voraussetzung): Erfahrung mit Voice/Telephony, n8n/Automations, TypeScript/Python, Datenbanken (SQL), Monitoring/Tracing, GDPR/Privacy-by-Design
60.000–90.000 € Brutto-Jahresgehalt.
On-site in Wien oder remote (hybrid möglich)
Top-Equipment
Sehr kurze Entscheidungswege und direkte Zusammenarbeit im Kernteam
Zugang zu neuesten AI-Tools & Workflows
Viel Ownership und die Möglichkeit, sehr schnell zu wachsen
15 min Erstes Kennenlernen
45 min Technical Deep Dive + Case (kurzer, praxisnaher Deployment-/Integration-Case)
45 min Gespräch zu Kultur, Erwartungen & Details