Die Herausforderung: Schlechte Qualität von Stellenbeschreibungen

Für viele HR-Teams untergräbt eine schlechte Qualität von Stellenbeschreibungen unauffällig, aber wirkungsvoll die Talentgewinnung. Beschreibungen werden aus veralteten Vorlagen kopiert, mit internem Jargon überladen und bleiben vage, was den tatsächlichen Erfolg in der Rolle ausmacht. Anstatt als präziser Filter zu dienen, der die richtigen Profile anzieht, werden sie zu generischen Einkaufslisten von Skills, die theoretisch fast jede Person auf dem Papier erfüllen „könnte“.

Traditionelle Ansätze zum Verfassen von Stellenbeschreibungen halten mit dem heutigen Talentmarkt nicht mehr Schritt. Vielbeschäftigte Recruiter:innen haben selten die Zeit, für jede Rolle individuell zugeschnittene Ausschreibungen zu formulieren – insbesondere, wenn sie Dutzende Requisitions betreuen. Hiring Manager schicken grobe Stichpunkte, die in alte Vorlagen eingefügt werden. Richtlinien zu Diversity & Inclusion, Employer-Branding-Formulierungen und Marktdaten liegen oft in separaten Dokumenten, die es nie in den finalen Text schaffen. Das Ergebnis: inkonsistente, von Bias geprägte und im Markt wenig wettbewerbsfähige Stellenanzeigen.

Die geschäftlichen Auswirkungen sind erheblich. Niedrigwertige Stellenbeschreibungen ziehen unpassende Bewerber:innen an, sodass Recruiter:innen hunderte irrelevante Lebensläufe manuell sichten müssen – die Time-to-Hire verlängert sich. Starke Kandidat:innen springen ab, weil die Rolle unklar oder unattraktiv wirkt. Die Diversität leidet, wenn Anforderungen überhöht sind, die Sprache subtil ausschließend wirkt oder Flexibilität nicht kommuniziert wird. Langfristig steigen so die Recruitingkosten, Hiring Manager werden frustriert und Ihre Wettbewerbsposition im Talentmarkt wird geschwächt.

Gleichzeitig ist diese Herausforderung sehr gut lösbar. Mit dem richtigen Einsatz von KI im HR können Unternehmen Stellenbeschreibungen von einer hastig erstellten Nebensache in ein wiederholbares, datenbasiertes Asset verwandeln. Bei Reruption haben wir gesehen, wie strukturierte Inputs plus Tools wie Gemini konsistente, markenkonforme Ausschreibungen erzeugen, die die Rolle und die Unternehmenskultur tatsächlich widerspiegeln. Die folgenden Abschnitte zeigen, wie Sie das Thema strategisch und operativ angehen können – damit Ihr Team Stellenbeschreibungen in Wochen statt in Monaten deutlich verbessert.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Arbeit am Aufbau von KI-first-Recruiting-Workflows wissen wir, dass Tools wie Gemini für die Erstellung von Stellenbeschreibungen am effektivsten sind, wenn sie in bestehende HR-Prozesse eingebettet werden – und nicht nur als isoliertes Text-Tool eingesetzt werden. Unsere Engineering-Teams entwickeln KI-Lösungen, die sich direkt in ATS-Systeme, interne Rollenprofile und Skill-Frameworks einklinken. So erhalten HR-Verantwortliche sowohl bessere Inhalte als auch einen stärker kontrollierten, prüfbaren Prozess zur Erstellung von Stellenanzeigen.

In strukturierten Rollenprofilen denken, nicht nur im Jobtext

Der strategische Wechsel besteht darin, Stellenbeschreibungen als Output eines strukturierten Rollenprofils und Skill-Modells zu verstehen – nicht als einmalig von Grund auf geschriebene Texte. Bevor Gemini ins Spiel kommt, sollte HR gemeinsam mit den Fachbereichen zentrale Elemente formalisieren: Mission der Rolle, Must-have- vs. Nice-to-have-Skills, Berichtslinien, KPIs und typische Karrierepfade.

Steht diese Struktur, wird Gemini zur leistungsfähigen Orchestrierungsschicht: Das Tool kann Rollenprofile, Kompetenzmodelle und Marktbenchmarks zu zielgerichteten Ausschreibungen für unterschiedliche Kanäle (LinkedIn, Karriereseite, Jobbörsen) kombinieren – bei konsistenter zugrunde liegender Rollendefinition. Das reduziert Fehlabstimmungen zwischen HR und Hiring Managern und macht künftige Automatisierung deutlich robuster.

Leitplanken definieren: Markenstimme, Compliance und Bias-Kontrollen

Der strategische Einsatz von KI in der Talentgewinnung erfordert klare Leitplanken. HR, Kommunikation und Rechtsabteilung sollten sich auf Tonalität der Marke, DEI-Sprachprinzipien sowie Compliance-Anforderungen (z. B. Formulierungen für den Betriebsrat, Transparenz bei Vergütung, Antidiskriminierungsklauseln) einigen, die jede Stellenbeschreibung erfüllen muss.

Diese Leitplanken können anschließend in Gemini-Systemprompts, Vorlagen und Konfigurationen abgebildet werden. So wird sichergestellt, dass jede generierte Stellenbeschreibung markenkonform, inklusiv und compliant ist – standardmäßig. Das ist deutlich skalierbarer, als jede Anzeige im Nachgang manuell zu „reparieren“, und reduziert Risiken rund um voreingenommene oder irreführende Sprache beim breiten Rollout von KI im HR.

HR und Hiring Manager auf Human-in-the-Loop-Review vorbereiten

Gemini soll nicht das Urteilsvermögen von Recruiter:innen und Hiring Managern ersetzen – es soll die Zeit vom Briefing zum hochwertigen Entwurf drastisch verkürzen. Strategisch bedeutet das, einen Human-in-the-Loop-Review-Prozess zu gestalten statt eine vollständig automatisierte Pipeline. Recruiter:innen prüfen und verfeinern KI-Entwürfe, validieren Anforderungen und passen die Sprache an die Besonderheiten des Teams und des lokalen Marktes an.

Damit das funktioniert, braucht es klare Erwartungen: Die KI erzeugt die ersten 70–80 % der Stellenbeschreibung; Menschen konzentrieren sich auf die letzten 20–30 %, in denen Kontext und Nuancen entscheidend sind. Ein Schlüssel zum Erfolg ist das Training der Hiring Manager, strukturierten Input zu liefern (statt alte PDFs zu schicken) – ein Veränderungsaufwand, der meist geringer ist als befürchtet, sobald sie die Zeitersparnis erleben.

KPIs ausrichten: Von „Time to Post“ zu „Qualität der Pipeline“

Viele HR-Organisationen messen Effizienz daran, wie schnell eine Stelle veröffentlicht wird. Mit KI-generierten Stellenbeschreibungen verliert diese Kennzahl an Aussagekraft. Strategisch sollten Sie KPIs auf die Qualität der Bewerberpipeline ausrichten: Anteil der Kandidat:innen, die Must-have-Kriterien erfüllen, Verhältnis Interviews zu Angeboten, Diversität des Kandidatenpools und Zufriedenheitswerte der Bewerbenden.

Gemini kann dabei unterstützen, indem es Varianten von Stellenbeschreibungen für A/B-Tests generiert und Feedback aus ATS-Daten („Welche Version hat mehr qualifizierte Bewerber:innen gebracht?“) in zukünftige Prompts einfließen lässt. Reruption hilft Kund:innen typischerweise dabei, solche Feedbackschleifen aufzubauen, sodass Gemini sich im Zeitverlauf verbessert, statt nur statische Texte zu liefern.

Integration früh planen: ATS, Karriereseite und Freigabeprozesse

Aus architektonischer Sicht vervielfacht sich der Wert von Gemini, wenn es in Ihr ATS, die Karriereseite und Freigabeworkflows integriert ist. Statt Texte zwischen Tools hin- und herzukopieren, sollten Sie einen Flow anstreben, in dem Recruiter:innen die Stellenerstellung direkt im ATS anstoßen, Gemini auf Basis der gespeicherten Rollendaten einen Erstentwurf generiert und Freigaben im selben System erfolgen.

Wer diese Integration früh plant, vermeidet Schatten-IT und manuelle Workarounds. Außerdem stellt es sicher, dass HR die Kontrolle behält, wohin Daten fließen, wie Inhalte gespeichert werden und wer KI-Generierung auslösen darf. Der Engineering-Ansatz von Reruption fokussiert sich darauf, diese Integrationen sicher und so zu bauen, dass Ihre interne IT sie nach dem initialen Rollout selbst betreiben und weiterentwickeln kann.

Strategisch eingesetzt verwandelt Gemini Stellenbeschreibungen von inkonsistenten, manuellen Artefakten in ein skalierbares, datengetriebenes Asset für die Talentgewinnung. Der eigentliche Mehrwert entsteht, wenn HR strukturierte Rollendaten, klare Leitplanken, menschliche Reviews und eine enge ATS-Integration in einem konsistenten Workflow kombiniert. Reruption bringt die Kombination aus KI-Engineering, HR-Prozessverständnis und Co-Preneur-Mindset mit, die diesen Sprung praktisch statt theoretisch macht – wenn Sie prüfen möchten, wie Sie schlechte Stellenbeschreibungen mit Gemini beheben können, unterstützen wir Sie gerne bei der Definition und dem Testen eines konkreten Use Cases.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Energie bis Bankwesen: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Shell

Energie

Ungeplante Ausfälle von Anlagen in Raffinerien und auf offshore-Bohrinseln belasteten Shell stark und führten zu erheblichen Ausfallzeiten, Sicherheitsvorfällen und teuren Reparaturen, die die Rentabilität in einer kapitalintensiven Branche beeinträchtigten. Laut einem Deloitte-Report 2024 sind 35 % der Ausfallzeiten in Raffinerien ungeplant, wobei 70 % durch fortschrittliche Analytik vermeidbar wären – ein Hinweis auf die Grenzen traditioneller geplanter Wartungsansätze, die subtile Ausfallvorzeichen an Komponenten wie Pumpen, Ventilen und Kompressoren übersahen. Shells umfangreiche globale Aktivitäten verschärften diese Probleme und erzeugten Terabytes an Sensordaten von Tausenden Anlagen, die aufgrund von Datensilos, Altsystemen und manuellen Analysebeschränkungen unzureichend genutzt wurden. Ausfälle konnten Millionen pro Stunde kosten, Umweltschäden und Personensicherheit riskieren sowie die Margen in volatilen Energiemärkten unter Druck setzen.

Lösung

Shell ging eine Partnerschaft mit C3 AI ein, um eine KI-gestützte Plattform für vorausschauende Wartung zu implementieren, die Maschinenlernmodelle nutzt, welche auf Echtzeit-IoT-Sensordaten, Wartungshistorien und Betriebskennzahlen trainiert sind, um Ausfälle vorherzusagen und Eingriffe zu optimieren. Integriert mit Microsoft Azure Machine Learning erkennt die Lösung Anomalien, sagt die restliche Nutzungsdauer (RUL) voraus und priorisiert risikoreiche Anlagen in Upstream-Bohrinseln und Downstream-Raffinerien. Die skalierbare C3 AI-Plattform ermöglichte schnelle Rollouts, beginnend mit Pilotprojekten an kritischer Ausrüstung und späterer globaler Ausweitung. Sie automatisiert predictive analytics, verwandelt reaktive in proaktive Wartung und liefert aussagekräftige Erkenntnisse über intuitive Dashboards für Ingenieure.

Ergebnisse

  • 20 % Reduktion ungeplanter Ausfallzeiten
  • 15 % Senkung der Wartungskosten
  • £1M+ jährliche Einsparungen pro Standort
  • 10.000 überwachte Anlagen weltweit
  • 35 % branchenweiter Anteil ungeplanter Ausfallzeiten angesprochen (Deloitte-Benchmark)
  • 70 % vermeidbare Ausfälle gemindert
Fallstudie lesen →

Mass General Brigham

Gesundheitswesen

Mass General Brigham, als eines der landesweit führenden integrierten akademischen Gesundheitssysteme, steht vor enormen Mengen an medizinischen Bilddaten aus Radiologie und Pathologie, die schnellere und genauere Analysen erfordern, um Kliniker zu unterstützen. Der Zustrom von KI-Technologien in der medizinischen Bildgebung hat Herausforderungen wie Governance, Einbindung medizinischer Expertise und die Gewährleistung einer verantwortungsvollen Einführung mit sich gebracht, während Kliniker wegen manueller Arbeitsabläufe und Entscheidungsüberlastung unter Burnout leiden. Zusätzlich erfordern die operativen Anforderungen in einem großen Krankenhausnetz prädiktive Modelle für Ressourcenallokation, Patientenfluss und Früherkennung. Altsysteme haben Schwierigkeiten mit dem Umfang und der Komplexität von Echtzeitdaten, was Effizienz und Patientenergebnisse beeinträchtigt.

Lösung

Mass General Brigham richtete ein dediziertes Künstliche-Intelligenz-Zentrum ein, das akademische Forschung, Produktentwicklung und klinische Translation verbindet und KI für Bildgebung mittels Computervision sowie für den Betrieb mittels prädiktiver Analytik verwaltet. Sie entwickelten Governance-Initiativen in der Radiologie und bezogen Klinikpersonal ein, um Einführungsbarrieren zu adressieren. Wesentliche Partnerschaften umfassen Microsoft für Foundation-Modelle in der medizinischen Bildgebung und eine frühere Zusammenarbeit mit GE Healthcare an KI-Workflows, die mit 36.000+ Hirnbildern für MRT-Konsistenz trainiert wurden. Dieses Ökosystem unterstützt Hunderte von Modellen, gestützt auf rigorose Forschung und einem 30-Millionen-Dollar-Innovationsfonds.

Ergebnisse

  • 36.000+ Hirnbilder wurden für das KI-Training in MRT-Workflows verwendet
  • 300+ neue KI-bezogene Studien und klinische Studien initiiert
  • Dediziertes KI-Zentrum mit kompletten Services für die Translation von Modellen in die Praxis
  • Partnerschaften ermöglichen KI-Copiloten zur Bildanalyse
  • Führendes Governance-Framework für den Zustrom von Hunderten KI-Tools in der Radiologie
Fallstudie lesen →

Nubank

Fintech

Nubank, die größte digitale Bank Lateinamerikas, die 114 Millionen Kunden in Brasilien, Mexiko und Kolumbien betreut, stand unter enormem Druck, den Kundensupport angesichts des explosiven Wachstums zu skalieren. Traditionelle Systeme kamen mit dem hohen Volumen an Tier‑1‑Anfragen nicht zurecht, was zu längeren Wartezeiten und inkonsistenter Personalisierung führte, während die Betrugserkennung eine Echtzeitanalyse riesiger Transaktionsdaten von über 100 Millionen Nutzern erforderte. Die Balance zwischen gebührenfreien Services, personalisierten Erlebnissen und robuster Sicherheit war in einem wettbewerbsintensiven Fintech‑Umfeld, das von ausgefeilten Betrugsformen wie Spoofing und komplexen zentralen Betrugsfällen geprägt ist, entscheidend. Intern brauchten Callcenter und Support‑Teams Werkzeuge, um komplexe Anfragen effizient zu bearbeiten, ohne die Qualität zu opfern. Vor der KI führten lange Antwortzeiten zu Engpässen, und manuelle Betrugsprüfungen waren ressourcenintensiv, was Vertrauen der Kunden und regulatorische Compliance in den dynamischen Märkten Lateinamerikas gefährdete.

Lösung

Nubank integrierte OpenAI GPT-4‑Modelle in sein Ökosystem für einen generativen KI‑Chatassistenten, einen Copilot für Callcenter und eine fortschrittliche Betrugserkennung, die NLP und Computer Vision kombiniert. Der Chatassistent löst autonom Tier‑1‑Probleme, während der Copilot menschliche Agenten mit Echtzeit‑Insights unterstützt. Für die Betrugserkennung analysiert ein auf Foundation‑Modellen basierendes ML System Transaktionsmuster in großem Maßstab. Die Implementierung erfolgte in Phasen: Pilotierung von GPT‑4 für den Support Anfang 2024, Ausbau auf interne Tools bis Anfang 2025 und Erweiterung der Betrugssysteme mit multimodaler KI. Diese KI‑zentrische Strategie, verankert im maschinellen Lernen, ermöglichte nahtlose Personalisierung und deutliche Effizienzgewinne in den Abläufen.

Ergebnisse

  • 55 % der Tier‑1‑Supportanfragen werden autonom von KI bearbeitet
  • 70 % Reduktion der Chat‑Antwortzeiten
  • Mehr als 5.000 Mitarbeitende nutzen bis 2025 interne KI‑Tools
  • 114 Millionen Kunden profitieren von personalisiertem KI‑Service
  • Echtzeit‑Betrugserkennung für über 100 Mio. Transaktionsanalysen
  • Deutlicher Effizienzschub in den Callcentern
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

Revolut

Fintech

Revolut sah sich einem zunehmenden Authorized Push Payment (APP)-Betrug gegenüber, bei dem Betrüger Kunden psychologisch manipulieren, damit diese Überweisungen an betrügerische Konten autorisieren – oft unter dem Vorwand von Anlageangeboten. Traditionelle regelbasierte Systeme kamen gegen ausgefeilte Social-Engineering-Taktiken kaum an, was trotz Revoluts schnellem Wachstum auf über 35 Millionen Kunden weltweit zu erheblichen finanziellen Verlusten führte. Der Anstieg digitaler Zahlungen verstärkte Verwundbarkeiten, da Betrüger Echtzeit-Überweisungen ausnutzten, die herkömmliche Kontrollen umgingen. APP-Betrügereien entzogen sich der Erkennung, indem sie legitimes Verhalten nachahmten, was weltweit zu jährlichen Milliardenverlusten führte und das Vertrauen in Fintech-Plattformen wie Revolut untergrub. Es bestand dringender Bedarf an intelligenter, adaptiver Anomalieerkennung, die eingreift, bevor Gelder freigegeben werden.

Lösung

Revolut führte eine KI-gestützte Betrugsabwehrfunktion ein, die maschinelles Lernen zur Anomalieerkennung verwendet, um Transaktionen und Nutzerverhalten in Echtzeit zu überwachen. Das System analysiert Muster, die auf Betrug hindeuten – etwa ungewöhnliche Zahlungsaufforderungen im Zusammenhang mit Anlageködern – und greift ein, indem es Nutzer warnt oder verdächtige Aktionen blockiert. Durch den Einsatz von überwachten und unüberwachten ML-Algorithmen erkennt es Abweichungen vom normalen Verhalten in risikoreichen Momenten und "bricht den Zauber" der Betrüger, bevor eine Autorisierung erfolgt. In die App integriert, verarbeitet es große Mengen an Transaktionsdaten für proaktive Betrugsprävention, ohne legitime Zahlungsflüsse zu stören.

Ergebnisse

  • 30% Reduktion der Betrugsverluste bei APP-bezogenen Kartenbetrugsfällen
  • Gezielte Bekämpfung von Anlagebetrugsversuchen
  • Echtzeit-Interventionen während der Testphase
  • Schützt 35 Millionen globale Kunden
  • Eingesetzt seit Februar 2024
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Standardisieren Sie Ihre Rollen-Inputs, bevor Sie etwas generieren

Bevor Sie Gemini einschalten, erstellen Sie ein einfaches, standardisiertes Intake-Formular für jede Rolle. Mindestens sollten Sie erfassen: Rollenmission (3–4 Sätze), die 5 wichtigsten Aufgaben, 5–7 Must-have-Skills, 3–5 Nice-to-have-Skills, Berichtslinie, Teamstruktur, Arbeitsmodell (Remote/Hybrid/On-Site), Standort sowie Vergütungsspanne oder -band.

Speisen Sie diese Struktur direkt in Gemini ein, statt unstrukturierte E-Mail-Threads zu verwenden. Das kann über ein leichtgewichtiges internes Formular oder eine ATS-Integration geschehen, die diese Daten bei den Hiring Managern einsammelt. Je strukturierter der Input, desto genauer und wiederverwendbarer werden die KI-generierten Stellenbeschreibungen über Sprachen und Kanäle hinweg sein.

Beispielprompt an Gemini (System + User kombiniert zur Veranschaulichung):

Sie sind eine HR-Content-Spezialist:in. Schreiben Sie eine klare, inklusive Stellenbeschreibung.
Befolgen Sie diese Regeln:
- Nutzen Sie unsere Employer-Branding-Tonalität: optimistisch, direkt, frei von Jargon
- Trennen Sie klar Rollenmission, Aufgaben, Anforderungen und Benefits
- Halten Sie Anforderungen realistisch und vermeiden Sie überzogene Wunschlisten
- Verwenden Sie genderneutrale und inklusive Sprache

Informationen zur Rolle:
- Titel: Senior Data Analyst
- Mission: <Rollenmission aus Formular einfügen>
- Wichtigste Aufgaben: <Stichpunkte einfügen>
- Must-have-Skills: <Stichpunkte einfügen>
- Nice-to-have-Skills: <Stichpunkte einfügen>
- Berichtslinie: Head of Analytics
- Arbeitsmodell: Hybrid, 3 Tage vor Ort in Berlin
- Gehaltsband: 75.000–90.000 € je nach Erfahrung

Generieren Sie:
1) Kurze Stellenanzeige für LinkedIn (max. 1.000 Zeichen)
2) Vollständige Stellenbeschreibung für unsere Karriereseite
3) 3 Titelvarianten, optimiert für die Suche.

Dieser Ansatz verwandelt verstreute Rollennotizen in eine wiederholbare Pipeline, mit der Gemini zuverlässig arbeiten kann.

Wiederverwendbare Prompt-Vorlagen für verschiedene Jobfamilien erstellen

Gemini liefert die besten Ergebnisse, wenn Sie dedizierte Prompt-Vorlagen für unterschiedliche Jobfamilien entwickeln: Tech, Sales, Operations, Corporate Functions usw. Jede Familie hat typische Strukturen, Jargon, den es zu vermeiden gilt, und relevante Kanäle. Kodieren Sie diese Spezifika in maßgeschneiderte Prompts anstatt eine generische Vorlage für alle Rollen zu nutzen.

So benötigen technische Rollen zum Beispiel mehr Details zum Tech-Stack und Problemkontext, während kundennahe Rollen eine stärkere Betonung von Kommunikation und Impact verlangen. Speichern Sie diese Vorlagen zentral (z. B. im ATS, im internen Wiki oder in einem kleinen internen Tool), damit Recruiter:innen den passenden Gemini-Prompt mit minimalem manuellen Aufwand auslösen können.

Beispiel-Gemini-Promptvorlage für Engineering-Rollen:

Sie erstellen eine Stellenbeschreibung für eine Software-Engineering-Rolle.

Richtlinien:
- Sprechen Sie Kandidat:innen mit fundierter Engineering-Erfahrung direkt an
- Betonen Sie Impact, Autonomie und technische Herausforderungen
- Listen Sie den Tech-Stack übersichtlich in einem eigenen Abschnitt auf
- Vermeiden Sie generische Phrasen wie „dynamisches, schnelllebiges Umfeld“

Einzufügen sind:
- Rollenmission:
- Produktkontext:
- Tech-Stack:
- Team-Setup:
- Entwicklungs- und Lernmöglichkeiten:

Output:
- SEO-optimierter Jobtitel
- Rollenpitch in 3 Sätzen
- Aufgaben (5–7 Stichpunkte)
- Anforderungen, getrennt in Must-have und Nice-to-have
- Benefits-Abschnitt, abgestimmt auf unsere EVP.

Mit der Zeit verfeinern Sie diese Vorlagen anhand der Frage, welche Ausschreibungen die besten Kandidatenpipelines erzeugen.

Mehrsprachige Stellenbeschreibungen mit eingebauten Konsistenzchecks automatisieren

Für Organisationen, die in mehreren Märkten rekrutieren, sind mehrsprachige Stellenbeschreibungen ein weiteres Feld, in dem Gemini viel Zeit sparen kann. Implementieren Sie einen Workflow, in dem die „Single Source of Truth“ eine einmal gründlich geprüfte Basisbeschreibung ist (oft auf Englisch oder in der Hauptunternehmenssprache), und Gemini daraus lokalisierte Versionen in anderen Sprachen erstellt.

Nutzen Sie Prompts, in denen Sie Gemini anweisen, die Rollenanforderungen identisch zu halten und nur die Formulierungen an die Erwartungen des lokalen Marktes anzupassen. Fügen Sie dann einen zweiten Gemini-Check hinzu: Lassen Sie zwei Sprachversionen vergleichen und Abweichungen bei Anforderungen, Benefits oder Senioritätslevel hervorheben. So verringern Sie das Risiko, dass in verschiedenen Märkten subtil unterschiedliche Rollen beworben werden.

Beispielkonfiguration:
1) Recruiter:in gibt die Master-Stellenbeschreibung auf Englisch frei.
2) HR löst Gemini mit folgendem Prompt aus:
„Übersetze und lokalisiere diese Stellenbeschreibung ins Deutsche und Französische.
Halte Anforderungen und Senioritätsniveau identisch. Passe die Benefits-Formulierungen an lokale Gepflogenheiten an.“
3) Führen Sie einen Vergleichsprompt aus:
„Vergleiche die englische und die deutsche Version. Liste alle Unterschiede in:
- Anforderungen
- Seniorität
- Vergütung
- Arbeitsmodell“
4) HR prüft die markierten Unterschiede vor der Veröffentlichung.

Diese Abfolge stellt Geschwindigkeit sicher, ohne die Kontrolle über die Rollenkonsistenz in verschiedenen Ländern zu verlieren.

Gemini direkt in Ihr ATS oder das Backend der Karriereseite integrieren

Um Copy-Paste-Chaos zu vermeiden, integrieren Sie Gemini per API in Ihr ATS oder das Backend Ihrer Karriereseite. In einer typischen Implementierung klicken Recruiter:innen im ATS auf „Stellenbeschreibung erstellen“. Dadurch wird Gemini mit den im System bereits gespeicherten Rollendaten ausgelöst. Der generierte Entwurf wird direkt im Requisitionsdatensatz zur Prüfung und Bearbeitung gespeichert.

Arbeiten Sie mit IT und Anbietern zusammen, um zu definieren, wo Daten gespeichert werden, welche Felder an Gemini gesendet werden und wie KI-Nutzung zu Compliance-Zwecken protokolliert wird. Reruption unterstützt Kund:innen häufig beim Aufbau eines einfachen Zwischendienstes, der Gemini-Prompts, Versionierung und Audits handhabt, ohne dass sich die Organisation an einen bestimmten ATS-Anbieter oder ein spezifisches UI bindet.

Beispiel für eine technische Abfolge:
1) Recruiter:in legt im ATS eine neue Requisition an und füllt die Rollenfelder aus.
2) Recruiter:in klickt auf „JD generieren“.
3) Das ATS sendet ein JSON-Payload mit Rollendaten an einen internen Service.
4) Der Service ruft Gemini mit folgenden Bestandteilen auf:
   - Systemprompt (Brand-, DEI-Regeln, Struktur)
   - Rollendaten (Titel, Mission, Skills usw.)
5) Gemini liefert den Entwurf zurück. Der Service speichert ihn mit Version = 1.
6) Das ATS zeigt den Entwurf zur Bearbeitung und Freigabe an.
7) Die final freigegebene Version wird als „Veröffentlicht“ markiert und an die Karriereseite ausgespielt.

So bleibt die User Experience einfach, während die KI-Integration wartbar und prüfbar bleibt.

Bias- und Komplexitätschecks in den Workflow einbetten

Auch mit guten Prompts können Stellenbeschreibungen unbeabsichtigt lang, komplex oder subtil exklusiv werden. Nutzen Sie Gemini als Reviewer in einem zweiten Durchlauf: Sobald ein:e Recruiter:in einen Entwurf finalisiert hat, lösen Sie einen weiteren Prompt aus, der den Text auf inklusive Sprache, Lesbarkeit und unnötige Anforderungen prüft.

Bitten Sie Gemini darum, potenzielle Probleme zu markieren, anstatt Inhalte stillschweigend zu ändern. So behält HR Transparenz und Steuerung, profitiert aber trotzdem von KI-Unterstützung. Im Zeitverlauf können Sie wiederkehrende Themen (z. B. häufige gendercodierte Begriffe oder überzogene Abschlussanforderungen) erfassen und in Ihre Basis-Prompts einfließen lassen.

Beispiel-Review-Prompt:

Sie sind Expert:in für inklusives Recruiting.
Prüfen Sie die folgende Stellenbeschreibung und liefern Sie:
1) Einen Lesbarkeits-Score und Vorschläge zur sprachlichen Vereinfachung
2) Alle Formulierungen, die diverse Kandidat:innen entmutigen könnten (z. B. gendercodierte Begriffe)
3) Alle Anforderungen, die unnötig wirken oder als „Nice-to-have“ umformuliert werden könnten
4) Eine überarbeitete Version, die Ihre Empfehlungen umsetzt, dabei aber
   Kernaufgaben und Kernanforderungen unverändert lässt.

Text:
<finalen Entwurf einfügen>

Erwartetes Ergebnis: klarere, inklusivere Stellenbeschreibungen, die den Talentpool erweitern, ohne an Relevanz zu verlieren.

Impact mit klaren Vorher/Nachher-Metriken messen

Um den ROI nachzuweisen, sollten Sie vor dem Rollout von Gemini konkrete Metriken definieren. Verfolgen Sie Kennzahlen wie: Zeit von der Anlegung einer Requisition bis zur veröffentlichten Stelle, Prozentsatz der Bewerber:innen, die Must-have-Kriterien erfüllen, Anzahl gesichteter CVs pro Einstellung, Verhältnis Interviews zu Angeboten und Diversität des Bewerbendenpools (sofern rechtlich und ethisch möglich).

Vergleichen Sie einen Basiszeitraum von 3–6 Monaten mit den ersten Monaten nach Einführung von Gemini-generierten Stellenbeschreibungen. In vielen Umgebungen können HR-Teams realistisch erwarten: 30–50 % kürzere Zeit bis zur Veröffentlichung, 15–30 % höheren Anteil relevanter Bewerber:innen und eine spürbare Reduktion von Schleifen mit Hiring Managern. Solche konkreten Verbesserungen erleichtern es, weitere Investitionen in KI im HR zu rechtfertigen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini hilft HR-Teams, von ad-hoc kopierten Stellenanzeigen zu strukturierten, konsistenten Stellenbeschreibungen zu wechseln. Das Tool nimmt standardisierte Rolleninputs (Mission, Aufgaben, Skills, Standort, Arbeitsmodell) auf und generiert klare, markenkonforme Ausschreibungen für unterschiedliche Kanäle und Sprachen.

Über die reine Textgenerierung hinaus kann Gemini Ihre Employer-Branding-Guidelines durchsetzen, Prinzipien inklusiver Sprache anwenden sowie Must-have- und Nice-to-have-Anforderungen klar trennen. Integriert in Ihr ATS erleichtert es zudem, gut performende Vorlagen wiederzuverwenden und anzupassen, statt jede Anzeige neu zu erfinden.

Auf HR-Seite brauchen Sie vor allem einen klaren Überblick über Ihre Rollenprofile, Employer-Branding-Guidelines und DEI-Sprachprinzipien. Ihr Team sollte bereit sein, strukturierte Inputs zu Rollen zu liefern und KI-generierte Entwürfe zu prüfen – anstatt alles manuell zu schreiben.

Auf technischer Seite benötigen Sie grundlegende Integrationskompetenz: jemanden, der mit APIs arbeiten oder mit Ihrem ATS-Anbieter die Anbindung von Gemini an Ihre Recruiting-Systeme umsetzen kann. Reruption unterstützt Kund:innen typischerweise bei diesem Teil: wir richten Prompts ein, bauen einen leichtgewichtigen Integrationsservice und gestalten den Human-in-the-Loop-Workflow so, dass Ihr bestehendes HR-Team die Lösung betreiben kann, ohne selbst zu KI-Engineer:innen zu werden.

Für das spezifische Problem schlechter Stellenbeschreibungen sehen die meisten Organisationen innerhalb weniger Wochen spürbare Verbesserungen. Ein fokussierter Pilot mit 10–20 Rollen reicht häufig aus, um die Zeit vom Briefing bis zur Veröffentlichung um 30–50 % zu reduzieren und die Relevanz der Kandidat:innen in der Pipeline zu erhöhen.

Tiefere Effekte wie bessere Interview-zu-Angebot-Ratios oder diversere Bewerbendenpools werden typischerweise über 2–3 Einstellungzyklen hinweg sichtbar. Entscheidend ist, vor der Einführung Basiswerte zu erheben und diese anschließend mit den Daten nach der Implementierung zu vergleichen – idealerweise mit A/B-Tests zwischen KI-generierten und traditionell erstellten Stellenbeschreibungen.

Gemini selbst folgt einem nutzungsbasierten Preismodell, sodass die direkten Toolkosten pro generierter Stellenbeschreibung typischerweise sehr niedrig im Vergleich zur eingesetzten Recruiterzeit sind. Die Hauptinvestition liegt in Setup und Integration: der Ausgestaltung von Prompts, der Standardisierung von Rolleninputs und der Anbindung von Gemini an Ihr ATS oder Ihre HR-Tools.

Beim ROI sehen Organisationen häufig Mehrwert in drei Bereichen: weniger Zeitaufwand für das Verfassen und Überarbeiten von Stellenbeschreibungen, höhere Qualität der Kandidat:innen (weniger irrelevante CVs zum Sichten) und eine verbesserte Candidate Experience durch klarere, ehrlichere Ausschreibungen. Wenn Sie eingesparte Recruiterstunden und den Effekt schnellerer, besserer Einstellungen quantifizieren, liegt die Amortisationszeit für eine gut gestaltete Gemini-Implementierung meist in Monaten, nicht in Jahren.

Reruption unterstützt Sie End-to-End. Mit unserem KI-PoC-Angebot (9.900 €) beginnen wir damit, einen konkreten Use Case rund um die Erstellung von Stellenbeschreibungen zu definieren: Inputs, Outputs, Rahmenbedingungen und Erfolgsmetriken. Anschließend bauen wir einen funktionierenden Prototypen auf Basis von Gemini, angebunden an Ihre realen Rollendaten und Recruiting-Workflows, und bewerten die Performance in Bezug auf Geschwindigkeit, Qualität und Kosten.

Über den PoC hinaus bedeutet unser Co-Preneur-Ansatz, dass wir eng mit Ihren HR- und IT-Teams zusammenarbeiten, um den Prototyp in eine produktionsreife Lösung zu überführen: Prompts gestalten, Leitplanken einrichten, die Integration in Ihr ATS oder Ihre Karriereseite umsetzen sowie Recruiter:innen und Hiring Manager schulen. Wir übernehmen unternehmerische Verantwortung für Ergebnisse, sodass am Ende nicht nur ein Foliensatz steht, sondern ein live geschalteter KI-Workflow, der Ihre Talentgewinnung tatsächlich verbessert.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media