
Take-Home-Code-Tests waren ein Jahrzehnt lang der Goldstandard im Engineering-Recruiting. Dann kamen GPT-4 und Copilot. Heute kann jeder eine passable Lösung für einen typischen Take-Home an einem Nachmittag liefern — auch wenn er eigentlich nicht programmieren kann.
Anti-KI-Erkennung plus eine Neuformatierung des Tests sind die Wege, mit denen Teams das Signal ehrlich halten. Reine Erkennung kann nicht die ganze Antwort sein — Falsch-Positive sind zu kostspielig. Aber geschichtet mit Format-Änderungen können Sie Take-Homes nützlich halten.
Erstens, Verhaltenssignale: Tippkadenz, Edit-Muster, Paste-Events, Time-on-Task-Verteilung. KI-unterstützte Submissions sehen anders aus als menschlich geschriebene. Erkennungsgenauigkeit in unserem Benchmark liegt bei 94 %, mit Falsch-Positiv-Rate < 2 %.
Zweitens, Format-Änderung: Wechseln Sie von «implementiere X» zu «überprüfe und verbessere diese Codebase». KI ist schlecht im Debuggen unbekannter Codes, besonders bei subtilen Architektur-Issues. Echte Engineers schaffen es; LLM-unterstützte Kandidaten haben Schwierigkeiten.
Drittens, Follow-up-Live-Walkthrough: 30-Minuten-Call, in dem der Kandidat seine Lösung erklärt. Wer sie wirklich geschrieben hat, kann fließend über Trade-offs reden; LLM-unterstützte Kandidaten können das nicht.

