Argumentation Drift Monitor
🟢 Topic consistency • 🟡 Idea emergence • 🔴 Verifiability • 🔵 Understandability
https://doi.org/10.5281/zenodo.19793185
frAIme macht Unsicherheit sichtbar – es schafft den Rahmen für verlässliche KI-Nutzung. frAIme ist Governance by Design, nicht Ethik per Deklaration.
Für Klassenzimmer: vier Fragen, Ampel, fertig. Für Forschung: messbare Divergenz (Δdiv), auditierbar.
Version: V1.0.0 (2026-04-26) – Stable Release
Die Vier-Fragen-Methode Prüfe jede LLM-Antwort:
- On topic? 🟢 / 🔴
- Neue Idee? 🟢 / 🟡 / 🔴
- Verifizierbar? (Zahl, Datum, Ort, wenn-dann) 🟢 / 🔴
- Verständlich? 👍 / 👎
Gute Antwort = 🟢 + 👍
Kein Account. Keine API. Funktioniert auf Papier.
- Rebranding: früher DNS – jetzt frAIme (Epistemic Governance Framework)
- Getestet mit Copilot Crash: Δdiv = 0,742 deckte erfundene „West vs. China“-Narrative auf
- Live Δdiv-Tracking: Frontend berechnet Δtotal während des Gesprächs
- Reichweite: 3.270 Clones / 1.126 Unique Cloner in 14 Tagen
Ersetzt den EU-AI-Act-Teil – realer Einsatz in Bildung
- 6 Modelle, gleiche Frage: „Ist KI-Lernen effizienter?“
- Vier Fragen: alle 🟢 bei „On topic“, alle 👍 bei „Verständlich“ – scheinbarer Konsens
- Δdiv-Matrix: 0,584–0,759 – hohe Divergenz trotz Einigkeit
- Triangulation:
- Harvard RCT 2025 (n=194): Median 4,5 vs 3,5, Zeit 49 vs 60 Min – BESTÄTIGT
- Türkei UPenn 2024 (n=1.000): +48 % Übungen / −17 % Test – BESTÄTIGT
- Kulik & Fletcher 2016: +0,66 SD – BESTÄTIGT
- Erkenntnis: Hohe Δdiv zeigte nicht „falsch“, sondern „quellenarm“. Nur Meta-Cluster lieferte Primärdaten.
frAIme-Lektion: Plausibilität ≠ Evidenz. Δdiv lokalisiert Prüfbedarf.
Δdiv = 0.5·(1−Jaccard) + 0.5·(1−Cosine)
Grenzwerte:
- <0,3 = Konvergenz
- 0,3–0,5 = Drift
- 0,5–0,7 = hohes Risiko
-
0,7 = contested
Zwei Ebenen: Frontend (Vier Fragen) + Backend (Safety Layer, Hash-Anker, Multi-Agent-Log)
