Notizen über Recherche, Daten, KI und Geschichte

Meine Bilanz nach 100 Tagen LinkedIn: viel Nachfrage nach KI-Themen im Hochschulbereich, aber es fehlt an der praktischen Umsetzung und am Geld.

In den letzten 100 Tagen habe ich mich intensiv mit einem sehr konkreten Feld beschäftigt: KI-Kompetenz an Hochschulen. Vor allem Themen wie Literatur- und Datenrecherche mit KI, Visualisierungen mit KI für Studium und Lehre sowie der Einsatz von KI-Detektoren haben mich intensiv beschäftigt.

Ich habe sehr viel dazu gelesen, Tools getestet und in Webinaren praktische Erfahrungen gesammelt. Auf Basis meines gesammelten Wissens habe ich Dutzende Beiträge publiziert und viel kommentiert.

Die Resonanz hier auf LinkedIn war gut (siehe Bild). Über 100.000 Impressionen und viel Zuspruch für meine Beiträge.

Das Interesse nach fundierter KI-Bildung an Hochschulen ist da. Was fehlt, ist Geld, Marktbewusstsein und Strukturen, die Dinge praxisnah zu ändern.

Es gab in den letzten 100 Tagen fünf Anfragen aus Hochschulen.
Alle wollten Recherche-Workshops. Für Studierende, Lehrende, Forschungsgruppen. Es war bunt gemischt. Nur eines war gleich:
Niemand wollte dafür zahlen.
Die zwei besten Angebote waren:
- die Aussicht auf einen bezahlten Tages-Workshop nach einem kostenlosen Vortrag über KI-gestützte Recherche
- ein Angebot, an einer Hochschule einen zweistündigen Recherche-Workshop für Studierende zu machen, inkl. fachspezifischer Vorbereitung und 3 Stunden Fahrt mit der Bahn (Ticket selbst zahlen) für 250 Euro.

Es gab und gibt noch krassere Angebote, aber dazu vielleicht später mal mehr. 
Zunächst mal will ich eines festhalten: Das Interesse nach fundierter KI-Bildung an Hochschulen ist da. Was fehlt, ist:
- a.) Geld
- b.) das Bewusstsein, was angemessene Preis sind (und ich rede hier nicht von den Preisen, die in der freien Wirtschaft für KI-Schulungen gezahlt werden) 
- c.) Strukturen, die externe Expertise angemessen einzubinden wissen.

Gleichzeitig sehe ich - und alle Daten zeigen das ja auch - dass Studierende KI intensiv nutzen. Aber meist auf einem sehr begrenzten Niveau, wenig fundiert und mit starkem Fokus auf ChatGPT.
Bei Lehrenden sieht es ähnlich aus. Wissenschaftsspezifische KI-Tools werden so gut wie gar nicht eingesetzt. Die KI-Bildung ist weithin erbärmlich.

Wenn man hier auf LinkedIn unterwegs ist, wirkt das oft anders. Aber man muss sich klar machen: das hier ist eine Blase. Es gibt eine kleine Gruppe, die sich an Hochschulen intensiv mit KI beschäftigt. Aber die Masse ist planlos. Und: Die Lücken werden immer größer.

Das sind keine Fehler von Einzelnen als vielmehr Strukturmängel: fehlende Budgets, fehlendes Problembewusstsein, langsame Entscheidungsprozesse und eine Kultur, die externe Expertise nicht schätzt - und falls doch, nicht dafür zahlen will. Und nein, das hier ist kein Ich-brauche-Aufträge-Gejammer, sondern die Beschreibung einer Situation, in der gewiss nicht nur ich stecke.

Mein Fazit nach 100 Tagen ist deshalb klar: Der Bedarf an fundierter KI-Kompetenz im Hochschulbereich ist real und akut. Aber das Problem wird nicht gelöst, weil die Rahmenbedindungen nicht passen.

 

 

30. März 2026

KI-Assistenten in Fachdatenbanken. Das Beispiel Scopus AI: was diese KI kann - und was sie nicht kann.

Scopus ist eine der größten wissenschaftlichen Fachdatenbanken weltweit. Genauer gesagt ist es eine bibliografische Datenbank, d.h. Scopus hostet in der Regel keine Volltexte, hat aber Verknüpfungen zu Volltexten.


Als primär bibliografische Datenbank sammelt Scopus zu jedem Dokument über 150 Datenpunkte (Metadaten). Das macht die Dokumente auch ohne Volltext sehr gut durchsuchbar.


Scopus enhält über 100 Millionen Dokumente. Dazu kommen ca. 2,5 Milliarden Zitationen und rund 28.000 Peer-Review-Journale. Seit 2024 hat Scopus einen KI-Assistent integriert.

 

Was ScopusAI kann und was nicht, erfahrt ihr in dieser kleinen Dokumentation von mir.

Sie basiert auf eigenen Praxistests sowie eine Reihe weiterer Forschungen und Studien.

Ihr könnt sie gern weiterverbreiten und für eure eigenen Zwecke nutzen. Ich freue mich über Feeddback.

 

 

27. März 2026

Visualisierungen mit Hilfe von KI für den Einsatz in Wissenschaft & Hochschule. Es gibt viel zu entdecken!

Ich bin gerade dabei, einen neuen Workshop für Hochschulen vorzubereiten. Darin erkläre ich verschiedene technische Möglichkeiten, wie mit Hilfe von KI Visualisierungen aller Art erstellt werden können: von fachspezifischen Abbildungen über Mindmaps bin hin zu allen Arten von Diagrammen und Statistiken.

Ich will zeigen, wie man mit KI aus Texten, Daten, Webseiten, (einfachem) Code usw. ganz leicht Visualisierungen erstellen und weiterbearbeiten kann.

Auch die unterschiedlichen "grafischen Einsatzfelder" innerhalb einer Hochschule spielen dabei eine Rolle. Im Workshop will ich deshalb nicht nur wissenschaftliche Abbildungen für Poster und Publikationen behandeln, sondern auch Beispiele und Tools für Lehr- und Erklärgrafiken sowie Visualisierungen für den Kommunikations- und Marketingbereich präsentieren.

Die verschiedenen Darstellungsformen haben jeweils unterschiedliche Funktionen, Zielgruppen, Anforderungen und Komplexitätsgrade, was es für mich besonders interessant macht.

Bei meinem Vorbereitungen bin ich - nicht zum ersten Mal - tief in die Geschichte der Infografik eingetaucht. Erstens: weil diese Geschichte extrem spannend ist. Und zweitens: weil ich der Ansicht bin, dass man bei allem KI-Bezug und den damit verbundenen Gegenwarts-Fantasien und Zukunfts-Träumereien aufpassen muss, dass man die Vergangenheit nicht aus den Augen verliert, denn da liegt unglaublich viel wunderbares Material, das die Sinne schärft und die Gedanken anregt.

Dabei ist mir auch die vielleicht beste Infografik aller Zeiten in die digitalen Hände gefallen: Charles Minards "Carte figurative des pertes successives en hommes de l'Armée Française dans la campagne de Russie 1812-1813" aus dem Jahre 1869.

Minards Diagramm visualisiert Napoleons Russlandfeldzug (1812-1813). Es zeigt, wie die Grande Armée von 422.000 Mann beim Einmarsch (hellbraunes Band) durch Hunger, Kälte, Krankheiten und Kämpfe auf nur etwa 10.000 Überlebende beim Rückzug (schwarzes Band) schrumpft.

Die Karte hat sechs Informationsebenen:
- die Breite des Bandes
- die Zahlen entlang des Bandes
- die Farbe des Bandes
- die geografische Position
- die Verzweigungen des Heeres und
- die Temperatur.

Minards Karte ist eines eindrucksvolles Beispiel für die Macht grafischer Darstellungen. Minard selbst beschrieb sein Schaffen so:
„Das oberste Prinzip, das meine grafischen Tabellen und figurativen Karten kennzeichnet, besteht darin, die Ergebnisse von Kalkulationen möglichst direkt sichtbar zu machen. Meine Karten rechnen mit dem Auge.“

Welche Infografiken haben euch beeindruckt? Und wer weiß, warum die Balken- und Kreisdiagramme, die Ende des 18. Jahrhunderts vom Schotten William Playfair erfunden wurden, lange Zeit abgelehnt wurden?

PS: Falls es niemand weiß, mach ich einen kleinen Beitrag draus :)

Quelle der Abbildung von Minards Karte: Wikipedia

 

 

23. März 2026

 

Nationalbibliothek erweitern oder nicht? - das ist die Frage. Ich habe mir die Entwicklung auf Basis von Zahlen angeschaut und mir Gedanken dazu gemacht.

Anmerkung Vorweg Nr. 1:

Ich bin aus Leipzig. Ich mag Bibliotheken sehr. Ich habe die DNB jahrelang fast täglich besucht.

Anmerkung Vorweg Nr. 2:

Der Erweiterungsbau betrifft Leipzig, aber die folgenden Daten beziehen sich auf Leipzig & Frankfurt zusammen. Erstens: Weil es wenig (öffentliche) Daten für die einzelnen Standorte gibt. Und zweitens: Weil die Entwicklung systemisch ist.

 

Problem 1: Die DNB besteht aus riesigen Häusern für Medien, die kaum genutzt werden. 53 Mio. Medien, 273.000 Nutzungen/Jahr, wobei ein Medium, das 10 Mal genutzt wird auch 10 Mal zählt. Selbst im Idealfall werden also nur 0,5% des Bestandes genutzt. Die anderen 99,5 % stehen rum. Früher waren es bei gleicher Rechenlogik 4%.

 

Problem 2: Die Bibliothek wächst, Zahl der Nutzer schrumpft. Seit 1990: Bestand +360 %, aber Nutzer -40 %. Zwar hat sich die Zählweise geändert, aber der Trend ist robust. Es gibt immer größere Häuser für immer weniger Gäste.

Problem 3: KI. Der Anteil KI-generierter Publikationen steigt. Früher waren Druckwerke aufwendig. Verlage haben gefiltert. Heute entstehen Inhalte binnen Sekunden. Der Markt wird täglich mit tausenden komplett KI-generierten Büchern geflutet. Und alles wird gesammelt. Ein System, das in Zeiten von Knappheit und Kuratierung gebaut wurde, findet sich in einer Zeit des Überflusses wieder.

Problem 4: Der geplante Neubau soll Archiv und Datencenter sein. Digital klingt gut. Aber die Datenmenge explodiert. Das Problem ist nicht der Zugang, sondern das Überangebot bei sinkender Nutzung. Ein neues Datenzentrum speichert im Grunde nur mehr Ungenutztes. Früher wurden Medien zwar auch selten genutzt, aber sie waren potenziell wertvoll. Ob die mit KI generierte Inhalte wertvoll sind, darf bezweifelt werden. Zudem: Wenn KI-Inhalte massenhaft archiviert werden erhöhen sich Redundanzen. Das Archiv beginnt, diese Inhalte zu stabilisieren, nicht nur zu speichern. Ein Neubau verstärkt das Problem. Mehr (digitaler) Platz = mehr KI-Slop = mehr Rauschen im Nicht-mehr-Blätter-Wald.

Problem 5: Der Bestand verliert seine Bedeutung. Früher konnte man sagen:
„Was hier steht, hat es eine gewisse Relevanz.“ Heute muss es heißen: „Was hier steht, wurde irgendwo veröffentlicht.“ Menge hat Bedeutung ersetzt. Normalerweise bedeutet mehr Nachfrage mehr Angebot. Hier sinkt die Nachfrage trotz größerem Angebot. Auch weil die Nachfrage in diesem System keine Rolle spielt. Es geht nur ums Sammeln.

Das würde sich auch mit einem anderen Minister nicht ändern.


Nebenbei bemerkt: Weimer ähnelt dem geplanten Neubau mehr als man denkt. Denn Weimers angebliches Medien"imperium" besteht - das haben Recherchen gezeigt - aus Luftschlössern & aufgebauschten Zahlen ohne Substanz. Aber das nur am Rande. Um Politik gehts mir hier nicht. Nur um ein paar Zahlen, Gedanken. Und die Frage:
Müssen wir wirklich alles sammeln? Lebt Kultur nicht auch vom Verlust?

 

 

21. März 2026

Müssen wir wirklich alles sammeln? Lebt Kultur nicht auch vom Verlust?

Wissenschaftlich arbeiten mit einem KI-Agenten: Themen finden, Forschungslücken identifizieren, Literatur suchen, Ergebnisse zusammenfassen.

Die Aufzeichnung meines SciSpace Webinars zum Thema: "Eine Schritt-für-Schritt-Anleitung, wie man Literatur mit einem KI-Agenten recherchiert und auswertet" ist ab sofort hier auf dem SciSpace-Youtube-Kanal zu finden:


Es ging um die Themen:

1. Entwicklung einer Forschungsfrage mit dem KI-Agenten und tiefe Analyse eines Themenfeldes, u.a. zu diesen Punkten:
- Identifikation zentraler Thesen und Schwerpunkte
- disziplinäre und interdisziplinäre Zusammenhänge erkennen
- Forschungslücken finden
- grundlegende Daten und Methoden erklärt bekommen

2. Systematische Suche in mehreren Datenbanken mit dem KI-Agenten
- gleichzeitige Recherche in verschiedenen wissenschaftlichen Datenbanken (Google Scholar, Pub Med, ArXiv u.a.) durch den KI-Agenten
- Kombination und Ranking der Ergebnisse

3. Analyse und Strukturierung der Ergebnisse
- auf einen Blick die Methoden, Limitationen und u.a. Punkte verschiedener Studien identifizieren
- Chat mit PDFs und automatische Erklärung von Formel, Statistiken und Abbildungen
- Filtern, Sortieren und Organisieren großer Mengen wissenschaftlicher Publikationen

4. Erstellen strukturierter Reviews (Literaturübersichten)
- Vorstellung verschiedener Review Typen
- Live-Demos von Scoping-Reviews und Systematische Literaturreviews
- Export der Reviews in Markdown, PDF oder LaTeX

Schaut gern rein und teilt das Video bei Gefallen.

Weitere Webinare sind geplant. Deshalb die Frage: Was interessiert euch?
- wissenschaftliche Arbeiten strukturieren und Schreibhilfe mit KI
- wissenschaftliche Abbildungen, Diagramme und Poster generieren mit KI
- andere Themen?

 

 

18. März 2026

KI kann schon jetzt viel sozialwissenschaftliche Forschung besser erledigen als Professoren.
Die Wissenschaftler müssen bei KI endlich aufwachen!

Das sage nicht ich, sondern Alexander Kustov, seines Zeichens Associate Professor an der University of Notre Dame im Bereich Sozialwissenschaften.

Kustov hat am 2. März einen Essay mit 10 Thesen über die Situation von KI in der akademischen Welt veröffentlicht und ihn mit "Academics Need to Wake Up on AI" überschrieben (Link). Kustovs Thesen lesen sich übersetzt so:

1. AI kann einen großen Teil sozialwissenschaftlicher Forschung besser erledigen als viele Professoren.
2. Das klassische akademische Paper ist ein sterbendes Format.
3. Das Journalsystem könnte unter den Bedingungen von KI kollabieren.
4. Akademiker wenden bei KI andere Standards an als bei der Forschung, die von Menschen gemacht wird
5. Junior-Forscher sind von KI am stärksten betroffen.
6. Research Assistants könnten überflüssig werden.
7. Ein Teil der KI-Kritik ist reine Statusverteidigung.
8. Die zentralen Probleme bei KI sind Verifikation und Sicherheit.
9. KI kann bessere Wissenschaft ermöglichen.
10. KI ist ein extrem produktives Forschungswerkzeug.

Die Folge: Viel Zustimmung, viel Ablehnung. Zum Teil wütende Reaktionen, persönliche Angriffe, aber auch viel Beifall, wenngleich oft eher heimlich, weil die Zustimmenden Angst vor Repressionen hatten und haben.

Kustov nahm all das zum Anlass, um nachzulegen. Er überarbeitet, erweiterte und verteidigte seinen Text und veröffentlichte am 4. März zehn weitere Thesen. (Link)

11. Qualitative Forschung und Datenerhebung vor Ort bzw. im Feld werden wichtiger.
12. KI hat im Sinne von Ethan Mollick eine „jagged frontier“, d.h. es ist sehr stark in manchen Aufgaben, in anderen dagegen schwach
13. Die Expertise des Nutzers bestimmt stark die Qualität der KI-Ergebnisse.
14. Akademische Publikationszyklen sind zu langsam für KI-Fortschritt.
15. Viele wissenschaftliche Papers werden schon jetzt nur noch von KI und nicht mehr von Menschen gelesen.
16. KI macht die strukturellen Probleme der Wissenschaft sichtbar.
17. Bei Studierenden besteht das Risiko des Kompetenzverlusts durch KI
18. KI-Detektoren funktionieren schlecht, Offenlegungspflichten bringen auch nichts
19. Die KI-Debatte in der Wissenschaft ist oft unproduktiv.
20. Forschung kann durch KI „seelenlos“ wirken und trotzdem gesellschaftlich nützlich sein. Denn: die Steuerzahler finanzieren Hochschulen nicht zur Selbstverwirklichung von Professoren, sondern damit dort Wissen entsteht, das der Gesellschaft nützt. Und da ist es egal, ob es mit oder ohne KI generiert wurde.

Was mir auffiel: Die Debatte fand primär im angloamerikanischen (Sprach-)Raum statt. Ich halte die Thesen aber für sehr diskussionswürdig und habe sie deshalb nicht nur kurz genannt, sondern mit Hilfe von ein Mermaid-Code und draw.io kurzerhand grafisch aufbereitet.

Was haltet ihr von den Thesen?

 

 

10. März 2026

Der einzige Schreibratgeber, den du brauchst :)

Für alle, die wissen wollen, wie das mit dem Schreiben funktioniert: Hier ist mein Schreibratgeber. Ich habe ihn mir höchstselbst aus dem Schädel gepresst und jedes Wort mit meinen eigenen Händen geschrieben. Das heißt: ohne KI. Warum? Weil ich das immer so mache. Und weil es ein "Ohne-KI-Schreibratgeber" ist. Steht zwar nicht drauf, ist aber so.

Man sieht es allein schon daran, dass er kurz geworden ist. Und daran, dass darin das Wort "Scheiße" vorkommt. Natürlich als Zitat. Das macht es leichter. Genau wie die Tatsache, dass mein Schreibratgeber kein Buch ist. In Wahrheit ist es nicht mal ein Ratgeber. Es sind einfach nur sieben Tipps. Klingt simpel. Ist es auch. Hier die Tipps in Kurzform: Schreiben heißt umschreiben, denken, löschen, Spannung erzeugen, arbeiten, konkret formulieren, anfangen. Fertig.

Ich hätte das auch auf eine Serviette schreiben können. Aber dann hätten das wilde Bild und die schönen Zitate nicht draufgepasst. Also hab ich ein Karussell draus gemacht. Weil Karussell fahren Spaß macht. Viel mehr als Servietten zu falten. So, und jetzt los! :)

Wo kann man wissenschaftlich recherchieren?
Eine Übersicht aller wichtigen Datenbanken, Tools und Programme - mit und ohne KI.

Wo findet man Daten und Literatur für Studium, Lehre und Forschung? Nicht bei Google und ChatGPT! Sondern in meiner Übersicht über "Die weite Welt der wissenschaftlichen Recherche". Die gibts hier zum Download - das ganze Wissen komprimiert auf 16 Seiten in einer Präsentation.

Warum habe ich das gemacht? Ganz einfach: Weil es einfach nicht gut ist, dass ChatGPT und Google die wissenschaftliche Recherche dominieren. Also habe ich mich hingesetzt und eine Übersicht aller Anlaufstellen erstellt, die für eine solche Recherche wichtig sind.

Die besten Fachdatenbanken, wenig bekannte Suchmaschinen, die neuesten wissenschaftlichen KI-Tools und noch vieles mehr.

Eine Sache noch: Ich habe versucht, meine kleine Reise durch die Welt der akademischen Recherche nicht allzu akademisch zu halten. Heißt: ich habe sie ein wenig lockerer geschrieben, als man das in der Wissenschaft sonst gewohnt ist.

Warum? Weil spannende Dinge auch spannend geschrieben sein sollten. Und weil ich mich an das Zitat des österreichischen Tausendsassas Egon Friedell erinnert habe, der einst erklärte, dass das mit der Objektivität trotz aller Anstrengungen nie ganz funktioniert. Und weiter schreibt Friedell:

"Sollte aber einmal ein Sterblicher die Kraft finden, etwas so Unparteiisches zu schreiben, so würde die Konstatierung dieser Tatsche immer noch große Schwierigkeiten machen: denn dazu gehörte ein zweiter Sterblicher, der die Kraft fände, etwas so Langweiliges zu lesen."

In diesem Sinne: Viel Spaß auf meiner kleinen Reise durch die ebenso wunderbare wie weite Welt der wissenschaftlichen Recherche.


Teilen und weitergeben ist ausdrücklich erwünscht!

 

 

26. Ferbuar 2026

KI an Hochschulen: Fehlende Informationskompetenz als Kernproblem von Lehrenden

Wir führen seit Jahren eine Scheindebatte über KI an den Hochschulen. Die zentrale Frage wird kaum gestellt: Wie kann es sein, dass KI auf ein System trifft, in dem Informationskompetenz – auch und gerade bei Lehrenden – nie strukturell abgesichert war?

 

Wie sah es mit der Informationskompetenz der Lehrenden vor KI aus?
Was ich hier aufschreibe, mag nicht allen gefallen, aber schaut man sich die Daten aus Dutzenden Studien an, was ich getan habe, sieht man Folgendes:

- viele Lehrende hatten vor KI kaum Informationskompetenz


- Google und Wikipedia dominierten die Recherche
 

- Fachdatenbanken, Repositorien – alles erschreckend wenig genutzt


- das gleiche gilt für E-Learning-Tools und digitale Lehrmöglichkeiten
 

- es gab keine systematische Vermittlung von Recherchekompetenzen, weil viele Lehrende die Fähigkeiten nicht hatten und Schulungsangebote der Bibliotheken kaum genutzt wurden


- viele merkten nicht mal, dass ihre Informationskompetenz gering war, man wurschtelte sich durch, es merkte ja auch niemand

Die Informationskompetenz vieler Lehrender an Hochschulen war vor KI schon mangelhaft. KI hat die Lage weiter verschärft.

Dann kam KI. Und was sehen wir?

- fast 90% der Lehrenden nutzen ChatGPT


- wissenschaftsspezifische KI-Tools nutzt fast niemand
 

- es gibt riesige Lücken beim technischem Verständnis
 

- viele Lehrende können KI methodisch, fachlich und didaktisch nicht sauber integrieren
-  gleichzeitig schreiben Studierende Abschlussarbeiten mit KI
 

-  viele Lehrende bemerkt das nicht bzw. wissen nicht, was sie dagegen tun sollen
 

- einige versuchen es mit KI-Detektoren, was die Problem eher verstärkt als löst
 

- von mit Studierenden entwickelten KI-Policies, Best-Practice-Beispielen für KI in der Lehre, KI-Prozessdokumentationen, neuen Prüfungsformen usw. haben viele kaum was gehört, geschweige denn, dass sie eingesetzt werden

Verstehen Sie mich nicht falsch: Natürlich gibt es Dozenten, die KI fundiert nutzen und KI-Kompetenzen vermitteln und es gibt tolle Initiativen, aber die Masse der Lehrenden ist, spätestens wenn es über ChatGPT hinausgeht, hilf- und ahnungslos.

Und was tun die Hochschulen?

-  die schreiben viel totes Papier, alles abstrakt, alles weitgehend nutzlos
-  es fehlt an Problembewusstsein, an Ressourcen, an Praxis, an Ausprobiermentalität
-  statt Experten von außen zu holen, versucht man alles intern zu lösen, aber die meisten haben weder die Zeit noch das Wissen sich intensiv mit KI zu befassen
- die Folge: die KI-Kompetenzvermittlung der Hochschulen ist schwach, es gibt wenig fundierte KI-Kurse – falls es sie überhaupt gibt
- Folge Nr. 2: 98% der Studenten nutzen ChatGPT und nichts anderes
- Folge 3: die Informationskompetenz vieler Studierender war vor KI katastrophal und bleibt es mit KI auch

KI kann vieles besser machen. Aber aktuell macht sie vieles schlimmer. Solange die Informationskompetenz nicht gestärkt wird, wird die Kluft zwischen Anspruch und Wirklichkeit an den Hochschulen weiter wachsen.

PS: Ein ausführliches Dossier zum Thema mit allen Daten und Studien folgt später. Das hier soll erstmal die Diskussion anregen. Auch wenn ich weiß, dass es hier eventuell die Falschen erreicht.

 

 

20. Februar 2026

Eine Übersicht wissenschaftlicher KI-Recherche-Tools

Es gibt über 50 wissenschaftsspezifische KI-Recherchetools. Alle sind besser als ChatGPT. Aber kaum einer kennt sie. Deshalb habe ich die knapp zwanzig besten dieser Tools mal auf einer Seite zu zusammengetragen. Ihr findet sie in dieser PDF, direkt mit dem Links zu dem jeweiligen Recherche-Programm. Viel Spaß damit.

Wissenschaftliche Recherche in der KI-Ära: Über 50 Tools – und trotzdem nutzen alle nur ChatGPT.

"Welche drei wissenschaftlichen KI-Tools kennen Sie?"
Die Frage stelle ich ganz gern zu Beginn eines Workshops.
Die Antwort ist meist... nun ja... eine neue Frage: "Gilt ChatGPT?"
"Nein", sage ich jedes Mal.
Schweigen im Raum.
Manchmal fragt eine wissenschaftlich gestimmte Seele zaghaft "Perplexity?"
Ich nicke. Zumindest ein bisschen.
"Perplexity ist... nun ja... ein Anfang", erkläre ich.
Und warte das noch jemand was sagt. Aber alle schweigen.

Dabei gibt es über 50 wissenschaftsspezifische KI-Recherchetools. Alle sind besser als ChatGPT. Aber kaum einer kennt sie. Das gleiche gilt für Programme zum Citation-Tracking und KI-Tools, die komplexe Statistiken, Formeln und Abbildungen mit einem Klick zu erklären vermögen.

Die Unkenntnis wäre halb so wild, wenn wenigstens die Grundlagen stimmen würden. Tun sie aber nicht.
"Fachdatenbanken?"
Nie genutzt. Dabei hat die Hochschule für viel Geld Lizenzen gekauft.
"Repositorien?"
Riecht nach Latein. Ist aber moderne Technik.
"Boolesche Operatoren?"
Klingt für viele irgendwie ... gruselig. Dabei helfen die sehr bei der Suche.
"Andere Recherchetechniken?"
Fehlanzeige.

Dafür dominiert ChatGPT. Daten zeigen: über 95% der Studierenden nutzen es. Und auch zwei Drittel der Lehrenden. Das sind beeindruckende Zahlen. Nur leider gehen sie in die falsche Richtung. 
Denn ChatGPT ist für eine wissenschaftliche Recherche ungefähr so geeignet wie ein Gabel zum Suppe essen. Mit ein bisschen Glück bleibt was hängen. Mehr aber auch nicht.

Deshalb biete ich Recherche-Workshops für Hochschulen an. Ich möchte zeigen, wie Recherche geht. Zumindest gehen könnte. Ich will ein Bewusstsein dafür schaffen, was eine gute wissenschaftkliche Recherche ist und was nicht.

Meine Kurse beruhen auf 20 Jahren Erfahrung im Bereich der Daten- und Literaturrecherche, umfangreichen Praxistests sowie der genauen Kenntnis aktueller Forschungen und Best-Practice-Beispielen.

Das hier verlinkte PDF enthält meine Angebote. Sie sind für Lehrende und Studierende gleichermaßen geeignet. Und auch für Bibliothekare und Hochschuldidaktiker ist was dabei. Bei Interesse schreiben Sie mir einfach.

Die Recherche- und Informationskompetenz an den Hochschulen ist mangelhaft. Das war schon vor ChatGPT so. Mit ChatGPT ist es noch schlimmer geworden. Die Probleme werden mit ChatGPT nicht gelöst, sondern oberflächlich überlagert, während sie darunter weiterwuchern.

Wie Mindset-Mumpitz die Schönheit der Drecksarbeit KI-lled.

Vielleicht hat sich ja was im Algorithmus geändert oder meine Augen haben sich einen neuen Filter gekauft, jedenfalls lese ich überall nur noch "KI bedeutet Führung". Dabei weiß jeder, dass das Mindset-Mumpitz ist. Leadership-Larifari. Development-Dummdideleien. Nennt's wie ihr wollt.

Im Grunde ist die Sache klar: Die Elite jedes Berufs gewinnt unter ihresgleichen Anerkennung, indem sie sich von praktischer Arbeit distanziert. Genau das machen auch die Leadership-KI-Coaches. Sie distanzieren sich von Tools, Datenarbeit und hands-on Training und verkaufen lieber "Führungsstrategien". Warum? Nicht weil das der effektivste Weg zur KI-Implementierung ist, sondern weil da die fetten Verträge sind.

Führung ist nicht der Hebel. Das zeigen die ersten Meta-Analysen zu KI genau, z.B. hier.

 

Führung ist zweitrangig. Und oft nur drittklassig. Normalerweise würde ich da alle Viere gerade sein lassen und meine fünf Finger nicht zu den Tasten bewegen. Aber inzwischen schießt die heiße Luft aus der Berater- und die Wissenschaftswelt ein. Dort aber sollte der kühle Verstand regieren.

 

Ich meine, Prototypen entstehen Bottom-up. Top-down entstehen Strategiepapiere. Aber davon haben wir schon viel zu viele. Niemand liest den Mist. Das ist totes Papier. Alles auf Leitungsebene produziert. Nichts davon hilft in der Praxis. Weil die Praxis dreckig, widersprüchlich und kleinteilig ist. Die Papiere dagegen sind sauber, klar und großspurig. Abstraktionen ins Nichts.

Ich sehe das jedenfalls so: Wenn man will, dass KI funktioniert, muss man zusammen mit den Leuten die Drecksarbeit machen. Muss alles prüfen und das Beste behalten.

Für jemand wie mich, der mit Studierenden daran arbeitet, KI beim Lernen sinnvoll zu nutzen und mit Wissenschaftlern überlegt, wie sich mit KI Forschung neu modellieren lässt, heißt das: mir die Themen genau anschauen, tief in die Materie eintauchen und erst dann daraus einen Workshop bauen. Sich fragen: Welche KI-Tools helfen denen wirklich? Was genau brauchen die für Recherche, statistische Analysen und Visualisierung? Und dann: live probieren.

Von mir aus auch die KI-Detektoren. Die funktionieren zwar nicht, aber das müssen die Leute selber sehen. Nur so erkennen sie, dass ihr Einsatz keine Lösung ist. Weil sie falsch ausschlagen. Und auch nicht rechtssicher sind. Stattdessen müssen wir an die Lehr- und Prüfungsformen ran. Alle zusammen. Da führt keiner. Das Puzzle setzt sich nur aus Einzelteilen zusammen. Da gibt's vorher noch nicht mal ein Bild, wie's später aussehen soll.

Das ist gut so. Neue Techniken scheitern nicht am Modell, am Mindset oder an anderen Mondsüchtigkeiten. Das Große scheitert immer am Kleinen. Weil: „Everyone wants to do the model work, not the data work.“

Wobei: das stimmt nicht ganz. Ich mache diese Arbeit gern. Und viele andere auch. Aber es fehlt an Zeit, Raum und Geld. Das steckt nämlich alles in den Leadership-Luftnummern. Deshalb sind die auch so aufgebläht.

 

 

Bildquelle: Freepik

 

6. Februar 2026

Wir haben zu viele Strategiepapiere, Konzepte, Leitlinien.
Das ist totes Papier. Alles auf Leitungsebene produziert.
Nichts davon hilft in der Praxis.

Eine Meta-Meta-Studie zeigt: Die Erwartungen an KI sind übertrieben. ChatGPT und Co. revolutionieren die Bildung (noch) nicht. Es fehlt an validen Daten. Wunschdenken regiert.

Früher gab es Meta-Analysen. Jetzt gibt's Meta-Meta-Analysen. Das liegt in diesem Fall an:
1.) einer Diskussion unter Statistikern, weil eine Meta-Analyse die Publikationsbias nicht ausreichend berücksichtigt hatte
2.) liegt es daran, dass Meta-Analysen aus Übersichtsgründen oft zitiert werden, Meta-Meta-Analysen, die Meta-Analysen kritisieren, in der zitationsgierigen Wissenschaft pures Referenzgold sind und
3.) zeigt das wieder mal, dass so ziemlich jeder Bereich unserer Welt nach Abstraktion strebt und die Wissenschaft ganz vorn dabei ist. Aber darum soll's
4.) hier nicht gehen, sondern um das, was diese Studie untersucht hat. 

Also, worum ging's?

Die Frage: Welche Effekte hat KI aufs Lernen?

Weil (siehe Punkt 1 oben) eine Studie die Publikationsbias nicht richtig berücksichtigt hatte, haben die Forscher einfach mal alle Meta-Analysen daraufhin durchgeschaut. (Man hat ja sonst nichts zu tun.)

Also wurden 1.840 Effektstärkenschätzungen aus 67 Meta-Analysen zusammengetragen. Quelle: Bartoš et al.: Effect of Artificial Intelligence on Learning: A Meta-Meta-Analysis (Link), Preprint, Version vom 28.01.2026.

Ergebnis:


- Unsaubere Resultate: Die Effekte der Meta-Studien sind verzerrt, weil die verwendeten Methoden nicht zeitgemäß waren, z.B. fehlten Berichte der Effektstärken und moderierende Variablen. Die Folge:

- die Resultate der 67 Meta-Analysen sind nicht auf einen Nenner zu bringen. Sie reichen von sehr negativen Auswirkungen bis zu stark positiven Ergebnissen. Das liegt auch an:

- Messproblemen: es fehlen Standardisierung der Outcome-Messsgrößen (z.B. kritisches Denken vs. Testnoten), zudem wurden indirekte Effekte wie Veränderungen der Lehrmethoden oft nicht erfasst. Stattdessen:

- zeigen einige Meta-Studien negative Effekte (z.B. weniger kognitive Anstrengung durch KI-Nutzung), aber diese Studien sind unterrepräsentiert, denn es gibt eine erheblichen Publikationsbias, die positive Effekte begünstigt. Heißt:

- Studien mit positiven oder spektakulären Ergebnissen (z. B. "KI verbessert das Lernen") werden häufiger eingereicht, veröffentlicht und zitiert. Dagegen gehen unspektakuläre oder negative Ergebnisse oft unter. Aber:

- es gibt Hinweise, dass sich jenes alte Muster wiederholt, demnach neue Technik denen nützt, die bereits eine gute Vorbildung haben, während weniger gut Gebildete davon kaum oder gar nicht profitieren bzw. sogar Nachteile erleiden.

Und nun?


Es braucht standardisierte Analysen und Langzeitstudien.

Klar ist aber auch: alle bisherigen und aktuellen politische Entscheidungen basieren auf Vermutungen und Wunschdenken.

Kurzum: Es gibt noch viel zu tun. Bis dahin aber, so fürchte ich, werden die Horror- und Heilsgeschichten-Erzähler weiterhin ihre Thesen an die Türen der Bildungseinrichtungen zu nageln versuchen...

 

 

4. Februar 2026

Google hat die Recherche versaut.
ChatGPT erledigt den Rest.
Es ist Zeit, etwas dagegen zu tun!

Bevor KI kam, hatten die Hochschulen ein dickes Recherche-Problem. Und das sah so aus:

- die meisten Studierenden googelten lieber, statt Bibliothekskataloge und Fachdatenbanken zu nutzen

- Repositorien klangen wie Latein und wurden wie Latein behandelt – mit respektvoller Ignoranz

- "Phrasensuchen", Trunkierung* und Boolesche Operatoren waren AND/OR egal

- was nicht auf Deutsch oder Englisch erschienen war, war im Grunde nicht erschienen

- statt systematischer Recherche dominierte eine "Ich habe was gefunden, das reicht"-Mentalität

- Forschungsfragen wurden in der Recherche so zielgerichtet eingesetzt wie eine Schrotflinte

- und ein Blick auf die 2. Seite der Trefferliste war eine Seltenheit

Kurzum: Google hatte alles versaut. Die Suchen waren kurz und beschämend oberflächlich.

Wer nur mit Google und ChatGPT recherchiert, übersieht viele Daten

Dann kam KI. Das heißt: ChatGPT. Denn was anderes nehmen sie an den Hochschulen fast nicht. Dafür nehmen sie es aber für so ziemlich alles. Auch zur Recherche. "Chatty" wird's schon richten. Das sagen nicht nur die Studis, das denken auch viele Dozenten. (Der Rest schimpft auf KI oder zuckt mit den Schultern. Hilflos. Ahnungslos. Es ist im Grunde egal.)

In Wahrheit macht ChatGPT alles noch schlimmer. Es kaschiert die alten Defizite, indem es neue Probleme obendrauf packt.

Was also tun?
Anfangen, zeitgemäß zu recherchieren, würde ich sagen. Zum Beispiel so:

1. Wissenschaftsspezifische Recherche-KI-Tools nutzen: Es gibt über ein Dutzend, und sie sind verdammt gut darin, Studien zu finden und Daten zu erklären.

2. Fachdatenbanken (wieder) entdecken: Viele haben inzwischen eigene KI-Assistenten. Und im Gegensatz zu ChatGPT können die ihre Quellen auch nicht halluzinieren.

3. Tief in Repositorien eintauchen: Endlich die Forschungen der eigenen Hochschule nutzen und Wissensschätze aus fernen Ländern heben. Fremdsprachige Texte mit KI übersetzen, Daten extrahieren und alles gekonnt visualisieren.

4. Citation Tracking & semantische Cluster nutzen: Wer hat wen zitiert? Welche Themen hängen zusammen? KI-generierte Wissensgraphen erzeugen die schönsten Forschungslandkarten.

5. Alle Teile systematisch verbinden: Literatur, Daten, Quellen – alles miteinander verknüpfen und Workflows bauen, die einen durch Studium und Wissenschaft tragen. Und darüber hinaus. 

 

Genau daran arbeite ich.

Man kann KI in den Suchschlitz kippen und hoffen,
dass beim Tippen Kompetenzen entstehen.
Oder man beginnt mit echter Recherchekompetenz
und integriert KI sinnvoll darin.

Als Rechercheur bin ich natürlich auch immer auf der Suche. In diesem Fall auch nach Auträgen für neue Recherche-Workshops.

 

Für die nächsten Monate habe ich noch Kapazitäten. Egal ob für Geistes-, Sozial- oder Naturwissenschaften, ob als Grundlagenschulung oder Vertiefungskurs, online oder vor Ort. Schreiben Sie mir einfach. Gern mache ich Ihnen ein Angebot.

Denn das neue Semester kommt schneller als man denkt. Und dann sitzen wieder alle da mit "Chatty", dem unzuverlässigsten aller Datenorakel.

 

 

2. Februar 2026

Zahl der KI-Betrugsfälle an Hochschulen wächst. KI-Detektoren versprechen Aufklärung.
Forscher und Juristen sehen das anders.

Ich habe den aktuellenStand der Dinge zum Thema KI-Erkennungs-Software (KI-Detektoren) mal für euch zusammengetragen. Es gibt inzwischen zahlreiche Studien, Rechtsgutachten und natürlich auch viel Praxiserfahrung dazu. Die Quintessenz lautet: Hände weg von KI-Detektoren!

 

Warum genau, das erfahrt ihr in meiner Analyse (PDF, Link) und auf meinen LinkedIn-Profil. Und wer mehr dazu lesen will, hier meine kleine Literaturliste zum Thema.

 

 

30. Januar 2026

KI an Hochschulen: Studierende nutzen sie, Lehrende hinken oft hinterher, einen richtigen Plan hat keiner und fundierte Praxiserfahrung fehlt weitgehend.

Das ist natürlich pointiert ausgedrückt, aber in die Richtung geht's bzw. ist es bisher gegangen, weshalb das jetzt der zugespitzte Stand der Dinge ist.

Wer es genauer wissen will: Das Hochschulforum Digitalisierung (HFD) hat die Datenlage zum Thema "Die KI-Nutzung in Studium und Lehre" zusammengefasst und "Ein Review auf Grundlage empirischer Studien" dazu publiziert. Es ist gestern als Arbeitspapier erschienen und hier (Link) zu finden. Dicker Lesetipp!

Aber da ich weiß, dass nicht alle so viel Zeit haben (und manche lieber Infografiken anschauen) hab ich die zentrale Ergebnisse mit Hilfe von Napkin AI mal in einem Bild zusammengefasst.

29. Januar 2026

Du kannst deine Dateien synchronisieren, aber nicht die Gesellschaft. Oder: KI bringt die Zeit aus dem Takt.

Ich habe heute einen Beitrag von Christoph Jaschek auf LinkedIn gelesen, der davon handelt, dass man Probleme nie endgültig lösen kann und sich deshalb für die Lösung entscheiden sollte, deren Nachwehen man am ehesten ertragen kann.

Der Beitrag hat mich zum Nachdenken gebracht. Aber aus einem anderen Grund. Weil er sich auf einen 17 Jahre alten Text bezog und ich mich fragte, warum ein Text von 2009 "alt" auf mich wirkt. Er ist nämlich sehr aktuell. Besonders wenn ich auf die KI-Debatte schaue. Ich meine: viele Tools altern schneller als ein Joghurt ohne Kühlung. (Erst kürzlich schrieb Ronnie Parsons: „I just deleted 12 Claude PROJECTS. 3 Claude SKILLS replaced them all.“)

 

Die Beschleunigung, die KI mit sich bringt, führt dazu, dass das Tempo, mit dem sich die einzelnen Teil der Gesellschaft bewegen, immer wieder auseinanderklafft.

Mein Gedanke: Unser Empfinden von dem, was „alt“ ist, hat sich durch KI massiv verkürzt.

Meine These (und erst jetzt wird’s wichtig, das war bisher alles nur Vorrede, denn das hier ist kein KI-generierter Text, liebe Leute), also, jedenfalls meine These ist: KI bringt die gesellschaftlichen Zeitebenen aus dem Takt.

Der Soziologe Hartmut Rosa hat sinngemäß gesagt: Beschleunigung führt zu systemischer Desynchronisation. Heißt: Das Problem unserer Gesellschaft ist nicht das wachsende Tempo, sondern dass ihre Teilsysteme aus dem Takt geraten, weil sie verschiedenen Zeit-Rhythmen folgen. Das zeigt sich auch bei KI.

Auf der Mikroebene gibt es täglich neue Tools & Modelle.

Auf der Makroebene sieht es dagegen ganz anders aus: Bildungseinrichtungen, Behörden, große Unternehmen: reagieren nur im Jahrestakt. Höchstens quartalsweise. Aber sie bleiben strukturell langsam. Das ist an sich okay. Es wäre komisch, wenn sie mithetzen würden.

Das Problem ist die Mitte. Es ist die Ebene, auf der Gesellschaft Sinn produziert und sich stabilisiert. Diese Mitte ist die allgemeine Öffentlichkeit, sind Diskurse, Deutungsmuster, kollektive Selbstverständnisse. Die Mitte liegt zwischen den Tools und den Institutionen. Hier liegt die eigentliche Spannung. Und das große Problem.

Denn normalerweise werden die Konflikte zwischen Mikro und Makro von der mittleren Ebene moderiert und (dadurch) abgemildert. Aber das passiert nicht mehr. Denn wo früher Widersprüche ertragen und Bedeutungen ausgehandelt wurden, dominieren heute Moralisierung und Schuldzuschreibungen. 
Das Ergebnis: die Mitte schwindet, wird nicht mehr gehört, ist (wirk-)ohnmächtig. So verliert eine Gesellschaft ihre Orientierung. Und dann ist Hochzeit für Apokalyptiker und Integrierte. Jedenfalls dominieren Gebrüll und Vorwürfe. Auf allen Seiten.

– hysterische KI-Debatten zwischen Paradies und Apokalypse
– strategische Unsicherheit hier, individueller Hype dort

Die spannende Frage ist nun: Wie kann die Mitte gestärkt werden? Wie kann sie die verschiedenen Geschwindigkeiten austarieren und die digitale Spaltung verlangsamen?

Darauf haben wir keine guten Antworten. Und das liegt auch daran, dass wir die falschen Fragen gestellt haben. Oder?

Bild: PXhere (Creative Commons Zero, Link)

 

 

28. Janar 2026

 

Schluss mit Recht auf Teilzeit? Oder nicht? Hier die Ergebnisse einer systematischen Literaturanalyse zum Thema Arbeitszeitverkürzung als Infografik,

2023 haben Wissenshaftler des Centre for Development and Environment der Universität Bern insgesamt 30 internationale Studien zum Thema Arbeitszeitverkürzung ausgewertet. (Link)

 

Die Daten sind zwar nicht 1:1 auf die aktuelle Debatte, vom CDU Wirtschaftsflügel ausgelöste Debatte um das Recht auf Teilzeitarbeit übertragbar, da Teilzeit nur eine Form von Arbeitszeitverkürzung darstellt, aber sie geben viele wertvolle Hinweise.

Die Frage der Forscher lautete: Wie wirken sich Arbeitszeitverkürzungen (z. B. 4‑Tage‑Woche oder 6‑Stunden‑Tag) sozial, ökonomisch und ökologisch aus?
Die Infografik zeigt die Ergebnisse. Ich habe sie mit Napkin AI erstellt.
 

Die Auswertung zeigt, dass Arbeitszeitverkürzung bessere Gesundheit, weniger Stress und mehr Zufriedenheit bringt. Gleichzeitig wird deutlich, dass ökonomische und ökologische Effekte von der konkreten Ausgestaltung abhängen und mehr Forschung nötig ist.

Was bedeutet das konkret?

 

Ganz einfach: Arbeitszeitverkürzungen verbessern das subjektive Wohlbefinden, reduzieren Stress und Erschöpfung, verbessern die körperliche und mentale Gesundheit und entlasten die Vereinbarkeit von Beruf und Familie.

 

Die Effekte zeigen sich deutlich: Weniger emotionale Erschöpfung, weniger Konflikte auf Arbeit und in der Familie, besserer Schlaf.

 

Besonders Berufe mit hoher körperlicher Beslastung profitieren davon. Ebenso Geringverdiener und Frauen, besonders Mütter.

 

Wichtig auch: Je umfangreicher die Arbeitszeitverkürzung  war (z.B. mindestens 6 Stunden pro Woche), desto stärker sind die sozialen und ökologischen Effekte. Kleine Verkürzungen zeigen dagegen kaum eine Wirkung.

 

Wenn Arbeitszeitverkürzungen durhch die Politik unterstützt werden, z.B. durch Gesetze oder Tarifverträge und in größerem Umfanh umgesetzt werden, ist die Effektivität besonders hoch. Individuelle Vereinbarungen bringen dagegen wenig.

 

Und: Maßnahmen, die auf ganze freie Tage abzielen (z.B. 4-Tage-Woche), sind effektiver als eine Verkürzung der Tagesarbeitszeit.

 

Und schließlich: Ein nach Einkommen gestaffelter Lohnausgleich (voller Ausgleich für Geringverdienende, geringerer für Besserverdienende) kann soziale Nachteile vermeiden. Geringverdiener könnten sich sonst Arbeitszeitverkürzungen bzw. Teilzeit nicht leisten.

 

Man beachte aber: Die Studie gibt keine Werturteile ab, ob man weniger arbeiten sollte. Sie analysiert die empirischen Wirkungen verschiedener Arbeitszeitverkürzungsmodelle. Die Forscher schreiben: "Die Evidenzbasis unserer Ergebnisse ist eventuell nicht solide genug, um klare politische Empfehlungen zu rechtfertigen, aber sie gibt uns die Möglichkeit, Arbeitshypothesen zu formulieren." (S. 13, meine Übersetzung)

 

Genau diese "Arbeitshypothesen" habe ich mit Hilfe der Infografik dargestellt.

Laut den Schweizer Forschern braucht es aber noch mehr Forschung. Und zwar zu folgenden Punkten:

Vergleich mehrerer Dimensionen: Studien sollten soziale, ökonomische und ökologische Effekte gemeinsam untersuchen, um Wechselwirkungen besser zu verstehen.

Vergleich verschiedener Modelle von Arbeitszeitverkürzung: Es fehlen Studien, die verschiedene Formen und Umfänge von Arbeitszeitverkürzung vergleichen. Hier wäre Teilzeit noch genauer zu untersuchen!

Kontexte & Subgruppen analysieren: Qualifikationen, Branche und Arbeitsbedingungen beeinflussen die Wirkung. Diese Variablen müssen systematischer berücksichtigt werden.

Ökologische Effekte: Es braucht mehr Studien, die die Umweltwirkungen von Arbeitszeitverkürzungen analysieren, z. B. CO₂-Ausstoß und Konsumverhalten. Die bisherigen Daten lassen leicht positive ökologische Effekte durch Arbeitszeitverkürzung erkennen.

Begleitmaßnahmen: Mögliche Lohnkompensationen sollten mit Blick auf die Einkommenshöhe näher erforscht werden, um soziale Gerechtigkeit und ökologische Effekte besser auszubalancieren.

Zeitverwendung neben Erwerbsarbeit: Der Einfluss von Care-Arbeit u.a. oft unbezahlten Tätigkeiten muss stärker erforscht werden.

Geschlechtsspezifische Effekte analysieren: Studien sollen die Wirkung von Arbeitszeitverkürzungen bzw. Teilzeit auf Männer und Frauen getrennt untersuchen, besonders bezüglich der Karrierechancen und Care-Arbeit.

So, und jetzt darf weiterdiskutiert werden 😉

 

Quelle: Hanbury, H., Illien, P., Ming, E., Moser, S., Bader, C., & Neubert, S. (2023). Working less for more? A systematic review of the social, economic, and ecological effects of working time reduction policies in the global North. Sustainability: Science, Practice and Policy, 19(1). https://doi.org/10.1080/15487733.2023.2222595

 

 

26. Januar 2026

Betrug mit KI an Schulen und Hochschulen wächst.

Ich habe mir in mal die Daten angeschaut, die Forscher aus aller Welt zum Thema "Betrug mit KI in Bildungseinrichtungen" veröffentlicht haben. Ich habe über 100 Paper gefunden (aber erst ca. 30 genauer gelesen).

Für Deutschland ist die Datenlage schwach. Verschiedene Unis berichten über Betrügereien, aber das betrifft immer nur die entdeckten Fälle. Es fehlen noch Übersichtsstudien, größere Umfragen etc. Immerhin gibt es erste qualitative Studien und Versuche, das Problem quantitativ zu erfassen.

 

Hier eine erste, absolut unvollständige Liste. Detaillierte Ergebnisse und Verlinkung auf alle Quellen später:

Studien zeigen erschreckende Ergebnisse.

USA: 75% der Psychologiestudenten berichteten, dass sie bei mindestens einem Leistungsnachweis mit KI-Hilfe geschummelt haben.

China: In einer Universität in Shanghai gaben 79% der 120 befragten Studierenden zu, bei Sprachprüfungen mit KI betrogen zu haben. (Link)

Großbritannien: Ein Experiment der University of Reading zeigte 2024, dass KI-generierte Prüfungsantworten in 94 % der Fälle unentdeckt blieben. Zugleich wurden 2023/24 an britischen Hochschulen fast 7.000 Betrugsfälle aufgedeckt, viele davon KI bedingt. Für 2024/25 werden 11.000 Fälle geschätzt, Tendenz weiter stark steigend. (Link)

Ecuador: Forscher stuften in einer Studie von 2025 das KI-NUtzungsverhalten von 51% der Studenten als "Betrug" ein. (Link)

Saudi-Arabien: Die Häufigkeit der Nutzung von ChatGPT ist mit signifikant mit höheren Betrugsraten verbunden. (Link)

Türkei: eine Übersichtsstudie erklärt: "Das betrügerische Verhalten der Studierenden hat ein Ausmaß erreicht, dass die akademische Ehrlichkeit grundlegend beeinträchtigt ist."

Mexiko: Eine Studie von 2025 zeigt, dass Studenten, die merken, dass ihre Kommilitonen mit KI betrügen, ihr (künftiges) betrügerisches Handeln damit rechtfertigen.

Spanien: Eine Studie (2025) erkennt eine um sich greifenden Betrugskultur, wodurch die Motivation sinkt, weiter ohne KI zu arbeiten bzw. nicht zu betrügen. Die Folge: auch hier stark steigende Betrugsraten.

Norwegen: die zehn größten Hochschulen des Landes melden eine Verdoppelung der KI-Betrugsfälle von 2024 zu 2025. (Link)

USA & Kanada: 2024 waren in einer großangelegten Umfrage 96% aller Uni-Dozenten davon überzeugt, dass ein Teil ihrer Studenten mit Hilfe von KI betrügt. Zudem waren sich 53% der Studenten sicher, dass die Betrugsfälle stark zugenommen haben. Alle erwarteten weitere Steigerungen.

Deutschland: Eine Studie von 2025 fand bei 38 von 256 Studenten KI-Betrug. (Link) Und nach Interviews mit Studierenden stellten deutsche und norwegische Forscher 2024 fest: "Die Studierenden gaben zahlreiche unterschiedliche Formen des betrügerischen Gebrauchs von KI-Chatbots preis." (Meine Übersetzung, Link)

Mit den Betrügereien gehen natürlich viele andere Probleme einher. Aber dazu später mal mehr. Ich wollte hier erstmal einen Zwischenstand geben.
Fragen, Anmerkungen, Interesse an bestimmten Daten gern an mich.

Bildquelle: Wikimedia

 

25. Januar 2026

Der Wissenschaftshistoriker Thomas S. Kuhn prägte 1962 in seinem Buch “The Structure of Scientific Revolutions” den Begriff “Paradigmenwechsel” (paradigm shift).

Kuhn beschrieb damit wissenschaftliche Revolutionen dahingehend, dass sich fundamentale Rahmenwerke der Wissenschaft (Fragestellungen, Methoden, Erklärungen) grundlegend geändert haben.

Es ist also kein Paradigmenwechsel, wenn jemand von ChatGPT zu Claude wechselt oder Apple eine Partnerschaft mit Google eingeht!

PS: Kuhn nutzte den Begriff auf 200 Seiten nur 6 Mal. Heute liest man ihn in 6 LinkedIn-Beiträgen 200 Mal.

Bild: nicht KI-generiert
Quelle: https://lnkd.in/gX8j2kDF

 

23. Januar 2026

Paradigmen werden häufiger gewechselt als Unterhosen

Großartige Neuigkeiten!

SciSpace AI hat mich gefragt, ob ich ein Webinar fürs deutsche Publikum machen will!

 

Es geht um einen praktischen Leitfaden zum Einsatz von KI in Wissenschaft, Studium und Forschung. Und da ich SciSpace regelmäßig nutze und das Tool sehr mag, hab ich natürlich Ja gesagt.

 

Also, wer SciSpace noch nicht kennt und mal schauen will, was man mit KI im Bereich Wissenschaft und Wissensarbeit so alles machen kann: einfach digital vorbeischauen!

 

Datum: Mittwoch, 11. Februar 2026
Zeit: 16:00 - 17:00 Uhr via Zoom
Sprache: das Webinar findet auf Deutsch statt

Es wird eine Einführung in Sci Space AI, Best-Practice-Beispiele und Live-Demos geben.

Danach besteht natürlich die Möglichkeit, Fragen zu stellen.

Alle Infos und die kostenfreie Anmeldung gibt's hier:
https://luma.com/o1vf4u1a
Gern teilen und weitersagen.
Ich freue mich auf euch!

Das Original weiß, dass es kopiert!

Es ist ein komischer Gedanke, aber ich glaube, die guten alten Plagiate sterben aus. KI hat die Kultur des heimlichen Abschreibens ebenso heimlich abgeschafft. Das klassische Plagiat ist abgeschrieben, sozusagen.

 

Die halbe Welt schreibt ihre Texte jetzt mit KI - und die andere Hälfte fahndet danach. Aber kaum jemand macht mehr Plagiate. Klar, warum auch?! Es ist viel leichter sich einen Text von der nächstbesten KI generieren zu lassen als einen Text irgendwo rauszukopieren oder - nicht auszudenken - ihn vielleicht sogar noch eigenhändig umzuschreiben.

 

Klar, auch das KI-generierte Textgematsche ist eine Form des Plagiats und wird auch so bezeichnet, aber es ist eine neue Form, eine, die sich vom klassischen Plagiat unterscheidet, qualitativ und - vor allem - quantitativ.

 

Dazu passt, dass zwar alle Welt über die KI-Texte forscht und berichtet, aber über die klassische Plagiat-Macherei wird im Zeitalter von KI-Texten kaum noch geschrieben.

 

Ich musste eine Weile suchen, um empirisch zumindest einigermaßen belastbares Material zu finden. Eine großangelegte Befragung britischer Universitäten vom Mai 2025 ergab folgendes Bild. Ich zitiere - übersetzt - aus dem "Guardian", der die Untersuchung durchgeführt hat.

 

"In den Jahren 2019-20, bevor generative KI weit verbreitet war, machten Plagiate fast zwei Drittel aller akademischen Verfehlungen aus. Während der Pandemie nahmen Plagiate zu, da viele Prüfungen online stattfanden. Mit der zunehmenden Verbreitung und Verbesserung von KI-Tools hat sich jedoch die Art des Betrugs verändert. Die Umfrage ergab, dass die bestätigten Fälle von traditionellem Plagiaten von 19 pro 1.000 Studenten auf 15,2 im Jahr 2023-24 zurückgegangen sind und nach ersten Zahlen aus diesem akademischen Jahr voraussichtlich auf etwa 8,5 pro 1.000 sinken werden."

 

 

Andererseits, vielleicht ist die Tatsache, dass sich kaum noch jemand im Plagiieren übt und auch fast niemand mehr drüber berichtet, weil alle panisch nach KI-Nutzung suchen (und die Plagiatsjäger nur über dahingeklatschten Politiker-Promotionen von anno dazumal hocken), vielleicht ist all das ja die Rettung der guten alten Kultur des Plagiierens. Ein plötzlicher Freiraum, in welchem die traditionelle Methode des Abschreibens aufs Neue erblühen kann?!

 

Ich weiß, man sollte das nicht romantisieren. Aber wenn so ziemlich jeder bekannte Schriftsteller - von Shakespeare über Goethe bist Brecht - die Kultur des Plagiats gepflegt hat, liegt die Romantik nunmal näher als die Empörung. Manche haben es heimlich getan, andere offen.

 

Wie Brecht, der den Vorwurf, er habe in seiner "Dreigroschenoper" von François Villon abgeschrieben, ins Leere laufen ließ, indem er erklärte: „Nehm jeder sich heraus, was er grad braucht! Ich selber hab mir was herausgenommen.“

 

In diesem Sinne: Frohes Plag(iier)en 😊

 

22. Januar 2026

Wie der KI-Einsatz in Staat und Verwaltung das Vertrauen in demokratische Institutionen zerstört. Und was Donald Trump damit zu tun hat.

Also, die Sache ist die: wenn ich wüsste, worauf es hinausläuft, wenn ich über ein Thema zu schreiben beginne, könnte ich es auch lassen. Denn Schreiben ist nicht das Wiedergeben von Gedanken, sondern das Erschaffen derselben. Es ist kein Spiegel der Erkenntnis, es ist der Erkenntnisprozess selbst.

Ich fürchte allerdings, dass KI da nicht mitmacht bzw. diese Herangehensweise kollektiv versaut, ganz einfach deshalb, weil viele ihre Texte von KI vorschreiben lassen und nur noch "Feinschliff" machen. Als könnte man eine missratene Marmorskulptur mit etwas Sandpapier retten.

Geschenkt. Was in meinem Kopf kreißt (und vielleicht nur ein Berg ist, der ein Mäuschen gebiert) sind zwei Dinge, die erstmal nichts miteinander zu tun haben. (Aber ist es nicht oft so, dass zwei unabhängig voneinander verlaufende Entwicklungen sich zufällig treffen und fortan gemeinsame Sache machen, einfach nur, weil sie von zwei Seiten auf dieselbe Hauptstraße abgebogen sind?)

Jedenfalls, das erste „Ding“ war die unten abgebildete eine Grafik. Sie zeigt, um welche Themen sich Trump vorrangig kümmert. Und siehe da: Die Untergrabung demokratischer Institutionen gehört für ihn zum Kerngeschäft. (Hier der Link).

 

Trump und seine Leute höhlen den Staat systematisch aus
und füllen danach die Leere mit ihrer Autorität.

Das zweite „Ding“, das in meinem Kopf war, hat damit nichts zu tun, denn es sind Studien, und jemand wie Trump liest keine Studien. Er liest gar nichts, was länger als ein Truth-Social-Posts ist. Aber gut, die Studien untersuchen jedenfalls den Einsatz von KI in Staat und Verwaltung und kommen zu dem Schluss, dass KI zwar mehr Effektivität bringt, nur wird die teuer bezahlt, nämlich mit einem Verlust an Glaubwürdigkeit, Vertrauen und Akzeptanz in genau diese Institutionen. Und das umso mehr, wenn die Institutionen als ungerecht, kaputt und /oder politisiert wahrgenommen werden. (Hier der Link zu drei Studien bzw. Mety-Analysen: Link 1 / Link 2 / Link 3)

Heißt: Die KI kann noch so gut Ergebnisse liefern, sie wird trotzdem als negativ wahrgenommen, denn Menschen beurteilen nicht das Ergebnis, sondern das Verfahren. Und wenn das automatisiert abläuft, wird es tendenziell als unfair und entmenschlicht betrachtet. Und dieses Bild wird zurück auf die Institution projiziert.

Genau da haben sich die zwei Stränge in mir zu einer Frage zusammengefügt: Wenn in so einem politischen Klima KI in Staat und Verwaltung eingeführt wird, trifft sie dann nicht auf eine kaputte Vertrauenslandschaft? Nicht nur in den USA, sondern auch hierzulande, wo die Polarisierung ebenfalls wächst? Als These formuliert: KI wird dann nicht als Fortschritt wahrgenommen, sondern als weiterer Beleg dafür, dass Entscheidungen nicht nachvollziehbar sind und noch ungerechter wirken als zuvor.

Mit anderen Worten: Wenn wir in Staat und Verwaltung nach KI rufen müssen wir uns fragen, auf welche Welt und – vor allem – auf welche Wahrnehmung von Welt die KI trifft. Es könnte für ihren Erfolg wie für ihren Misserfolg entscheidend sein.

 

21. Januar 2026
 

Halluzinierende Anwälte. Ich habe mal ausgewertet, in wie vielen Gerichtsverfahren Künstliche Intelligenz für Chaos gesorgt hat. (Es sind viele!)


Der Fall ging durch die Medien: das Landgericht Darmstadt hat einem Professor das Honorar gestrichen, weil sein "Gutachten" (das Gericht selbst setzte den Begriff in Anführungszeichen) von KI generiert und so fehlerhaft war, dass es vor Gericht nicht verwendet werden konnte (Az.: 19 O 527/16, Urteilsbegründung)

Solche Fälle machen Schlagzeilen. Aber fast niemand schaut dahinter, denn KI-generierte Gutachten, erfundene Fälle und falsche Rechtsbelege sind kein Einzelfall. Ich habe mir deshalb die Sache mal systematisch angesehen und mit Hilfe von Excelmatic.ai einen Datensatz ausgewertet, der welweit 811 Fälle von KI-Halluzinationen in Gerichtsverfahren gesammelt hat. Hier die Webseite dazu.

 

In über 800 Fällen basierten Gerichtsverfahren auf KI-generierten Fehlinformationen. Die Dunkelzifffer ist um ein Vielfaches höher.

Wichtig zur Einordnung der Zahlen:


1.) Manche Fälle enthalten mehrere Arten von Halluzinationen, z.B. erfundene Urteile und falsche Zitate. Deshalb ist die Gesamtzahl an Haluzinationen in meiner Auswertung deutlich höher als 881.


2.) Mitunter sind in einem einzigen Schriftsatz drei oder vier Fälle einer Halluzinationsart, z.B. erfundene Urteile, enthalten.

Die Zahlen zeigen: KI sorgt (nicht nur) für falsche Details, sondern für grundlegende Fehler. Das Muster ist deutlich: Das Gros der Probleme betrifft:

- von KI komplett erfundene Gerichtsentscheidungen: 1338 Fälle
- durch KI falsch dargestellte Rechtsprechung: 581 Fälle
- von KI erfundene oder falsche Zitate: 451 Fälle

Dazu kommen andere Nonsens-Belege.

Das Erschreckende: das sind keine einzelnen Ausrutscher. Vielmehr scheinen KI-Halluzinationen in juristischen Kreisen zu einem generellen Problem zu werden. Die Dunkelziffer dürfte jedenfalls wesentlich höher als die in der Datenbank aktuell versammelten 811 Beispiele liegen.

 

Wer weiß, wie viele Menschen auf Grundlage fiktiver Fälle verurteilt wurden, weil niemand die Sache nachgeprüft hat.

Das Problem ist dabei nicht, dass KI Fehler macht. Das Problem ist vielmehr, dass diese Fehler nicht erkannt werden, weil Anwälte und andere Rechtsvertreter die Quellen nicht prüfen. Im Falle des oben genannten Professors hatte das Gericht in Darmstadt erklärt, es habe "nicht einmal eine Untersuchung der Klägerin stattgefunden", zudem wurde "ein Unfallgeschehen herangezogen [...], dass sich so nicht einmal nach der Darstellung der Klägerin ereignet hat."

Und was lernen wir daraus?


Die Basis jeder guten Entscheidung sind gute, saubere Daten. Das gilt für Gerichtsakten genauso wie für Entscheidungen, die in Unternehmen getroffen werden. KI kann bei der Recherche helfen, aber nur, wenn sie richtig eingesetzt wird. Eine kritische Überprüfung der Ergebnisse ist unerlässlich. Und die Kenntnis der richtigen Tools. Und da gibt es deutlich besseres als ChatGPT.

KI-Bildung heißt deshalb zuerst: richtig recherchieren lernen. Ich stehe mit meiner Expertise dafür gern zu Verfügung.

 

20. Januar 2026

KI-Spaltung zwischen Ost und West. LLMs voller Vorurteilen, unschöne Daten und eine harte Frage.

Um eins vorwegzunehmen: das Folgende ist ein Abtasten des Feldes. Es soll Basis für Diskussion, Daten, Denkanstöße sein.

1.) Eine Studie hat gezeigt, dass LLMs die Ost-Bundesländer negativer bewerten bei Intelligenz, Offenheit gegenüber Neuem usw. Die ostdeutschen Bundesländer bekamen in allen Kategorien geringere Werte, egal, ob die Zuschreibungen positiv, negativ oder neutral waren. Ergebnis: bei Fleiß und Faulheit waren die Werte jeweils niedriger, Ostdeutsche also weniger fleißig und faul zugleich. Erklärung: das LLM hat aus seinen Trainingsdaten "gelernt", dass Ostdeutschland statistisch häufiger mit niedrigen bzw. minderwertigen Bewertungen assoziiert wird. Diese Bias lässt sich auch durch "Debiasing Prompts" kaum auflösen. Die Forscherinnen kommen zu dem Schluss: "Wir stellen fest, dass es eine statistisch signifikante Tendenz gibt, dass die Bundesländer im Osten schlechter bewertet werden als die anderen". (S. 12, meine Übersetzung).

2.) Eine weitere Studie von 2025 bestätigt die bekannte digitale Spaltung zwischen Ost und West und zeigt, dass es diese Spaltung auch beim KI-Einsatz gibt. Die Unterschiede werden durch das Stadt-Land-Gefälle im Osten weiter verschäft. Bei technischer Infrastruktur und Integration digitaler Technologien, der Bereitstellung elektronischer Dienste und der (Wahrscheinlichkeit der) Einführung von KI in der öffentlichen Verwaltung liegen die ostdeutschen Bundesländer hinten.

3.) Eine Umfrage unter 500 IT-Entscheidern von Juli 2025 zeigt: im Osten nutzen 48% der Unternehmen noch keine KI, im Westen nur 28 Prozent. (siehe Bild) Fazit: "Während Unternehmen im Westen zunehmend auf KI setzen, hemmen im Osten Misstrauen und strukturelle Defizite die Transformation. [...] Wenn wir nicht gegensteuern und der Osten schnell nachzieht, riskieren wir eine digitale Zwei-Klassen-Wirtschaft.“

 

Ost- und Westdeutschland sind beim Thema Künstliche Intelligenz gespalten: technisch, finanziell und sozial.

4.) Misstrauen als Stichwort: Als "KI-Mensch" aus dem Osten, der teilweise auf dem sächsischen Land lebt, weiß ich, wie groß hier das Misstrauen in KI ist. Das ist ein Problem. Andersherum gibt es aber eventuell(!) auch ein Problem, das ich bewusst als Frage formuliere: "Kann es sein, dass Ostdeutschen weniger KI-Kompetenz zugesprochen wird als Westdeutschen?" Überspitzt und mit Blick auf mich selbst formuliert: Warum einen Einzelkämpfer aus Sachsen für KI-Workshops buchen wenn man eine fancy Agentur aus dem Westen haben kann?

 

19. Januar 2026

Wie KI bei Wissensrecherchen für Scheinkonsens sorgt & was dagegen getan werden kann.

KI-Recherche-Tools helfen, schnell einen Überblick zu einem Thema zu bekommen. Leider erzeugen sie dabei oft einen Scheinkonsens. Wo eigentlich Zweifel und Alternativen aufscheinen sollen, werden sie zu oft unter einer sprachlichen Konsenssoße begraben.

Wie sich das genau zeigt, warum das so ist und was man dagegen tun kann erfahrt ihr hier in diesem PDF oder direkt auf meinem LinkedIn-Profil.

Achja, Workshops und Schulungen zum Thema mache ich auch 😉

Ich habe mir einen Faktenchecker gebaut und ihr könnt ihn haben.

Okay, ich geb's zu, die Idee stammt nicht von mir: Das Team von snipKI hat in einem seiner Tutorials einen Faktenchecker erstellt. Der ist ganz gut, aber macht braucht Claude in der Bezahlversion, um ihn nutzen zu können.

Weil ich Claude nicht abonniert habe, habe ich mir den Faktenchecker für ChatGPT nachgebaut (Link). Ich weiß, da braucht man für die Nutzung auch ein Abo, aber ChatGPT haben mehr in der Bezahlversion als Claude.

Mein Faktenchecker ist noch nicht perfekt, aber liefert schon echt gute Ergebnisse. Die Anweisung "Faktencheck" und ein Link, ein Text oder eine Datei reichen für eine erste Übersicht zum Wahrheitsgehalt. Dann kann man tiefer gehen und wissenschaftliche Quellen, Datenbanken und Archive nutzen.

Wer den Faktenchecker für Mistral haben will, kann mir gern eine Mail schreiben oder mich auf LinkedIn kontaktieren. Und jetzt: Viel Spaß beim Fakten checken!

 

15. Januar 2026

Deutsche Gedenkstätten gegen KI-Fake-Bilder

Deutsche Gedenkstätten haben am 13.01.2026 einen Offenen Brief geschrieben. "Konsequentes Vorgehen gegen KI-generierte Holocaust-Verfälschungen auf Social-Media-Plattformen". (Link)

Darin warnen sie zurecht vor der massenhaften Verbreitung KI-generierter Holocaust-Bilder und frei erfundener NS-Geschichten in sozialen Medien. Die KI-Bilder und Videos setzen auf Emotionalisierung. Das Ziel sind nicht Bildungsarbeit und Aufklärung, sondern Klicks und Werbeeinnahmen. Die Folge sind Opfer-Täten-Umkehrungen, die Verwässerung historischer Fakten und Geschichtsrevisionismus.

Die Kritik ist vollauf berechtigt, doch sie hat Lücken.

Die Arbeit von Gedenkstätten und anderen Einrichtungen wird damit konterkariert, die Leidensgeschichten von Überlebenden und ihren Nachkommen werden ausgebeutet. Die Gedenkstätten fordern deshalb:


- ein pro-aktives Vorgehen der Plattformen gegen geschichtsverfälschende KI-Inhalte und Meldemöglichkeiten
- Ausschluss von Accounts von Monetarisierungsprogrammen
- Kennzeichnungspflicht für KI-generierte Inhalte
- Zusammenarbeit mit Experten

Das ist alles gut und richtig und dringend nötig.
ABER mir fehlt in diesem Offenen Brief einiges.

1. Es mangelt an einem "Wir selbst werden..."-Ansatz. Proaktiv müssen alle werden, nicht nur die Plattformen.

2. Es stellt sich die unbequeme Frage: Warum wirken emotionale Fake-Inhalte mehr als Originalmaterial? Liegt die Attraktivität der KI-Bilder "nur" an Emotionalisierung und den Algorithmen? Oder auch daran, dass historische Bildungsarbeit oft zu akademisch und zu unemotional daherkommt?

3. Welche Gegenmaßnahmen funktionieren (auf Social Media)? Positive Beispiele können zeigen, dass Gedenkstätten & Historiker Lösungen anbieten können.

4. Der Offene Brief nennt ein Problem, das viele fast täglich sehen. Aber was fehlt, sind Zahlen: Wie groß ist das Problem wirklich? Was sagen Studien zur Wirkung aufs Geschichtsverständnis? Erste Studien gibt es übrigens, z.B. hier, hier und hier .

Ergebnis der bisherigen Forschung:

- KI-Fake-Bilder von historischen Ereignissen führen zu false memories und politischer Polarisierung


- Menschen mit geringer Medien- und Geschichtskompetenz sind besonders anfällig


- KI-affine Teilnehmer erkannten Fälschungen klar besser (die Jüngeren waren oft besonders gut)


- es braucht KI-Bildung und Tool-Kenntnis fürs Erkennen der Fälschungen und Gegenmaßnahmen, dazu automatisierte Bildprüfungen usw.

IEs ist nur ein Gedanke, aber: Vielleicht muss man die KI-Fake-Bilder mit ihren eigenen emotionalen (aber nicht mit gefakten!) Mitteln bekämpfen.

 

 

14. Januar 2026

Eine kurze Geschichte der Künstlichen Intelligenz

Ich habe eine kleine, "illustrierte" Geschichte des Begriffs Künstliche Intelligenz (artificial intelligence) geschrieben. Das Ergebnis hat mich überrascht.

 

Die Geschichte beginnt bereits 1792 im Buch eines gewissen Proclus Diadochus:

The Philosophical and Mathematical Commentaries on the First Book of Euclid's Elements, to which are Added, a History of the Restoration of Platonic Theology, by the Latter Platonists; and a Translation from the Greek of Proclus's Theological Elements,

Bd. 2, London 1792. Dort ist auf S. 47 (wahrscheinlich) erstmals von "artificial intelligence" die Rede.

 

Aber ich will nicht zu viel verraten. Die ganze Geschichte ist auf meinen LinkedIn-Profil zu finden. Und hier gibt es sie als PDF-Datei. Viel Spaß damit.

 

13. Januar 2026

Als der Rock 'n' Roll mit der KI zu tanzen begann. Und warum alle verrückt dadurch wurden.

1955 wurde der Begriff "artificial intelligence" geprägt. Parallel entstanden noch mehr Wörter, die ein faszinierendes Bild von der Zukunft der Gegenwart zeichnen. Eine kleine Zeitreise...

Es ist bekannt, dass der Begriff "artificial intelligence" in dem Sinne, wie wir ihn heute verwenden, 1955 vom Logiker John McCarthy geprägt wurde. McCarthy verwendete ihn in einem Förderantrag für eine Konferenz. ("We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire.") Die Konferenz gilt gemeinhin als Initialzündung für die wissenschaftliche Beschäftigung mit KI.

 

Aber was passiert, so habe ich mich gefragt, wenn man einmal quer durch das Geburtsjahr des Begriffs "artificial intelligence" schneidet und sich anschaut, welche Begriffe im Jahr 1955 noch geprägt worden sind? Das Ergebnis ist faszinierend.

1955 ist das Jahr, in dem sich die moderne Welt als System zu beschreiben beginnt. Die Hochphase des Kalten Krieges spiegelt sich in der Sprache. Es geht ums Überleben, um Abschreckung, Kontrolle und Technik. 

1955 entstanden nämlich auch die Begriffe "computer science", "information science", "home computer", "data file" und "microminiaturization". Es ist, als würde man durch ein Zeitfenster aus der Lochkartenwelt in die Zukunft schauen. Tatsächlich aber sind diese Begriffe ein Kind ihrer Zeit, denn 1955 beherrschten Kybernetik und Systemtheorie die wissenschaftliche Agenda. Kein Wunder, dass der "technophile" 1955 erstmals sein Haupt hebt. Es ist das Jahr, in dem sich die moderne Welt als System zu beschreiben beginnt.

Doch dieses System ist verwundbar, genau wie die Menschen, weshalb die Begriffe "stress test", "fallout shelter" und "intensive care unit" geprägt werden. 

Auch in der Naturwissenschaft und der Industrie wird die Welt neu definiert. Begriffe wie "animal model", "base pair", "agribusiness" und "profit center" entstehen. Auch die "solar cell" scheint 1955 erstmals auf. Und wer's richtig heiß mag, erfeut sich am neuen "microwave ofen".

Technik, Biowissenschaften, Big Business und große Gefahr - fehlen nur noch das Militär und die mit ihm verbundene Raumfahrt. Und siehe da: 1955 ist auch ihr Jahr. Die Worte "aerospace", "special forces" und "cosmonaut" werden aus Buchstaben zusammengestanzt.

Die Hochphase des Kalten Krieges spiegelt sich in der Sprache. Es geht ums Überleben, um Abschreckung, Kontrolle und Technik. Doch wie immer ist die Gegenbewegung nicht weit. 1955 ist auch das Jahr von "do it yourself" und "New Left", die gemeinsam von "nonfossil" und "nonleaded" Treibstoffen träumen.

So gesehen ist es normal, dass parallel zur "artificial intelligence" auch das Wort "weirdo" entsteht. Für manch einen war der begrifflich wie musikalisch gleichzeitig entstehende "Rock 'n' Roll" bevölkert von solchen "Verrückten." Auch die Wissenschaft fand neue Begriffe und sprach von "schizoid personality disorder". Auch "intellectually disabled" taucht 1955 erstmalig auf.

Wenn es stimmt, dass Worte der Index von dem sind, was eine Gesellschft wahrnimmt, dann war 1955 ein sehr aufmerksames Jahr.

 

PS: Meine Quelle war die wunderbare "Zeitreise-Maschine" des Merriam-Webster-Dictionary (Link)

 

 

12. Januar 2026

 

12. Januar 2026

 

Als der Rock 'n' Roll mit der Künstlichen Intelligenz zu tanzen begann. Und warum alle verrückt dadurch wurden.
 

1955 wurde der Begriff "artificial intelligence" geprägt. Parallel entstanden noch mehr Wörter, die ein faszinierendes Bild von der Zukunft der Gegenwart zeichnen. Eine kleine Zeitreise...

Es ist bekannt, dass der Begriff "artificial intelligence" in dem Sinne, wie wir ihn heute verwenden, 1955 vom Logiker John McCarthy geprägt wurde. McCarthy verwendete ihn in einem Förderantrag für eine Konferenz. ("We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire.") Die Konferenz gilt gemeinhin als Initialzündung für die wissenschaftliche Beschäftigung mit KI.

Aber was passiert, so habe ich mich gefragt, wenn man einmal quer durch das Geburtsjahr des Begriffs "artificial intelligence" schneidet und sich anschaut, welche Begriffe im Jahr 1955 noch geprägt worden sind? Das Ergebnis ist faszinierend.

1955 entstanden nämlich auch die Begriffe "computer science", "information science", "home computer", "data file" und "microminiaturization". Es ist, als würde man durch ein Zeitfenster aus der Lochkartenwelt in die Zukunft schauen. Tatsächlich aber sind diese Begriffe ein Kind ihrer Zeit, denn 1955 beherrschten Kybernetik und Systemtheorie die wissenschaftliche Agenda. Kein Wunder, dass der "technophile" 1955 erstmals sein Haupt hebt. Es ist das Jahr, in dem sich die moderne Welt als System zu beschreiben beginnt.

Doch dieses System ist verwundbar, genau wie die Menschen, weshalb die Begriffe "stress test", "fallout shelter" und "intensive care unit" geprägt werden. 

Auch in der Naturwissenschaft und der Industrie wird die Welt neu definiert. Begriffe wie "animal model", "base pair", "agribusiness" und "profit center" entstehen. Auch die "solar cell" scheint 1955 erstmals auf. Und wer's richtig heiß mag, erfeut sich am neuen "microwave ofen".

Technik, Biowissenschaften, Big Business und große Gefahr - fehlen nur noch das Militär und die mit ihm verbundene Raumfahrt. Und siehe da: 1955 ist auch ihr Jahr. Die Worte "aerospace", "special forces" und "cosmonaut" werden aus Buchstaben zusammengestanzt.

Die Hochphase des Kalten Krieges spiegelt sich in der Sprache. Es geht ums Überleben, um Abschreckung, Kontrolle und Technik. Doch wie immer ist die Gegenbewegung nicht weit. 1955 ist auch das Jahr von "do it yourself" und "New Left", die gemeinsam von "nonfossil" und "nonleaded" Treibstoffen träumen.

So gesehen ist es normal, dass parallel zur "artificial intelligence" auch das Wort "weirdo" entsteht. Für manch einen war der begrifflich wie musikalisch gleichzeitig entstehende "Rock 'n' Roll" bevölkert von solchen "Verrückten." Auch die Wissenschaft fand neue Begriffe und sprach von "schizoid personality disorder". Auch "intellectually disabled" taucht 1955 erstmalig auf.

Wenn es stimmt, dass Worte der Index von dem sind, was eine Gesellschft wahrnimmt, dann war 1955 ein sehr aufmerksames Jahr.

 

 

10. Januar 2026

 

Macht KI uns dümmer? Oder schlauer? Wahrscheinlich sind das die falschen Fragen!

Die Studienlage wirkt(!) widersprüchlich.


1.) Viele Arbeiten zeigen: Mit KI schreiben Menschen bessere Texte, produzieren mehr Ideen, lösen Aufgaben schneller. Die Schlagworte, in diesem Zusammenhang völlig zurecht nennen, lauten "Upskilling" und "Newskilling" (nicht zu verwechseln mit "news killing" 🙃) Jedenfalls: Die Leistung steigt durch KI. Nicht überall und nicht bei allen gleich, denn bei Menschen mit mehr (KI-)Vorbildung steigt sie oft stärker, aber der Teufel scheißt nunmal auch in der digitalen Welt auf den größten Haufen.

2.) Andere Studien zeigen: Durch KI werden Menschen unkritischer, prüfen weniger nach, büßen Fähigkeiten ein. Das Schlagwort hier: Deskilling. Kompetenzverlust.

1 UND 2 sind gut belegt und stimmen auf ihre Weise. Aber die öffentliche Debatte (und hier auf LinkedIn) tut so, als gäbe es nur eine Frage: Macht uns KI schlauer oder dümmer? Das ist die falsche Frage, denn wenn man die Daten genau anschaut, lautet der Schluss: KI macht uns schlauer, aber auch insofern dümmer, dass wir seltener merken, wann unsere Leistung trügt.

Die Psychologen kennen das Phänomen. Sie nennen es Processing Fluency (PF). Heißt im Kern: Was sich leicht und reibungslos anfühlt, wirkt auf uns richtiger und besser begründet. Auch wenn es falsch ist. Oder wir gar nichts kapiert haben. Man denke an Erklärvideos: Man schaut sie und fühlt sich danach wissend, gerade bei komplexen Dingen. Aber wenn man das Thema später erklären muss, wird es dünn. Das ist als Explanatory Depth (ED) bekannt.

KI hat diesen Effekt und potenziert ihn. Die Ergebnisse wirken perfekt, die Analysen super gerechnet, die Texte sind rund und ohne Fehle.r
Früher sagte meine innere Stimme: "Ich kann es nicht erklären, also verstehe ich es nicht." Heute sagt sie: "Ich habe die Erklärung gelesen, also verstehe ich es.“

Bisher nahm unser Gehirn die Fluency als Signal für Qualität. "Da steckt viel Arbeit drin", sagte die Stimme. Aber jetzt, wo alles gut ist, verliert das Signal seine Funktion. PF + ED = OH JE !

Das "Verrückte" Upskilling und Fehlkalibrierung passieren gleichzeitig. Und genau hier liegt der Denkfehler der Debatte. Wir werden nicht "klüger" oder "dümmer". Wir werden leistungsfähiger bei schlechterer Selbsteinschätzung unserer Leistung.

Wir verlieren nicht Fähigkeiten, sondern unser Gefühl fürs eigene Nichtwissen.
Oder wie sich die Philosophen ausdrücken würden: KI beschädigt nicht unsere Intelligenz, sondern unsere epistemische Selbstdiagnostik.

Mit anderen Worten: KI verschiebt unseren Kompaß. Wir sind nicht mehr eingenordet, sozusagen. (Auch wenn Landkarten früher geostet, gewestet und gesüded waren. Aber das ist ein anderes Thema.) Jedenfalls macht uns KI zu schnell zufrieden und lässt unsere Maßstäbe bröseln. Und genau darin liegt die Gefahr.

 

 

8. Januar 2026

 

Perplexity.ai im Test: 22 Studien lassen den Hype bröckeln.
Das gefeierte KI-Tool verkauft Wissen und Gewissheit, liefert sie aber zu selten

Perplexity.ai wird von vielen gefeiert, weil es das liefert, was sie wollen: schnelle Antworten, sauber formuliert, mit Quellen versehen. Das wirkt wie tiefe Recherche, gesicherte Erkenntnis, großes Wissenschaftskino. Und genau darin liegt das Problem.

Es ist nicht so, dass Perplexity „Fake News“ ausspuckt. Es produziert etwas, das noch gefährlicher ist: falsche Sicherheit.

Ich habe 22 Studien zu Perplexity analysiert und auch meine eigenen Erfahrungen mit einfließen lassen.

Die Kritikpunkte zeichnen sich klar ab:


- Quellen werden von Perplexity oft nicht zuverlässig zugeordnet
- Zahlen werden genannt, sind aber zu oft nicht valide
- Synthesen klingen gut, haben aber alle Widersprüche in den Daten getilgt

Das Ergebnis von Perplexity klingen richtig gut. Aber sie sind oft nur eine Möglichkeit der Wahrheit. Gefühlte Wahrscheinlichkeiten. Oder genauer gesagt: Perplexity ersetzt strenge wissenschaftliche Logik durch wahrscheinlichkeitsbasierte, kohärent wirkende Texte. Nicht, weil es schlecht programmiert ist, sondern weil es nicht tief genug zu analysieren vermag, zu viel synthetisiert und in vielen Fällen nicht zwischen Plausibilität und Wahrheit unterscheidet.

Trotzdem (oder gerade deswegen) wirken die Antworten souverän, sachlich und wie fertige Wahrheiten. Deshalb, auch das zeigen die Studien, prüfen viele Nutzer nicht mehr nach. Die Folgen sind klar und empirisch valide: Verlust kritischer Prüfung der Ergebnisse und weniger Selbstreflektion, dafür ein übergroßes Vertrauen in die von der KI generierten Texte.

Ein wenig zugespitzt könnte man sagen: Perplexity ist kein schlechtes Werkzeug, aber es ist schlecht als Fundament für Entscheidungen.

Eine ausführliche Vorstellung der einzelnen Studien folgt später. Jetzt erstmal viel Spaß mit meiner kleinen Präsentation der Ergebnisse - gibt's hier als PDF oder als kleines "Karussell" auf LinkedIn.

 

 

7. Januar 2026

 

Wissens-Recherche mit KI: Schnell, klug, aber inhaltlich und methodisch blind?
 

Es wird viel darüber geredet, wie man mit KI-Tools Studien recherchiert und Wissen zusammenfasst. Aber :


1.)  nutzen viele für eine Wissensrecherche (nur) ChatGPT, Notebook LM & Co. und selbst die besten Prompts helfen da nur bedingt weiter
2.)  reichen selbst die Deep Research Möglichkeiten von ChatGPT und Co. nicht allzu weit und
3.)  reichen auch wissenschaftsspezifische KI-Tools wie Perplexity, Scispace und Elicit für eine umfassende Wissensrecherche nicht aus

Aber ich kann natürlich viel behaupten. Deshalb werde ich in den nächsten Tagen eine kleine Reihe starten und an konkreten Recherchebeispielen zeigen, wo die Grenzen und Probleme eine Recherche mit KI liegen? Zugleich will ich dabei auch demonstrieren wie sehr KI unser Wissen zwar erweitert, zugleich aber einengt, wenn wir nicht aufpassen und nur auf KI-Tools zu Recherche vertrauen?

Als Thema würde ich mir mal eine aktuelle Debatte empirisch zur Brust nehmen, nämlich die Frage: Macht uns KI dumm?

Das ist natürlich selbst eine ziemlich dumme Frage, deshalb neutraler und damit besser formuliert: Welche Auswirkungen hat die KI-Nutzung auf unsere Fähigkeiten und Kompetenzen? Gibt es empirische Hinweise darauf, dass die Nutzung von KI-Tools zu einem Abbau bestimmter kognitiver oder fachlicher Kompetenzen führt. Und wenn ja, wie sind diese Daten konkret einzuordnen, wie valide sind sie und wo sind Lücken in unserem Wissen zu diesem Thema?

Das erste KI-Tool, das ich teste, wird Perplexity sein.
 

 

4. Januar 2026

 

Von den Lügen, die wir uns im KI-Zeitalter übers Menschsein erzählen oder

"KI macht alles seelenlos!" Warum uns dieser Satz so gut gefällt - und was er eigentlich sagt


Jeder kennt das: Man entdeckt eine Band, die kaum einer kennt. Die Abrufzahlen ihrer Songs liegen auf Meeresspiegelniveau, Auftritte gibt's keine, und im Radio wird ihre Musik auch nicht gespielt. Aber geil sind die Songs trotzdem. Oder vielleicht gerade deswegen. Jedenfalls: man liebt diese Band.

Doch dann passiert's: Die Band wird bekannt. Die Abrufzahlen steigen, es gibt Auftritte, die Radiosender gehen in heavy rotation. Es gibt neue Platten, eine Tour, die ausverkauft ist. Und geradezu reflexhaft sagt man: „Früher waren sie besser. Ihre Musik ist jetzt zu glatt. Seelenlos.“

Die Psychologen kennen das Muster: Wenn ein Teil der eigenen Identität seine Exklusivität verliert, reagieren viele mit Abwertung. Und da ist es egal, ob sich die Sache (hier: die Musik) wirklich verändert hat, denn was zählt ist, dass sich die Funktion verändert hat. Nicht mehr Ich, sondern alle hören das jetzt. Und da steigt man aus.

„Kränkung“ nennt man das. Und genau dieser Mechanismus taucht im Zuge von KI wieder auf. Vor allem wenn es ums Schreiben, Musik machen und Zeichnen geht. Bisher brauchte man – zumindest besagte das die Meistererzählung – dafür viel Zeit, Muse und Kreativität.

Doch dank KI steht die Tür zum Kunstraum allen offen. Und alle kommen rein. Und malen und zeichnen und machen Musik. Das gefällt vor allem den Schreibern, Musikern, Malern & anderen Kreativen nicht. Was völlig verständlich ist, aber nichts an der Sache ändert: man ist gekränkt.

Aber man sagt nicht: die Akkorde der KI-Songs sind schlechter, die Kontraste der Bilder nicht fein abgestimmt, die Adjektive nicht gut gewählt. Nein, man sagt: es fehlt die Seele. Das Rauhe, Kantige: die Authentizität. Aber eigentlich sagt man: Ich bin nicht mehr Teil einer kleinen Gruppe.

KI ist der große Demokratisierer. Ein Killer der Exklusivität. Was natürlich eine Lüge ist. Aber egal. Die Kunst war jedenfalls trotz (oder gerade wegen) all der ideologischen Vereinnahmungen immer undemokratisch. Schreiben, Malen und Musizieren schien nur den Talentierten (oder sehr Fleißigen) vorbehalten zu sein. Der dahinter stehende Geniegedanke ist ein historisches Konstrukt, aber wirkmächtig. Bis heute. Als Gegenbewegung zu den als seelenlos geltenden KI-Produkten erlebt der Mensch als (angeblich) kritisch-kreativer Geist eine Renaissance.

Der Satz „KI macht alles seelenlos“ ist der gleiche wie „Die Band war früher besser.“ Es ist der Ausdruck einer Kränkung, die die Entwertung der eigenen Fähigkeiten nicht wahrhaben will. Ob die KI wirklich alles seelenlos macht, ist (mir) im Grunde egal. Es ist nicht die Frage, die ich mir stelle. Meine Frage lautet vielmehr: Wie verändert KI unser Selbstbild? Welche Zuschreibungen nehmen wir vor? Und wie viel Lüge steckt in den Geschichten, die wir uns übers Menschsein im KI-Zeitalter erzählen?
 

 

26. Dezember 2025

 

Statistik für Menschen, die Statistik eigentlich meiden (Teil 4 von 4)


Statistik ist heute so bequem wie noch nie - und das ist Teil der Lösung und des Problems zugleich. KI-gestützte Statistiktools wie excelmatic und julius leisten zwar in der Free-Version viel, aber ihre ganze Kraft entfalten sie erst im Abo. Es ist das bekannte Problem: KI erfordert Geld oder Zugehörigkeit zu einer Firma oder Organisation, die ein Budget dafür hat.

Auch der Datenschutz ist unklar. Welche Daten sensibel sind und welche nicht ist oft schwer zu entscheiden. Wenn ich die Tools in Hochschulen oder Firmen präsentiere, arbeite ich mit synthetischen Datensätzen. So lassen sich die Tools gefahrlos erproben. Trotzdem zeigt sich in der Praxis, dass Menschen diese und andere Tools auch einsetzen, wenn die Regeln es nicht zulassen.

Barbara Geyer hat das strukturelle Problem hinter dieser Schatten-KI-Nutzung gut beschrieben: An Hochschulen, aber auch an anderen Arbeits- und Lernorten, sind die Menschen befangen in einem Trilemma aus:
1.)  Funktionell schwachen eigenen KI-Systemen, die datenschutzkonform sind
2.)  kommerziellen, leistungsstarken KI-Tools, die datenschutzrechtlich umstritten und z.T. auch teuer sind und
3.)  fehlenden Vorgaben seitens der Arbeitgeber + Bildungseinrichtungen

Das Trilemma lässt sich nicht auflösen. Aber die Schatten-KI-Nutzung blüht auch, weil vielerorts Experimente mit dem Schlagwort „Datenschutz“ von vornherein verunmöglicht werden. Dabei ist DSGVO-Konformität kein Label, sondern das Ergebnis eines Prüfprozesses. Doch geprüft werden die Tools auf ihre DSGVO-Konformität oft nicht.

In diesen Zwickmühlen agieren auch die Statistik-KI-Tools. Sie machen zwar vieles leichter, aber sie agieren auf einem Feld, das von Unsicherheiten und Unkenntnis geprägt ist. Was also tun?

Ich selbst setze auf sensibilisieren, ausprobieren und gemeinsam über die Erfahrungen und Ergebnisse diskutieren. Auch wer keine Ahnung von Statistik hat, kann die Ergebnisse durch Einsatz mehrere Tools vergleichen, kann das Tool oder den Kursleiter fragen, was eine Regressionsanalyse, wie sich Mittelwert und Median unterscheiden usw.

Meine Erfahrung sagt, dass die Nutzung dieser Tools den Einstieg in Statistik erleichtert. Sie regen zur weiteren Beschäftigung an und bringen neue Erkenntnisse und Zugänge, nicht nur zu Daten, sondern zu Wissen und dem eigenen Fach und Arbeitsumfeld allgemein. Es muss "nur" fachkundig begleitet werden.

Wie geht ihr damit um? Kennt ihr Tools wie julius, excelmatic oder die Datenanalyse-Agenten von Mistral. Und wenn ja, nutzt ihr sie? Und wenn ihr sie nicht nutzt, woran liegt es? An Unkenntnis der Tools, Unsicherheiten wegen Datenschutz, weil ihr lieber auf die tradierte Statistikausbildung setzt oder weil ihr den Ergebnissen der Tools nicht traut? Ich bin gespannt, von euch zu hören.

 

25. Dezember 2025

 

Statistik für Menschen, die Statistik eigentlich meiden (Teil 3 von 4)


Statistik hatte bisher ein Imageproblem. Sie galt als knochentrocken und kompliziert, der Horror für Geisteswissenschaftler, Medienmacher & Marketingleute.

In diese Lücke stoßen KI-Tools wie julius.ai, excelmatic.ai und Co und versprechen Abhilfe. Und auf der Oberfläche der Ergebnisse liefern sie auch: statistische Analysen, Grafiken, Auswertungen. Doch je bequemer die Statistik wird, desto größer wird die Versuchung, sie nicht mehr verstehen zu müssen. Nicht Deskilling, sondern Gar-nicht-erst-Upskilling. Das ist ein generelles Problem, das KI in Hochschulen erzeugt.

Bisher scheitert Statistik jedenfalls nicht nur an fehlenden Mathekenntnissen, sondern auch und vor allem an Einstellungen und an der Frage, wozu um alles in der Welt man sich das antun soll. Und diese Frage stellen sich vor allem Geisteswissenschaftler, Medienmacher und Marketingleute.

Eine aktuelle Meta-Analyse (s.u.) von 29 Studien mit 5.000 Teilnehmern zeigt: klassische Statistikkurse bringen nichts. Die Leute lernen ein bisschen Statistik, bekommen dafür einen Schein – und ignorieren das Gelernte danach so lange, bis sie alles wieder vergessen haben. Oder sie können es in Studium und Beruf nicht anwenden, was denselben Effekt hat.

Das zeigt sich vor allem in den Geistes- und Gesundheitswissenschaften, also genau dort, wo Statistik oft kaum Platz hat und als modernes Übel gilt. Und warum: Weil der Mehraufwand als zu hoch empfunden wird im Vergleich mit dem, was bei rauskommt.


Und genau da kommen die KI-Tools ins Spiel, denn Statistik wird damit scheinbar leicht. Doch ein Risiko bleibt, denn das Verständnis für Zahlen und Analysen wächst nicht. Mehr noch: der Automation Bias greift jetzt. Heißt: Menschen tendieren dazu, automatisierten Systemen übermäßig stark zu vertrauen. Was die Statistik-KIs sagen klingt super, scheint rund, sieht dazu noch grafisch gut aus. Wird also stimmen.

Tut es in den meisten Fällen auch. Aber in welchen nicht? Wie kann man das prüfen, wenn man keine Ahnung von der Materie hat? Indem man die Ergebnisse mehrerer Tools miteinander vergleicht? Das wäre ein Ansatz, aber wer macht das? Kaum jemand.

Ein weiteres Risiko betrifft den Code unter der Haube: die Black Box, die wir alle immer vergessen. KI-gestützte Statistiktools generieren intern Python- u.a. Code. Aber machen sie das auch gut? Für julius.ai zeigen Studien, dass es funktioniert. (siehe Teil 2) Bei anderen Tools fehlen diese Daten noch.

Wie also weiter? Und was generell tun? Darum wird's im vierten und letzten Teil gehen.

Quelle: Pascual et al. (2025). Attitudes of University Students Toward Statistics as a Pathway to Data Literacy: A Meta-Analysis. Journal of Statistics and Data Science Education, 1-18.

https://doi.org/10.1080/26939169.2025.2475765

 

 

23. Dezember 2025

 

Statistik für Menschen, die Statistik eigentlich meiden (Teil 2 von 4)

Viele Menschen, die wegen fehlender Statistik-Kenntnisse bisher keine Daten auswerten konnten, können es durch spezielle KI-Tools jetzt. Die Folgen sind vielfältig und alles andere als trivial:

Geistes- und andere Wissenschaftler sind nicht mehr nur auf Texte angewiesen, sondern können auch Zahlen und große Datenmengen (und die gibt's) für ihre Analysen nutzen. Das vergrößert nicht nur den methodischen Werkzeugkasten, sondern auch die Art der Fragestellungen.

Das gleiche gilt für all jene, die irgendwas mit Medien machen, ihre Budget-Brötchen im Marketing backen oder sich in tausend anderen Bereichen durchwursteln. Sie alle können jetzt "Statistik machen".

Und siehe da: Die Analysen ergeben oft neue Einsichten und schaffen Verbindungen, wo bisher keine zu sehen waren. Doch da ist noch mehr: Weil das alles so schnell geht, profitieren auch jene, die sich mit Statistik zumindest grundlegend auskennen. Denn jetzt können auch kleinere Arbeiten, für die eine quantitative Analyse bisher zu viel Aufwand war, mit statistischen Analysen angereichert werden. KI erlaubt es hier ganz konkret, Kenntnisse zu skalieren.

Zudem machen die mitgelieferten Visualisierungen die Ergebnisse leicht kommunizierbar – nicht nur in der Wissenschaft und im Arbeitsumfeld, auch in der Öffentlichkeit, gegenüber Medien und Interessenten aller Art.

Auch sterbenslangweilige Aufgaben wie das Filtern und Bereinigen von Daten können jetzt automatisiert werden. So bleibt mehr Zeit für die eigentliche Arbeit (oder ein paar entspannte Stunden im Büro).

Jetzt fragen Sie sich: Und wie gut sind die Tools?

Meine anekdotische Evidenz aus eigenen Analysen und meinen Workshops in Unternehmen und Hochschulen sagt: ziemlich gut. Inzwischen gibt es auch erste Studien zu einzelnen Tools, z.B. zu julius.ai (Ich sollte die Leute von Julius AI nach einem kostenlosen Abo fragen 😊) Jedenfalls haben Forscher julius für statistische Analysen genutzt und ein paar Normalitätstests und Varianzanalysen durchgeführt, um die Verarbeitung quantitativer Daten zu testen. (Nebenbei bemerkt: Ich nutze julius auch qualitativ, wenn in Datensätzen neben Zahlen Texte in Form von Kommentaren vorkommen – und es funktioniert gut).

Die Studie von Chang (siehe unten) kommt jedenfalls zu dem Schluss: „dass Julius AI über außergewöhnliche Analysefähigkeiten verfügt [...] und sich als geeignetes Hilfsmittel für Forschende in quantitativen Studien eignet.“

Das alles klingt gut. Sehr gut sogar. Der Sound der Demokratisierung. Aber das ist nur die halbe Geschichte. Die andere Hälfte kommt in Teil 3 – das heißt: wenn ich die Weihnachtsgeschenke eingepackt habe 😊

Quelle: Chang, Yu-Chin: Applications of AI in Educational Research Series (IV): Application of Julius AI in Data Analysis and Visualization, in: Journal of Education Research; Taipei Iss. 370, (2025), S. 132-143. DOI: 10.53106/168063602025020370009

 

 

22. Dezember 2025

 

Statistik für Menschen, die Statistik eigentlich meiden (Teil 1 von 4)
oder: Ein bekanntes Problem, ein halbwegs bekanntes KI-Tool und eine unbekannte Studie

Ein Sprichwort, das gemeinhin Karl Valentin zugeschrieben wird, tatsächlich aber aus der Filmoper „Die verkaufte Braut“ stammt, besagt: „Kunst ist schön, macht aber viel Arbeit.“

Das gleiche gilt für Statistik. Das heißt: galt, denn inzwischen gibt es jede Menge KI-Tools, die einem die Arbeit abnehmen. Sie führen komplexe statistische Berechnungen durch, erklären die Ergebnisse in aller Breite und Tiefe und visualisieren sie in jeder erdenklichen Form.

Das ist nicht nur schön anzusehen, sondern hat auch was von der vielbeschworenen „Demokratisierung durch KI“, schließlich haben viele Menschen keine Statistikausbildung. Selbst grundlegende Kenntnisse sind Mangelware. Auch unter Akademikern. Die meisten Menschen begegnen statistischen Berechnungen wie der Bedienungsanleitung eines neuen Druckers: man ahnt, dass man sie besser lesen sollte, überfliegt ein, zwei Absätze – und wirft die Anleitung aus Frust in die Ecke, in der Hoffnung, dass es auch ohne geht.

Für gewöhnlich geht’s dann nur schief – und genau hier kommen die KI-Tools ins Spiel, denn die versprechen, dass jetzt nichts mehr schief gehen kann. Riesige Zahlenreihen, Excel-Tabellen – alles kann mit natürlicher Sprache analysiert und ausgewertet werden. Und das wird (zumindest von einigen) auch getan. KI-Tools senken die Hemmschwelle: Statistik wirkt weniger bedrohlich. Man kann „Statistik probieren“ ohne zu scheitern - und wirft Excel-, SPSS-, Python und andere (Hand)Bücher mit sieben Siegeln getrost in die Ecke.

Das Schöne ist: durch dieses natürliche, dialogorientierte und fehler­tolerante Arbeiten wird Statistik lernbar, denn die Tools erklären, was sie tun und wie die Ergebnisse zu bewerten sind. 

Die entscheidende Frage lautet aber nicht, ob diese Tools bequem sind (das sind sie), sondern ob sie wirklich was taugen?

Im Folgenden gibt es paar Antworten. Und einen kleinen „Transparenzhinweis“ vorweg: Meine eigenen Statistikkenntnisse würde ich als ganz gut beschreiben – für einen studierten Geisteswissenschaftler. Für einen Hardcore-Soziologen sind sie gewiss ausbaufähig.

Ich selbst nutze für Statistik, Datenanalysen und Visualisierungen vor allem julius.ai, greife aber auch gern auf Excelmatic (Neu Gls), einen (getunten) Datenanalysen-Agenten von Mistral AI und ein paar andere Tools zurück. Wenn's sensible Daten sind, ist Orange Data Mining eine gute Option.

Durch den parallelen Einsatz kann ich Ergebnisse vergleichen und mich dort, wo meine eigenen Kenntnisse an ihre Grenzen kommen, durch den Vergleich absichern, nachfragen, gegenchecken.

Aber was bringen diese Tools nun? Wie sehen die empirischen Erkenntnisse dazu aus? Das steht in Teil 2...

 

 

Wir benötigen Ihre Zustimmung zum Laden der Übersetzungen

Wir nutzen einen Drittanbieter-Service, um den Inhalt der Website zu übersetzen, der möglicherweise Daten über Ihre Aktivitäten sammelt. Bitte überprüfen Sie die Details in der Datenschutzerklärung und akzeptieren Sie den Dienst, um die Übersetzungen zu sehen.