Was ist Wahrheit? Was ist Lüge? Und wem oder was ist in Zeiten von Fake News noch zu trauen? Diesen Fragen ging die 35. Bamberger Hegelwoche zwischen dem 3. und 5. Juni 2025 auf den Grund. An allen drei Abenden fanden sich zahlreiche Philosophieprofis, Studierende und Hobbyphilosophinnen und -philosophen in der AULA der Otto-Friedrich-Universität ein, um den Vorträgen zu lauschen.

Die Menschen verbringen mittlerweile enorm viel Zeit im digitalen Raum, wie Prof. Dr. Christian Illies, Inhaber des Lehrstuhls für Philosophie II der Universität Bamberg und Organisator der Hegelwoche, bei seinen einführenden Worten feststellte. Und nicht alle Informationen, mit denen der Mensch konfrontiert wird, sind wahr. „Besonders in der politischen Arena erleben wir täglich, wie mit Wahrheit, Lüge und Internet umgegangen wird. Anders ausgedrückt: Die Lüge wird als rhetorisches Mittel eingesetzt oder zur Meinungsfreiheit verpackt“, sagte Bambergs Oberbürgermeister Andreas Starke. Dies mache der politischen Kultur zusehends zu schaffen. „Im Grundgesetz steht: ,Die Parteien wirken bei der politischen Willensbildung des Volkes mit‘. In der Realität müssen wir aber feststellen, dass viele Menschen die Prozesse der politischen Willensbildung so anstrengend finden, dass sie sich lieber mit Informationen im Netz bombardieren lassen, die sie weder überprüfen noch einordnen können. Die digitale Kommunikation macht es den Parteien immer schwieriger, ihre Aufgabe wahrzunehmen“, so Starke weiter in seiner Begrüßungsrede zur 35. Hegelwoche. Sie findet jährlich in Kooperation von Universität und Stadt Bamberg sowie der Mediengruppe Oberfranken statt.


Wahrheit ist immer nur vorläufig
Was kann dagegen helfen? Etwa eine Art Medienaufsicht, die gegen Informationsmanipulation, Hass und Hetze vorgeht, wie es die neue Bundesregierung in Aussicht gestellt hat? Nein, meinte Prof. Dr. Konrad Liessmann, österreichischer Philosoph und Publizist und Gast am ersten Abend der Hegelwoche: „Wahrheit gehört nicht zum Wissen von Regierungsbehörden.“ Dass Fakten amtlich beglaubigt werden könnten, sei eine Fiktion. Vielleicht kann statt eines “Wahrheitsministeriums” aber helfen, sich die Frage nach Wahrheit und Lüge neu zu stellen – auch in der Philosophie. Dafür ist zunächst eine Begriffsdefinition von Wahrheit und Lüge notwendig. Für Ersteres hatte Illies direkt eine Definition parat: „Wahrheit ist, was sich stimmig auf die Wirklichkeit bezieht.“ Näher führte es Konrad Liessmann aus: Als Mensch könne man sich der Wahrheit immer nur annähern. Nicht einmal die Beschreibung einfachster Dinge sei einfach. Sprache sei kein Instrumentarium, um die Wirklichkeit angemessen zu beschreiben, denn sie sage zwar Richtiges, aber nie Vollständiges. Wahrheit könne also immer nur vorläufig sein. Im wissenschaftlichen Sinn handelt es sich bei der Wahrheit zum Beispiel immer nur um das aktuell am besten begründete Vermutungswissen. Im historischen Sinne hielt sich Liessmann an Hegel: „Das Wahre ist das Ganze. Das Ganze aber ist nur das durch seine Entwicklung sich vollendende Wesen.“ Nachdem die Menschheitsgeschichte nicht abgeschlossen sei, könne auch die historische Wahrheit lediglich eine vorläufige Wahrheit sein. Insgesamt müsse man mit dem Begriff der Wahrheit also vorsichtig umgehen.

Unrichtigkeitsvermutung statt Wahrheitsunterstellung
Wie steht es nun um die Lüge? Liessmann stellte fest, dass nicht alles Unwahre gleich eine Lüge ist. Lüge habe ein Ziel – entweder einen eigenen Vorteil oder einen Schaden anderer. Dafür müsse der Lügner aber die Wahrheit kennen. Eine wirklich gute Lüge, die andere nicht durchschauen können, ist eine große Kunst und sehr anstrengend. Liessmann meinte, dass Menschen zwar keinen Hang zu Wahrheit hätten, einfach, weil es die absolute Wahrheit gar nicht gebe. Aber die meisten Menschen seien zu faul, um zu lügen. Das wirklich Gefährliche sei aber, dass es mit den Sozialen Medien und Künstlicher Intelligenz (KI) selbst den Faulen einfach gemacht werde, zu lügen. Inzwischen könne man mit KI zum Beispiel ganz einfach Stimmen imitieren oder gefälschte Bilder erstellen. Früher hätte das enorm viel Zeit und Arbeit gekostet – insbesondere, wenn die Lüge nicht auffallen soll. Konrad Liessmann plädierte daher in Anlehnung an den Schweizer Medienjuristen Mischa Senn dafür, den Botschaften in den Sozialen Medien nicht mit einer Wahrheitsunterstellung, sondern mit einer Unrichtigkeitsvermutung zu begegnen. So könnten wir uns gegen die Zumutungen der Plattformen, Algorithmen, Bots und Influencer wehren.
Menschen denken in Geschichten

Am zweiten Abend ging es weg von der „gewussten Wahrheit“ und hin zur „gefühlten Wahrheit“, hin zu Emotionen und welche Rolle diese für die Wahrheit spielen: Prof. Dr. Fritz Breithaupt lehrt und forscht an der Indiana University Bloomington in den USA im Bereich Literatur-, Kultur- und Kognitionswissenschaften und führte die Zuhörerinnen und Zuhörer ein in Fragen des narrativen Denkens. Narratives Denken ist ein kognitiver Prozess, bei dem der Mensch Informationen und Erfahrungen in Form von Geschichten strukturiert und verarbeitet, um Sinn und Bedeutung zu erzeugen. Geschichten sind für den Menschen Erkenntnis- und Darstellungswerkzeug. Am Experimental Humanities Lab untersucht Fritz Breithaupt unter anderem, wie Menschen Wissen verarbeiten. Dafür nutzt er eine Methode, die genauso funktioniert wie das Spiel Stille Post – in der Wissenschaft nennt sich das serielle Reproduktion. Bei dieser Methode werden Informationen von einer Person zur nächsten in einer Kette weitergegeben. Forschende können so erfassen, welche Informationen einer Geschichte bei der Weitergabe erhalten bleiben und welche sich wie verändern.
Emotionen wichtiger als Fakten

Breithaupts Erkenntnis aus seinen Forschungen: Menschen kondensieren Geschichten, die ihnen erzählt werden, auf Emotionen. „Beim späteren Nacherzählen erinnern wir vor allem die Emotion und konstruieren darum die Geschichte“, erläuterte Breithaupt. Emotionen bleiben also stabil, Fakten verändern sich. Doch warum ist das so? Breithaupts These ist, dass Emotionen die Belohnung für das narrative Denken des Menschen sind. Emotionen wie Triumph, erotische Erfüllung, Genugtuung, Rührung oder Lachen können eine solche Belohnung sein. Das narrative Denken bietet dem Menschen einerseits den evolutionären Vorteil gegenüber anderen Lebewesen, Situationen wieder- und mitzuerleben. Andererseits gibt es eine dunkle Seite des narrativen Denkens, wie Breithaupt in seinem Vortrag feststellte. Populistische oder falsche Aussagen von Politikerinnen und Politikern wie Alice Weidel oder Donald Trump, die sich dank des Internets rasch verbreiten, haben ebenfalls das Potential, in Menschen Emotionen auszulösen, die einen Belohnungscharakter haben. Zudem können Geschichten bestimmte Perspektiven und Interpretationen hervorheben, die nicht unbedingt der objektiven Realität entsprechen, wenn dem Menschen ja vor allem Emotionen und nicht die Fakten einer Geschichte im Gedächtnis bleiben. Welche Lösung bot Breithaupt für das Problem? Er plädierte dafür, dass Menschen lernen müssen, eine gesunde Skepsis an den Tag zu legen und ihren eigenen Narrativen nicht uneingeschränkt zu glauben.
Soziale Medien in den Fängen digitaler Oligarchen und krimineller Akteure

Dr. Veronika Solopova bot am dritten Abend der Hegelwoche weitere Lösungsvorschläge an. Zunächst ging sie aber ganz konkret auf die Gefahren ein, die das Internet und insbesondere Soziale Medien heute bereithalten. Solopova forscht am Lehrstuhl für AI Systems Engineering an der Technischen Universität Berlin vor allem zu Sprachverarbeitung, sozialer Medienanalyse und automatischer Inhaltsmoderation. Als zwei zentrale Gefahren identifizierte sie in ihrem Vortrag die digitale Oligarchie, also die Konzentration der Macht im digitalen Sektor auf wenige Unternehmen, sowie FIMI. FIMI steht für Foreign Information Manipulation and Interference, also manipulative Kampagnen klassischer und digitaler Medien durch ausländische Akteure. Doch es sind nicht nur die Eigentümer der Plattformen oder böswillige Akteurinnen und Akteure, die zum Problem geworden sind, sondern die gesamte Technologie selbst, wie Solopova beschrieb: „Plattformen haben die Macht, den sozialen und öffentlichen Diskurs durch Design, Algorithmen und wirtschaftliche Macht strukturell zu verändern – und sie machen von dieser Macht auch Gebrauch.“ Es entstehen Phänomene wie Echokammern, sogenannte Filter Bubbles oder Feedbackloops. Gemeinsam ist ihnen, dass sie dazu führen können, dass bestehende Überzeugungen und Vorurteile bestärkt werden und dass alternative Informationen ausgeblendet werden. Und sie sind durch algorithmische Prozesse geprägt, die bestimmen, welche Informationen Nutzende sehen. Die laut Solopova aktuell am gefährlichsten und am weitesten verbreiteten Algorithmen sind jene, die auf Deep Reinforcement Learning basieren. „Es handelt sich dabei um ein System, das anhand von Millionen unserer Klicks selbst lernt, was für das Geschäftsmodell am besten ist, um jedem einzelnen Nutzer Inhalte zu empfehlen“, erläutert Solopova. Das führe zu extrem personalisierten Inhaltsströmen, die die Nutzenden in engen Glaubensräumen gefangen halten. Hinzu komme jetzt das nächste große Problem: die bahnbrechenden Möglichkeiten der generativen KI, die nicht alle nur positiv sind. KI ermögliche Fälschungen von Bild und Ton in einem nie dagewesenen Ausmaß, sie verstärke Vorurteile und falle Informationsmanipulationskampagnen, wie etwa dem sogenannten LLM-Grooming zum Opfer. Darunter versteht man den gezielten versuch, KI-Modelle mit Desinformation zu füttern, damit sie später falsche Narrative weiterverbreiten.
Institutionen unterstützen, die für Wahrheit stehen

Wie können wir uns wehren? Konrad Liessmann schlug am ersten Abend der Hegelwoche aus philosophischer Sicht vor, mit einer Unrichtigkeitsvermutung an Beiträge in Sozialen Medien heranzugehen. Fritz Breithaupt schlug am zweiten Abend aus kognitionswissenschaftlicher Sicht vor, Narrative zu hinterfragen. Veronika Solopova entwickelt in ihrer Forschung digitale Werkzeuge, die Menschen dabei helfen können, Lüge und Wahrheit zu unterscheiden: „Zum Beispiel haben wir ein System entwickelt, das bei neuen Behauptungen automatisch nach ähnlichen, bereits geprüften Faktenchecks sucht. Denn viele Falschmeldungen sind in Wahrheit schon bekannte Lügen“, erläuterte die Wissenschaftlerin. Sie hat zudem das Programm Check News in 1 Click entwickelt – ein Tool, mit dem Nutzende Artikel in mehreren Sprachen auf Hinweise von Manipulation und Propaganda untersuchen können. Außerdem arbeitet sie an erklärbarer Deepfake-Erkennung. „Dabei heben wir die manipulierten Bildbereiche in Videos oder auf Fotos hervor.“ Solopova betonte, dass sie mit ihrer Arbeit nicht alleine ist. Es gibt zahlreiche Menschen und Institutionen, die versuchen, Lösungen für die Probleme zu suchen. Das wurde auch bei allen drei Vorträgen der Hegelwoche deutlich. Solopova plädierte deshalb dafür: „Es ist wichtig, dass wir Institutionen unterstützen, die für Wahrheit stehen und Fakten schaffen. Dazu zählen Universitäten, investigative Journalistinnen und Journalisten, Faktenchecker und lokale Reporterinnen und Reporter.“ So konnte die Hegelwoche in diesem Jahr einige Lösungsansätze für die großen offenen Fragen rund um Wahrheit und Lüge in Zeiten des Internets bieten.