von Ortrun Lenz
Solange wir es nur mit Alexa, Siri und der netten Stimme des Autonavis zu tun hatten, war die Welt noch einigermaßen in Ordnung. Wenn mein Bruder plötzlich rief: „Alexa, Licht an!“ musste ich immer ziemlich grinsen, während meine Schwägerin genervt die Augen verdrehte. „Sobald ich die Stereoanlage lauter drehen will, guckt er mich verständnislos an und sagt, dass Alexa das doch jetzt für uns erledigt“, berichtete sie. Der Mensch ist ein Gewohnheitstier. Seit Jahrzehnten greift er zum Lichtschalter oder zur Fernbedienung für den Fernseher, oder er guckt in Landkarten, wenn er irgendwo hinfahren will – okay, Letzteres ist jetzt schon länger her. Aber so fing’s an.
Im digitalen Zeitalter verändern sich die Machtverhältnisse tiefgreifend. Waren es früher vor allem Staaten, Institutionen und Religionen, die gesellschaftliche Normen und individuelle Lebensweisen prägten, so sind heute zunehmend Algorithmen, Plattformen und globale Konzerne wichtige Akteure, die Einfluss auf unsere Entscheidungen, Gedanken und sozialen Beziehungen nehmen. Diese neue Machtstruktur stellt uns vor eine entscheidende Frage: Was bedeutet das für einen säkularen Humanismus, der auf Selbstbestimmung, Mündigkeit und kritisches Denken baut?
Digitalisierung: Fortschritt oder Fremdbestimmung?
Noch nie war Wissen so zugänglich wie heute. Die Digitalisierung eröffnet ungeahnte Möglichkeiten zur Vernetzung, Kommunikation und Organisation. Sie kann Bildung demokratisieren, soziale Teilhabe fördern und marginalisierten Gruppen eine Stimme verleihen. Aus dieser Perspektive steht die digitale Revolution im Einklang mit den Idealen eines modernen Humanismus, der die Freiheit des Individuums und die Entfaltung seines Potenzials in den Mittelpunkt stellt.
Doch die Realität ist ambivalent. Unsere Aufmerksamkeit ist längst zu einer begehrten Handelsware geworden, unsere persönlichen Daten sind Rohstoffe in einer globalen Wirtschaft. Jede Interaktion im Netz hinterlässt Spuren – Klicks, Bewegungsmuster, Vorlieben – aus denen Profile erstellt werden, die unser Verhalten nicht nur vorhersagen, sondern zunehmend auch beeinflussen können. So prägen personalisierte Werbung, algorithmisch gesteuerte Empfehlungssysteme und Filterblasen subtil, aber effektiv, was wir sehen, lesen oder kaufen. Diese digitale Komfortzone ist jedoch oft eine schleichende Form der Entmündigung. Anstatt dass wir frei entscheiden, treffen Maschinen oft heimlich für uns die Auswahl.

Mündigkeit im Zeitalter der Plattformlogik
Im Zentrum des Humanismus steht das Ideal der Mündigkeit – das selbstständige Denken und Handeln eines Individuums. Immanuel Kant forderte: „Habe Mut, dich deines eigenen Verstandes zu bedienen.“ In der digitalen Welt müsste diese Forderung um eine weitere Dimension erweitert werden: „… und habe die Möglichkeit, dich nicht ausschließlich von algorithmischen Prozessen leiten zu lassen.“
Plattformen wie Google, Meta oder TikTok kontrollieren längst nicht nur den Zugang zu Informationen, sondern bestimmen auch, welche Inhalte sichtbar und relevant sind. Die Macht über Sichtbarkeit bedeutet Macht über Aufmerksamkeit, Meinungsbildung und letztlich auch soziale Realitäten. Wer sich dessen nicht bewusst ist, wird schnell zum Spielball dieser Mechanismen.
Der säkulare Humanismus setzt deshalb auf Aufklärung, kritische Bildung und Reflexion. Es genügt nicht, digitale Tools passiv zu nutzen. Vielmehr müssen Menschen die Funktionsweise der Technologien verstehen, um sich souverän darin bewegen zu können. Wer die Spielregeln nicht kennt, verliert seine Autonomie und wird zur Marionette in einer Welt der algorithmischen Kontrolle.
Künstliche Intelligenz: Wer programmiert die Moral?
Mit dem Einzug von generativer künstlicher Intelligenz (KI) stellen sich neue ethische und gesellschaftliche Herausforderungen. KI-Systeme produzieren nicht nur Informationen, sie übernehmen auch Entscheidungsfunktionen in sensiblen Bereichen wie Medizin, Justiz und Arbeitswelt. Dabei bleiben Fragen offen: Wem gehört das von KI erzeugte Wissen? Wer haftet für diskriminierende oder fehlerhafte Ergebnisse? Und welche Werte stecken eigentlich hinter diesen Systemen?
Freigeistige Organisationen, wie sie beispielsweise im Dachverband Freier Weltanschauungsgemeinschaften vereint sind, verteten ein humanistisches Weltbild. Ein humanistischer Ansatz fordert auch in puncto KI Transparenz, Mitbestimmung und Kontrolle. Technologie darf niemals Selbstzweck sein, sondern muss immer dem Menschen dienen. Der Glaube an eine neutrale Technologie ist trügerisch: Hinter jeder Programmierung stecken Annahmen über den Menschen, über Gesellschaft und darüber, was „normal“ oder „wünschenswert“ ist. Dies bedeutet, dass technische Entwicklung immer auch ethische Fragen mitdenken und gesellschaftlich legitimiert werden muss.
Es braucht daher eine ethisch fundierte Digitalkultur, die über traditionelle religiöse oder ideologische Normsysteme hinausgeht und eine gemeinsame Grundlage für den Umgang mit neuen Technologien schafft.
Datenschutz als Menschenrecht
Der Schutz der Privatsphäre ist nicht nur ein juristisches Detail, sondern Ausdruck der Würde und Selbstbestimmung des Menschen. In Zeiten, in denen „Big Data“ als Rohstoff gehandelt wird, wird der Kampf um Datenschutz zu einem Kampf um die Grundrechte des Individuums.
Ein säkularer Humanismus muss hier klar Stellung beziehen: gegen Totalüberwachung, manipulative Designtricks („Dark Patterns“) und die schleichende Aushöhlung der Freiheit durch ökonomische Interessen. Der Mensch darf nicht zum gläsernen Konsumenten verkommen, sondern muss als denkendes, fühlendes und moralisch verantwortliches Wesen respektiert werden.
Dabei geht es nicht nur um den Schutz vor staatlicher Überwachung, sondern auch um eine kritische Haltung gegenüber Unternehmen, die durch Ausbeutung von Daten Macht aufbauen und Menschen systematisch beeinflussen.

Digitale Souveränität beginnt bei der Bildung – mehr denn je
Digitale Mündigkeit ist eine zentrale Voraussetzung dafür, in der modernen Welt frei und selbstbestimmt zu leben. Die Fähigkeit, Informationen kritisch zu hinterfragen, zwischen verlässlichen und manipulativen Inhalten zu unterscheiden und die Funktionsweise digitaler Technologien zu verstehen, basiert in erster Linie auf Bildung. Ohne ein grundlegendes Verständnis der digitalen Welt sind Menschen hilflos gegenüber den subtilen Steuerungsmechanismen, die hinter Algorithmen, sozialen Medien und Künstlicher Intelligenz stehen.
Medienbildung ist deshalb nicht nur eine technische Fähigkeit, sondern eine gesellschaftliche Notwendigkeit. Sie sollte fester Bestandteil des Schulsystems sein und auch Erwachsene erreichen – zum Beispiel durch öffentliche Informationsangebote, Workshops oder leicht zugängliche Lernformate.
Denn Bildung befähigt Menschen, aktiv und kritisch mit der digitalen Welt umzugehen: zu erkennen, wie Filterblasen funktionieren, was personalisierte Werbung bezweckt und welche Daten sie freiwillig oder unfreiwillig preisgeben. Nur so kann der Einzelne seine Rechte wahren und bewusste Entscheidungen treffen – für oder gegen bestimmte digitale Dienste, für den Schutz der Privatsphäre und für eine ethische Nutzung von Technologien.
Künstliche Intelligenz: Risiken und gesellschaftliche Herausforderungen
Doch Bildung allein reicht nicht, um den Herausforderungen der Digitalisierung zu begegnen. Künstliche Intelligenz, insbesondere in ihrer immer weiter entwickelten Form als „generative KI“, wirft neue Fragen und Probleme auf, die weit über technische Fragen hinausgehen.
Ein gravierendes Problem ist die Tatsache, dass KI-Systeme oft Vorurteile reproduzieren oder gar verstärken. Diese Systeme lernen aus großen Datensätzen, die die Realität widerspiegeln – und die leider häufig diskriminierende Muster enthalten. So wurde mehrfach gezeigt, dass Gesichtserkennungssoftware Menschen mit dunkler Hautfarbe schlechter erkennt als weiße Menschen. In der Justiz können Algorithmen unbewusst rassistische Tendenzen zeigen, indem sie bestimmten Gruppen höhere Rückfallwahrscheinlichkeiten zuweisen, basierend auf historischen Daten.
Auch Geschlechterdiskriminierung ist ein bekanntes Problem: Einige KI-Systeme benachteiligen Frauen, zum Beispiel bei Bewerbungsverfahren oder bei der Spracherkennung, die auf männlichen Stimmmustern trainiert wurde. Sprachmodelle erzeugen gelegentlich sexistische oder stereotypische Inhalte, was tief sitzende gesellschaftliche Ungleichheiten reflektiert.
Diese Beispiele zeigen: KI ist keine neutrale Technologie, sondern trägt die gesellschaftlichen Vorurteile in sich, auf denen sie basiert. Das macht Transparenz, Kontrolle und eine ethische Gestaltung von KI-Systemen unerlässlich. Ein humanistischer Umgang mit KI muss sicherstellen, dass sie diskriminierungsfrei, gerecht und verantwortungsvoll eingesetzt wird.

Bildung als Schlüssel zu digitaler Ethik und Verantwortung
Bildung muss daher nicht nur technische Kompetenzen vermitteln, sondern auch ethische Reflexion fördern. Es reicht nicht, zu wissen, wie man eine App bedient oder Daten schützt – es gilt auch, die Auswirkungen digitaler Technologien auf Gesellschaft, Demokratie und Menschenwürde zu verstehen.
Humanistische Bildungsansätze können helfen, ein Bewusstsein dafür zu schaffen, dass Technologie immer in einem sozialen Kontext entsteht und genutzt wird. Nur so kann eine kritische Öffentlichkeit entstehen, die Innovationen mitgestaltet und Missbrauch verhindert.
Diese Bildung sollte interdisziplinär sein: Technik, Ethik, Sozialwissenschaften und Recht müssen zusammengebracht werden, um umfassende digitale Mündigkeit zu fördern. Es braucht Räume, in denen junge Menschen und Erwachsene lernen, Fragen zu stellen wie: Wer steckt hinter dem Algorithmus? Welche Interessen werden vertreten? Wie kann ich meine Daten schützen? Wie erkenne ich manipulierte Informationen?
Humanistische Verantwortung und gesellschaftliches Engagement
Darüber hinaus sind auch humanistische Organisationen, zivilgesellschaftliche Gruppen und Bildungseinrichtungen gefordert, ihre Rolle als Vermittler von digitaler Bildung und Ethik wahrzunehmen. Sie können Workshops anbieten, Plattformen schaffen, die sich an humanistischen Werten orientieren, und eine kritische Öffentlichkeit fördern.
Nur mit einer breiten gesellschaftlichen Beteiligung kann verhindert werden, dass die Digitalisierung ein neues Mittel der Fremdbestimmung und Ausgrenzung wird. Der Humanismus des 21. Jahrhunderts steht deshalb in der Verantwortung, nicht nur für technologische Innovation zu werben, sondern auch für digitale Gerechtigkeit, Freiheit und Menschenwürde einzutreten.
Literatur:
„Künstliche Intelligenz – eine Herausforderung für moderne Gesellschaften“ Freie Akademie Band 43, Berlin 2025
Paul Kurtz: „Verbotene Früchte – Ethik des Humanismus“, Neu-Isenburg 1998
Bretschneider/Eschke: „Humanismus, Menschenwürde und Verantwortung in unserer Zeit“, Neu-Isenburg 2004


0 Kommentare
Trackbacks/Pingbacks