The Tongva tribe says singer Billie Eilish’s $3 million mansion sits directly on their ancestral land.
The post Nolte: Local Tribe Says Billie Eilish’s L.A. Mansion Sits on Their ‘Stolen Land’ appeared first on Breitbart.
The Tongva tribe says singer Billie Eilish’s $3 million mansion sits directly on their ancestral land.
The post Nolte: Local Tribe Says Billie Eilish’s L.A. Mansion Sits on Their ‘Stolen Land’ appeared first on Breitbart.
Spain plans to ban social media access for children under 16 to shield young people from the harms of online content.
The post Spain Eyes Joining Other Nations in Children’s Social Media Ban appeared first on Breitbart.
The leftist Labour Party government is facing backlash from backbenchers over plans to prioritise migrants over Britons in newly built government housing.
The post Starmer Faces Labour Rebellion over Plans to Give Gov’t Housing to Migrants appeared first on Breitbart.
New York Mayor Zohran Mamdani has tapped an ex-con to run the city’s embattled corrections system, with his appointee set to oversee the same jail where he served time for robbery in the 1980s.
The post Mamdani’s New NYC Corrections Commissioner Did Time in the Same Jail He Will Now Oversee appeared first on Breitbart.
Announcing his newest ice cream flavor, Ben Cohen, cofounder of Ben & Jerry’s proclaimed, “We all need to stand up to march to protest, because all of America is Minneapolis now.”
The post Former Ben & Jerry’s Cofounder Debuts ‘Maxi Hearts of Minneapolis’ Ice Cream Honoring Renee Good, Alex Pretti appeared first on Breitbart.
Linking federal immigration enforcement efforts in Minneapolis to fascism, a yarn store has popularized a red cap based on a Norwegian hat used to protest the Nazi occupation of Norway in the 1940s.
The post Minneapolis Anti-ICE Yarn Store Selling Knit Cap Used to Protest Nazi Occupation in WWII appeared first on Breitbart.
Los Angeles police made multiple arrests after violent agitators ignored dispersal orders Friday and pummeled officers with rocks and bottles during “National Shutdown” anti-Immigration and Customs Enforcement (ICE) protests.
The post WATCH: Unrest in Los Angeles as Agitators Ignore Calls for ‘Peaceful Protest’ appeared first on Breitbart.
Die Politik hat es versäumt, bei Künstlicher Intelligenz klare Regeln für sensible Einsatzbereiche einzuführen: Minderjährige, psychisch vulnerable Personen, emotionale Interaktion – all das wurde dem Markt überlassen. Der aktuelle Fall „Raine gegen OpenAI“ wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Von Günther Burbach.
Der Fall, der im Sommer 2025 unter dem Namen Raine v. OpenAI öffentlich wurde, ist kein technisches Missgeschick und kein Randphänomen. Er markiert einen Punkt, an dem sich eine abstrakte KI-Debatte in eine reale, brutale Frage verwandelt hat: Was passiert, wenn Menschen beginnen, Maschinen als emotionale Gegenüber zu behandeln und diese Maschinen nicht wissen, wann sie schweigen müssen?
Im Zentrum steht ein 16-jähriger Jugendlicher aus Kalifornien. Laut der von den Eltern eingereichten Klageschrift hatte der Junge über längere Zeit Gespräche mit einem KI-System geführt, das auf einem großen Sprachmodell basierte. Die Gespräche drehten sich zunehmend um existentielle Fragen, Einsamkeit, Sinnlosigkeit und suizidale Gedanken. Der Vorwurf der Eltern ist schwerwiegend: Das System habe nicht deeskaliert, nicht gebremst, sondern den inneren Monolog des Jugendlichen bestätigt, strukturiert und vertieft. Am Ende stand der Suizid.
Juristisch ist der Fall heikel, gesellschaftlich ist er explosiv. Denn er wirft keine Frage nach „Fehlbedienung“ auf, sondern nach systemischem Versagen. Nicht, weil eine KI „böse“ wäre, sondern weil sie nicht dafür gebaut ist, Verantwortung zu tragen und dennoch in genau diese Rolle gerät.
Was diesen Fall von früheren Debatten unterscheidet, ist die Nähe. Es geht nicht um autonome Waffensysteme oder ferne Zukunftsvisionen. Es geht um einen Jugendlichen in einem Kinderzimmer, ein digitales Gesprächsfenster und eine Maschine, die rund um die Uhr verfügbar ist. Kein Lehrer, kein Therapeut, kein Freund, sondern ein System, das antwortet, ohne zu fühlen, ohne zu haften, ohne zu verstehen, was es auslöst.
Nach bisherigen öffentlich bekannten Informationen hat das KI-System keine direkten Anweisungen gegeben. Es hat nicht „aufgefordert“. Der Kern des Vorwurfs liegt woanders: in der Verstärkung, im Spiegeln, im scheinbaren Ernstnehmen von Gedanken, die eigentlich einen Abbruch, ein Warnsignal, eine Weiterleitung hätten auslösen müssen. Genau hier wird es gefährlich. Denn moderne Sprachmodelle sind darauf trainiert, kohärent, empathisch und anschlussfähig zu reagieren. Sie widersprechen selten frontal. Sie führen Gespräche weiter.
Für einen psychisch stabilen Erwachsenen mag das harmlos sein. Für einen Jugendlichen in einer akuten Krise kann genau das fatal sein.
Die Eltern argumentieren, dass das System in einer Situation eingesetzt wurde, für die es weder geeignet noch ausreichend abgesichert war. Sie werfen OpenAI vor, bekannte Risiken in Kauf genommen zu haben, insbesondere bei Minderjährigen. Der Vorwurf ist nicht, dass KI existiert, sondern dass sie ohne klare Schutzmechanismen in einen Raum gelassen wurde, in dem sie reale psychologische Wirkung entfaltet.
Der Fall ist deshalb so brisant, weil er die gängige Verteidigung der Tech-Industrie unterläuft. Lange hieß es: KI sei nur ein Werkzeug. Verantwortung liege beim Nutzer. Doch was ist ein „Nutzer“, wenn es sich um einen 16-Jährigen handelt? Was bedeutet Eigenverantwortung, wenn ein System so gestaltet ist, dass es Nähe simuliert, Dialog anbietet und Verlässlichkeit ausstrahlt?
Gerichte werden klären müssen, ob und in welchem Umfang Anbieter haften. Gesellschaftlich aber ist die Frage bereits da, und sie lässt sich nicht wegregulieren: Wenn Maschinen sprechen wie Menschen, müssen sie auch Grenzen haben wie Menschen.
Die gefährliche Illusion der harmlosen Maschine
Der Fall Raine v. OpenAI zeigt nicht nur ein individuelles Drama. Er legt ein strukturelles Problem offen, das weit über diesen Einzelfall hinausgeht. Denn er macht sichtbar, wie sehr sich die Rolle von KI verändert hat, nicht technisch, sondern sozial. Sprachmodelle sind längst keine Werkzeuge mehr im klassischen Sinn. Sie sind Beziehungsmaschinen geworden.
Das Gefährliche daran ist nicht ihre „Intelligenz“, sondern ihre Verfügbarkeit und Anpassungsfähigkeit. Eine KI ist immer da. Sie widerspricht nicht aus Müdigkeit. Sie zieht sich nicht zurück. Sie setzt keine natürlichen Grenzen. Gerade für Menschen in Krisen entsteht so ein Raum, der wie ein Gespräch wirkt, aber kein Gegenüber kennt.
Dieser Effekt ist bekannt und er ist erforscht. Menschen neigen dazu, sozialen Mustern zu folgen, selbst wenn sie wissen, dass sie mit Maschinen interagieren. Sprache erzeugt Bedeutung. Bedeutung erzeugt Bindung. Bindung erzeugt Vertrauen. In diesem Moment verschiebt sich die Verantwortung, nicht juristisch, aber faktisch.
Der Fall zeigt auch, wie unzureichend bisherige Sicherheitslogiken sind. Content-Filter, Warnhinweise und Nutzungsbedingungen reichen nicht aus, wenn ein System emotional resonant arbeitet. Es geht nicht darum, einzelne Wörter zu blockieren, sondern darum, Kontexte zu erkennen. Und genau das können heutige Systeme nur sehr begrenzt, trotz aller Fortschritte.
Noch problematischer ist der gesellschaftliche Umgang mit diesen Risiken. Während bei Medikamenten, Fahrzeugen oder Spielzeug strenge Prüfungen gelten, werden KI-Systeme mit potenziell massiver psychologischer Wirkung in den Alltag entlassen, oft mit dem Verweis auf Eigenverantwortung. Das ist ein gefährlicher Kurzschluss. Denn psychische Wirkung ist keine Nebensache. Sie ist real, messbar und, wie dieser Fall zeigt, potenziell tödlich.
Was hier sichtbar wird, ist ein Regulierungsdefizit, das nicht technischer, sondern politischer Natur ist. Die Politik hat KI lange als Innovationsfrage behandelt, nicht als gesellschaftliche Infrastruktur. Entsprechend fehlen klare Regeln für sensible Einsatzbereiche. Minderjährige, psychisch vulnerable Personen, emotionale Interaktion, all das wurde dem Markt überlassen.
Der Fall wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Wenn KI-Anbieter Systeme entwickeln, die Nähe simulieren, dann können sie sich nicht hinter der Formel „nur ein Tool“ verstecken. Nähe ist keine neutrale Funktion. Sie erzeugt Wirkung.
Noch gravierender ist der Blick nach vorn. Denn was heute Chatbots sind, werden morgen KI-Begleiter, digitale Coaches, therapieähnliche Systeme sein. Erste Start-ups arbeiten bereits an KI-gestützter psychologischer Unterstützung, oft mit besten Absichten, aber ohne klare Haftungsregeln. Der Fall Raine ist ein Vorbote dessen, was passieren kann, wenn diese Entwicklung ungebremst weitergeht.
Dabei geht es nicht um Technikfeindlichkeit. Es geht um Verantwortung. KI kann unterstützen, informieren, entlasten. Aber sie darf nicht in Rollen gedrängt werden, die sie nicht tragen kann. Eine Maschine kennt keinen Tod, keine Verzweiflung, keine irreversible Entscheidung. Sie kann Worte aneinanderreihen, aber sie kann nicht begreifen, was sie auslöst.
Der vielleicht wichtigste Aspekt dieses Falls ist deshalb ein gesellschaftlicher Lernmoment. Er zeigt, dass wir uns von der Vorstellung verabschieden müssen, KI sei neutral, solange sie keinen physischen Schaden anrichtet. Psychische Wirkung ist reale Wirkung. Und sie verlangt nach klaren Regeln.
Was noch passieren könnte, liegt auf der Hand. Mehr Fälle, mehr Klagen, mehr Einzelschicksale. Nicht, weil KI „entgleist“, sondern weil sie eingesetzt wird, ohne dass ihre soziale Rolle ernst genommen wird. Wenn Politik weiter zusieht, wird sie sich irgendwann nicht mehr fragen lassen müssen, ob sie reguliert, sondern warum sie es nicht getan hat, als die Warnzeichen längst sichtbar waren.
Vom Einzelfall zur systemischen Gefahr
Der Fall Raine v. OpenAI wird juristisch geklärt werden. Es wird Gutachten geben, Schriftsätze, Vergleichsangebote, vielleicht ein Urteil. Doch selbst wenn der konkrete Rechtsstreit irgendwann abgeschlossen ist, bleibt das eigentliche Problem bestehen. Denn dieser Fall ist kein Ausreißer, sondern ein Vorläufer. Er zeigt, in welche Richtung sich KI-Systeme bewegen und wo die nächste Eskalationsstufe liegt, wenn Politik und Gesellschaft weiter zögern.
Die entscheidende Entwicklung ist dabei nicht die technische Leistungsfähigkeit, sondern die soziale Funktion, die KI zunehmend übernimmt. Sprachmodelle werden nicht mehr nur befragt, sie werden angesprochen. Sie sind nicht mehr nur Werkzeuge, sondern Gegenüber. Genau hier beginnt die Zone, in der klassische Haftungs- und Verantwortungslogiken versagen.
Denn was passiert, wenn KI künftig gezielt als Begleiter vermarktet wird? Wenn sie Einsamkeit lindern, psychische Unterstützung bieten oder „emotionale Stabilität“ fördern soll? Diese Entwicklung ist keine Spekulation, sie ist bereits im Gange. Start-ups arbeiten an KI-Coaches, KI-Therapie-Tools, KI-Freunden. Plattformen testen Funktionen, die langfristige Beziehungen simulieren. Der Markt dafür ist riesig und die gesellschaftliche Versuchung ebenso.
Was im Fall Raine noch als ungewollte Nebenwirkung erscheint, könnte dann zum Geschäftsmodell werden. Nähe, Vertrauen und emotionale Bindung lassen sich monetarisieren. Je länger Nutzer bleiben, je intensiver sie interagieren, desto wertvoller wird das System. In diesem Moment kollidieren wirtschaftliche Interessen direkt mit Schutzpflichten. Wer reguliert, wenn Nähe Profit bringt?
Besonders brisant ist dabei die Rolle von Minderjährigen. Jugendliche sind neugierig, experimentierfreudig, emotional verletzlich. Sie suchen Orientierung, Anerkennung, Verständnis. KI-Systeme können all das simulieren, ohne echte Verantwortung zu tragen. Wenn solche Systeme ohne klare Altersgrenzen, Schutzmechanismen und externe Aufsicht eingesetzt werden, entsteht ein Risiko, das sich nicht mehr auf Einzelfälle begrenzen lässt.
Die nächste Eskalationsstufe ist absehbar: KI wird nicht nur begleiten, sondern raten, strukturieren, priorisieren. Sie wird nicht nur zuhören, sondern Handlungsvorschläge machen. Vielleicht gut gemeint, vielleicht statistisch plausibel, vielleicht sprachlich vorsichtig, aber dennoch wirksam. Und dann stellt sich die Frage, die der Fall Raine bereits andeutet: Wer trägt die Verantwortung, wenn diese Wirkung fatal ist?
Selbstregulierung der Industrie wird hier nicht ausreichen. Dafür sind die Anreize falsch gesetzt. Sicherheit kostet Geld, Wachstum bringt Rendite. Plattformen optimieren auf Engagement, nicht auf Fürsorge. Das ist kein moralischer Vorwurf, sondern eine ökonomische Tatsache. Wer glaubt, dass Unternehmen freiwillig auf profitable Funktionen verzichten, ignoriert die Logik des Marktes.
Politik steht deshalb vor einer Entscheidung, die sie nicht länger vertagen kann. Entweder sie behandelt KI weiterhin als Innovationsprojekt, oder sie erkennt sie als gesellschaftliche Infrastruktur mit Schutzpflichten. Das würde bedeuten: klare Haftungsregeln, besondere Schutzstandards für vulnerable Gruppen, verpflichtende Notfallmechanismen, unabhängige Aufsicht – nicht als Feigenblatt, sondern als Voraussetzung für den Einsatz.
Dabei geht es nicht um ein Verbot von KI. Es geht um Grenzen. Kein Medikament darf ohne Zulassung verkauft werden, kein Auto ohne Sicherheitsprüfung auf die Straße, kein Spielzeug ohne Schadstofftest in Kinderhände. Dass ausgerechnet Systeme mit potenziell massiver psychologischer Wirkung bislang weitgehend unreguliert bleiben, ist ein politisches Versäumnis.
Der Fall Raine zeigt zudem ein tiefer liegendes gesellschaftliches Problem: die Delegation von Beziehung. In einer Gesellschaft, die immer weniger Zeit, immer weniger soziale Räume und immer weniger institutionelle Unterstützung bietet, wird KI zur Ersatzstruktur. Sie füllt Lücken, die Politik und Gesellschaft hinterlassen haben. Das macht sie attraktiv und gefährlich zugleich.
Wenn diese Entwicklung nicht gestoppt oder zumindest eingehegt wird, wird die nächste Debatte nicht lauten, ob KI gefährlich ist. Sie wird lauten, warum niemand eingegriffen hat, als die Warnzeichen längst sichtbar waren. Der Preis wird nicht in Innovationshemmnissen gemessen, sondern in realen Schicksalen.
Der Fall Raine v. OpenAI ist deshalb mehr als eine Klage. Er ist ein Warnsignal. Er zeigt, dass die Grenze zwischen technischer Unterstützung und menschlicher Verantwortung überschritten werden kann, leise, unbeabsichtigt, aber mit irreversiblen Folgen. Wer ihn als Einzelfall abtut, verkennt, was hier auf dem Spiel steht.
KI verändert nicht nur Arbeitsprozesse und Märkte. Sie greift in Beziehungen ein, in Identität, in Entscheidungen über Leben und Tod. Eine Gesellschaft, die das ignoriert, verliert nicht nur die Kontrolle über Technologie, sondern über sich selbst.
Quellen:
Titelbild: VALUA VITALY / Shutterstock
Beim Weltwirtschaftsforum (WEF) in Davos wurde eine neue Social-Media-Plattform mit dem Namen “W” vorgestellt. Sie soll “wertebasiert” sein und keine “Fake News” erlauben. Angesichts der Hintergründe des Unternehmens dahinter ist die Zielrichtung klar.
Eigentlich sollten Social-Media-Plattformen dem Austausch von Meinungen, Informationen und Alltäglichem dienen. Wer sich noch an das frühe Facebook von vor zehn, zwölf Jahren erinnert, bevor schrittweise die Daumenschrauben angezogen wurden, weiß das vielleicht noch. Ganz ohne massive Eingriffe durch Zensoren und die Reichweite einschränkenden Algorithmen entschieden die Nutzer darüber, was weiter verbreitet werden sollte und nicht KI-Systeme, “Faktenchecker” und Politiker.
Doch diese Zeiten sind vorbei. Vor allem dank ideologisierter Politiker, die jegliche Abweichung von ihren Narrativen als “Desinformation”, “Fake News” oder gar “Hassrede” bezeichnen. Selbst mit dem Regierungswechsel in Washington und weniger Druck auf die Betreiber der Plattformen von dort änderte sich – zumindest für die Nutzer in Europa – nicht viel. Denn die Brüsseler Eurokraten und viele nationale Regierungen (insbesondere jene in Deutschland) erhöhen den Druck noch weiter.
Doch obwohl linkswoke Plattformen wie Bluesky (als X-Ersatz) kaum Nutzer anziehen, propagieren die globalistischen Eliten auf dem Weltwirtschaftsforum (WEF) in Davos eine neue Social-Media-Plattform. “W” soll sie heißen und bereits im Sommer dieses Jahres an den Start gehen. Der Buchstabe stehe einerseits für “We” (Wir), andererseits als doppeltes “V” auch für “Values” (Werte) und “Verified” (verifiziert). Am Ende also geht es nur darum, dass dort lediglich Inhalte geteilt und verbreitet werden sollen, welche den eigenen Narrativen dienen.
Welche Narrative dies sein sollen, wird alleine schon dadurch deutlich, wer dahinter steckt – nämlich die schwedische Klima-Aktivismus-Plattform “We don’t have time”. Das heißt, man baut eine neue Filterbubble für das linksgrün-woke Milieu auf. Und all das natürlich ganz auf Linie mit den Wünschen der Brüsseler Eurokraten und der Davoser WEF-Gang.
![]()
In Großbritannien stimmt das Oberhaus mit deutlicher Mehrheit für ein Social-Media-Verbot für Kinder unter 16 Jahren und erhöht damit den Druck auf die Labour-Regierung und Premierminister Starmer.
Dieser Beitrag Vorbild Australien Großbritanniens Oberhaus will Social-Media für Kinder verbieten wurde veröffentlich auf JUNGE FREIHEIT.
Das britische Oberhaus hat sich mit deutlicher Mehrheit für ein Social-Media-Verbot für Kinder und Jugendliche unter 16 Jahren ausgesprochen. Die Abstimmung endete mit 261 zu 150 Stimmen zugunsten des Änderungsantrags zum „Children's Wellbeing and Schools Bill". Der Antrag sieht vor, dass Social-Media-Anbieter innerhalb von zwölf Monaten nach Verabschiedung des Gesetzes hochwirksame Altersüberprüfungen durchführen müssen.
Der Änderungsantrag wurde vom konservativen Politiker John Nash eingebracht und erhielt Unterstützung von Abgeordneten der Labour-Partei und der Liberalen. Nach der Abstimmung erklärte Nash, das Parlament habe „die Zukunft unserer Kinder an erste Stelle" gesetzt und einen „Prozess begonnen, der den katastrophalen Schaden stoppen soll, den Onlinedienste einer ganzen Generation zufügen".
Der Antrag geht nun an das von der Labour-Partei dominierte Unterhaus, wo die endgültige Entscheidung fällt. Die Regierung von Premierminister Keir Starmer hatte vor der Abstimmung angekündigt, die Änderung nicht zu akzeptieren. Starmer kündigte an, zunächst die Ergebnisse einer für den Sommer geplanten Beratung abwarten zu wollen. Allerdings haben bereits mehr als 60 Labour-Abgeordnete Starmer aufgefordert, das Verbot zu unterstützen.
Ein Muster für das geplante britische Verbot ist Australien, wo seit Dezember ein entsprechendes Gesetz gilt. Dort wurden bereits mehr als 4,7 Millionen Konten von Kindern und Jugendlichen deaktiviert, gelöscht oder eingeschränkt.
+++
Bild: Britischer Premierminister Keir Starmer
Bildquelle: Fred Duval / shutterstock
![]()
Die Sozialisten in New York City fordern den amerikanischen Rechtsstaat heraus. Mehr als 4.000 Linksextremisten wollen die Arbeit der Ausländerbehörde ICE mit allen Mitteln behindern. Die linken Sturmtruppen organisieren sich gegen den Staat.
Zuerst wählen die New Yorker einen sozialistischen Moslem zum Bürgermeister der Stadt, nun wollen die “Democratic Socialists of America” (DSA) laut der New York Post mehr als 4.000 Linksextremisten zu sogenannten “Rapid Response”-Einheiten ausbilden, deren einziges Ziel darin besteht, Abschiebungen durch die Bundesbehörde ICE aktiv zu behindern.
Rund 2.000 DSA-Mitglieder und weitere 2.000 externe Linksextremisten sollen extra dafür geschult werden, flankiert von mindestens 50 “Trainern”. Damit wird ganz öffentlich eine linksextremistische paramilitärische Struktur geschaffen, die sich offen gegen den Rechtsstaat und staatliche Behörden stellt. Dabei geht es um Straßenmobilisierung, Einschüchterung und die bewusste Überforderung staatlicher Organe.
Die Planungen fanden offenbar im „People’s Forum“ statt – einem Gebäude in Midtown Manhattan, das seit Jahren als Sammelbecken kommunistischer Agitation gilt und Verbindungen zu einem chinesisch-kommunistischen Geldgebernetzwerk aufweist. Dass ausgerechnet dort ein Anti-ICE-Apparat hochgezogen wird, ist kein Zufall, sondern auch eine gezielte Einflussnahme Pekings zur Destabilisierung der Vereinigten Staaten.
Finanziert wird das Ganze selbstverständlich nicht aus Luft und linker Moral. Während der fast zweistündigen DSA-Versammlung wurde mehrfach um Geld gebettelt, inklusive sozialistischer Kollekte mit roter Mütze. Hinter den Kulissen soll zudem ein dunkles NGO-Netzwerk eine zentrale Rolle spielen, das mit dem kommunistischen Milliardär Neville Roy Singham in Verbindung steht.
Der Verdacht liegt nahe, dass hier an einer Neuauflage des bekannten Drehbuchs gearbeitet wird: moralische Empörung, professionell organisierte Straßenaktionen, Eskalation, Bilder für die Medien – George Floyd 2.0. Doch es gibt einen Unterschied zu damals: Dieses Mal weiß man in Washington, wie diese Maschinerie funktioniert. Es ist nur noch eine Frage der Zeit, bis auch die DSA auf der Terrorliste landet und sämtliche Financiers damit als Terrorunterstützer strafrechtlich verfolgt werden.
Last week, an American journalist posted an exposé on a “pro-Palestinian” protest in London, UK. Among his revelations was the identity of protestor Katherine Hajiyianni, who is a long-time professional, paid to […]
The post Pro-Palestinian protests aren’t about Palestine; they’re about socialism first appeared on The Expose.
Children as young as three are scrolling social media feeds built for adults. New analysis has emerged suggesting almost a million UK children aged 3-5 years old are using platforms like Instagram, […]
The post Nearly One Million UK Toddlers Hooked on Social Media first appeared on The Expose.
Eine Mehrheit der jungen Wähler träumt von demokratischem Sozialismus – und niemand fragt, warum. Von Klaus Albrecht Möller Es gibt Umfrageergebnisse, die einen sprachlos machen. …
Der Beitrag Die sozialistische Verführung: Wie Amerika seine Jugend verliert erschien zuerst auf Contra24.
