THEMA: KI-Psycholog*in
- OJA Fachstelle Digitalität

- 3. Sept.
- 2 Min. Lesezeit
Aktualisiert: 13. Okt.
Ergänzt am 13.10.25
Jugendliche "prompten statt "googlen"
Die JAMES-Focus Studie der ZHAW hat sich mit der KI-Nutzung von Jugendlichen befasst. Ein grosser Teil von ihnen nutzt bereits gezielt Tools. Etwa ein Drittel laut dem Beobachter einmal wöchentlich.

Dabei gibt es Berichte wonach Google ziemlich in Panik sei, weil in den USA Jugendliche für ihre Suche kaum mehr auf Google zugreifen sondern stattdessen mehrheitlich KI-Tools nutzen.
Auch werden die Tools (von allen Altersgruppen) für sehr persönliche Anfragen genutzt. In einer amerikanischen Umfrage gibt fast die Hälfte aller Nutzer*innen in einer Umfrage an, im vergangenen Jahr die KI zur psychologischen Unterstützung verwendet zu haben. Drei Viertel der Befragten suchten Hilfe bei Angstzuständen, zwei von drei suchten Rat bei persönlichen Problemen, und fast sechs von zehn wollten Hilfe bei Depressionen. KI-Startups haben so den Markt für sogenannte Therapiebots, die genau darauf ausgerichtet sind und Hilfe bei psychischen Problemen versprechen, entdeckt.
Persönliche Anfragen an Chat-GPT tausendfach offen im Netz
Verschiedene Themen sind jedoch nicht beho,ben. Es bestehen Gefahren wie, dass eine KI halluziniert (Dinge erfindet) oder Fragen falsch versteht (Gegenteilige Tipps geben). Gleichzeitig wurde in den vergangenen Wochen bekannt, dass hunderttausende persönliche Chats von Nutzer*innen mit Chat-GPT, bei Google auffindbar waren. Offenbar klickten die Nutzer aus Versehen auf einen experimentellen Teilen-Knopf und veröffentlichten so persönlichste Fragen.
Eine sichere(re) Nutzung kann folgendermassen aussehen
Neu eingeführte temporäre Chats bieten besseren Datenschutz. Die entsprechenden Gespräche verbleiben weder im Gedächtnis der KI, noch werden sie für Trainingszwecke verwendet. So versprechen sie es jedenfalls:
- Google (Gemini): https://blog.google/products/gemini/temporary-chats-privacy-controls/
- Claude AI: Erinnerungs(Memory)-Funktion ausgeschaltet lassen
So gibt die KI jedoch keine personalisierten Antworten mehr. Diese zusätzliche Eigenschaft empfinden jedoch viele Nutzer*innen als nützlich, respektive fühle sich so eher abgeholt.
Wer im Standardmodus mit der KI spricht, sollte wissen, dass hinter der KI eine unersättliche Maschinerie steckt, die sich sämtliche Inhalte einverleibt. «Wir verwenden die von Ihnen bereitgestellten Inhalte, um unsere Dienste zu verbessern, zum Beispiel um die Modelle zu trainieren, die Chat-GPT antreiben», heisst es etwa in den Datenschutzbestimmungen von Open AI. Ausserdem wird von verschiedenen Stellen wie der Polizei mitgelesen.
Warum Jugendliche die KI als Therapeut*in nutzen, sowie Tipps für Erwachsene gibts von der Pro Juventute.
...Anderes Thema: Machbarkeitsstudie über Einsatz von KI in der Jugendarbeit
Die JuAr Basel und die FHNW haben eine gemeinsame Studie über KI in der Jugendarbeit erstellt. Dabei ging es darum, einen Machbarkeitsnachweis eines Chatbots in der Jugendarbeit zu erbringen. Das Fazit des Bericht's zeigt auf, dass ein Folgeprojekt, welches eine stufenweise implentierung eines Chat-Bots anstrebt, erfolgsversprechend wäre. Bereits ein Chat-Bot (Flocki) setzt Feel-ok.ch auf ihrer Webseite ein.
Interview von der HSLU mit Eike Rösch zu "KI in der Sozialen Arbeit: Bedenklich oder ethisch vertretbar?".


Kommentare