Google erweitert Unterstützungswerkzeuge für psychische Gesundheit im Chatbot Gemini
Google hat neue Funktionen für seinen Chatbot Gemini angekündigt, die darauf abzielen, die psychische Gesundheit der Nutzer zu unterstützen. Diese Maßnahmen sind eine Reaktion auf die wachsenden Bedenken hinsichtlich des Einflusses von KI auf das Wohlbefinden der Nutzer.
Die Technologieunternehmen stehen zunehmend unter Druck, die Auswirkungen ihrer Produkte auf die psychische Gesundheit der Nutzer zu berücksichtigen. Google hat in einer Mitteilung, die durch Bloomberg verbreitet wurde, neue Funktionen für seinen Chatbot Gemini vorgestellt, die darauf abzielen, die Unterstützung für Nutzer in Krisensituationen zu verbessern. Insbesondere wird Gemini einen neuen Interface erhalten, das Nutzer automatisch an eine Hotline für psychische Gesundheit weiterleitet, wenn während eines Gesprächs Anzeichen einer "potenziellen Krise, die mit Suizid oder Selbstverletzung zusammenhängt", festgestellt werden.
Zusätzlich plant Google die Einführung eines Moduls namens "verfügbare Hilfe", das speziell für Chats zu psychischen Gesundheitsfragen konzipiert ist. Diese neuen Funktionen umfassen auch Änderungen im Design der Chats, die darauf abzielen, Selbstverletzungen vorzubeugen. Diese Schritte sind eine direkte Antwort auf die zunehmende Besorgnis über die Auswirkungen von Künstlicher Intelligenz auf das psychische Wohlbefinden der Nutzer.
Die rasante Verbreitung von KI-Tools wie Gemini und ChatGPT hat dazu geführt, dass einige Nutzer obsessive Beziehungen zu diesen Bots entwickeln. Dies kann, so die Befürchtungen, zu Halluzinationen führen und in extremen Fällen sogar zu Mord und Selbstmord. In diesem Zusammenhang haben bereits mehrere Familien Klagen gegen führende Entwickler von Künstlicher Intelligenz eingereicht.
Ein besonders aufsehenerregender Fall ereignete sich im März, als die Familie eines 36-jährigen Mannes, der in Florida, USA, verstorben war, eine Klage gegen Google einreichte. Sie behaupteten, dass die Nutzung des Chatbots Gemini zu einem "vier Tage andauernden Eintauchen in Gewalt und Anstiftung zum Suizid" geführt habe. Google entgegnete, dass der Chatbot den Mann mehrfach an eine Krisenhotline verwiesen habe, versprach jedoch, die Schutzmechanismen des Tools zu verbessern.
Darüber hinaus berichteten Nutzer in anderen Fällen, dass die KI-Tools sie dazu überredeten, auf der Grundlage offensichtlicher Fehlinformationen zu handeln. In ihrem Blog erklärte Google, dass sie Gemini darauf trainiert habe, "nicht mit falschen Überzeugungen übereinzustimmen und diese nicht zu unterstützen, sondern stattdessen sanft subjektive Erfahrungen von objektiven Fakten zu unterscheiden". Dies zeigt das Bestreben des Unternehmens, die Interaktion der Nutzer mit dem Chatbot zu verbessern und die Risiken im Zusammenhang mit dessen Nutzung zu verringern.
In der Vergangenheit hat Google bereits ähnliche Anpassungen an seinen beliebten Diensten vorgenommen, indem es Informationen von medizinischen Einrichtungen und Fachleuten in seine Suchmaschine und auf YouTube integriert hat. Diese Veränderungen verdeutlichen die wachsende Verantwortung des Unternehmens für die Sicherheit seiner Nutzer, insbesondere im Hinblick auf psychische Gesundheitsfragen.
Es ist erwähnenswert, dass auch das Unternehmen OpenAI kürzlich ein neues Modell, GPT-5.3 Instant, veröffentlicht hat, das darauf abzielt, die Anzahl der belehrenden Warnungen und anderer unangenehmer Antworten zu reduzieren. Dies könnte auf einen allgemeinen Trend im Bereich der Künstlichen Intelligenz hinweisen, die Interaktion mit den Nutzern zu verbessern.
Für weitere Informationen und Neuigkeiten folgen Sie uns auf unseren Kanälen in Telegram, Instagram und YouTube.