НВ (Новое Время)

OpenAI präsentiert neuen Plan zum Schutz von Kindern

Das Unternehmen OpenAI, bekannt für seine Fortschritte im Bereich der künstlichen Intelligenz, hat einen neuen Plan vorgestellt, der darauf abzielt, Fälle sexueller Ausbeutung von Kindern schneller zu erkennen, zu melden und zu untersuchen.

Die Initiative von OpenAI ist eine direkte Reaktion auf die wachsende Besorgnis in der Gesellschaft über die Sicherheit von Kindern angesichts der Herausforderungen, die neue Technologien mit sich bringen. Der neue Plan, der den Namen "Child Safety Blueprint" trägt, soll helfen, die steigenden Fälle sexueller Ausbeutung von Kindern, die mit der Entwicklung künstlicher Intelligenz verbunden sind, zu bekämpfen.

Laut dem Internet Watch Foundation wurden allein in der ersten Hälfte des Jahres 2025 über 8.000 Meldungen über Materialien sexueller Gewalt gegen Kinder, die mithilfe künstlicher Intelligenz erstellt wurden, registriert. Dies stellt einen Anstieg von 14 % im Vergleich zum Vorjahr dar. Kriminelle nutzen modernste Technologien, um gefälschte, anstößige Bilder von Kindern zu erstellen und überzeugende Nachrichten zu verfassen, die die Kinder dazu verleiten können, mit ihnen zu kommunizieren.

Die Einführung dieses Plans erfolgt vor dem Hintergrund einer zunehmenden Aufmerksamkeit von Politikern, Pädagogen und Menschenrechtsaktivisten, insbesondere nach mehreren Fällen, in denen junge Menschen Selbstmord begangen haben, nachdem sie mit Chatbots kommuniziert hatten. Diese Vorfälle haben in der Gesellschaft und unter Fachleuten ernsthafte Besorgnis ausgelöst und einen Aufruf nach mehr Verantwortung von Seiten der Technologieunternehmen nach sich gezogen.

Im November letzten Jahres reichte das Social Media Victims Law Center zusammen mit dem Tech Justice Law Project sieben Klagen bei kalifornischen Gerichten ein. In den Klagen wird behauptet, dass OpenAI das Modell GPT-4o vor seiner vollständigen Fertigstellung veröffentlicht hat, ohne die möglichen negativen Folgen zu berücksichtigen. Die Kläger geben an, dass der psychologische Einfluss des Produkts zu Todesfällen durch Selbstmord und zu Fällen von Suizidbeihilfe beigetragen haben könnte. In diesen Klagen werden vier Personen erwähnt, die ums Leben kamen, sowie drei weitere, die nach längerer Kommunikation mit einem Chatbot schwere psychische Zustände erlitten haben.

Der neue Plan wurde in Zusammenarbeit mit dem National Center for Missing and Exploited Children und der Attorney General Alliance entwickelt, wobei auch die Vorschläge der Generalstaatsanwälte Jeff Jackson und Derek Brown berücksichtigt wurden. Das Unternehmen hat erklärt, dass das Dokument drei Hauptbereiche umfasst: die Aktualisierung der Gesetzgebung im Hinblick auf von künstlicher Intelligenz erzeugte Materialien, die Verbesserung der Mechanismen zur Datenübermittlung an die Strafverfolgungsbehörden und die Implementierung von Schutzfunktionen direkt in die Systeme der künstlichen Intelligenz. Dies soll helfen, Bedrohungen schneller zu erkennen und Informationen zügig an die Ermittler weiterzuleiten.

Der neue Plan ergänzt die bisherigen Maßnahmen des Unternehmens, einschließlich aktualisierter Richtlinien für die Interaktion mit Nutzern unter 18 Jahren. Diese Richtlinien verbieten die Erstellung von unangemessenem Inhalt, das Anregen zu Selbstverletzungen und das Bereitstellen von Ratschlägen, die helfen, gefährliches Verhalten vor Erwachsenen zu verbergen. Zuvor hatte OpenAI auch einen separaten Sicherheitsplan für Jugendliche in Indien veröffentlicht, was den globalen Ansatz des Unternehmens zur Problematik der Kindersicherheit im digitalen Raum unterstreicht.

Somit versucht OpenAI, ein aktiver Akteur im Kampf gegen die sexuelle Ausbeutung von Kindern zu werden, ein wichtiges Thema im Kontext des modernen technologischen Fortschritts. Das Unternehmen hofft, dass der neue Plan dazu beiträgt, die Risiken zu verringern und ein sichereres Umfeld für die Jugend zu schaffen, die moderne Technologien nutzt.