So verschärft KI das Problem von Kinderfotos im Netz
Viele Eltern posten regelmässig Fotos oder Videos ihrer Kinder in den sozialen Medien. Ungewollt entsteht so ein frei zugängliches Onlinearchiv, das zur Erstellung täuschend echter Deepfakes missbraucht werden kann.
Anfang 2026 hat der KI-Chatbot Grok auf dem Kurznachrichtendienst X (ehemals Twitter) für Aufsehen gesorgt: User erstellten mithilfe von KI sexualisierte Bilder von Erwachsenen und Minderjährigen - dies teilweise auf Basis bestehender Fotos. Laut einer Hochrechnung des "Center for Countering Digital Hate" wurden dabei innert 11 Tagen rund 23'000 sexualisierte Kinderbilder generiert. Dies zeigt, wie niedrig die Hürden mittlerweile sind.
Der digitale Fussabdruck der Kleinsten
Wenn Eltern Fotos oder Videos ihrer Kinder im Internet veröffentlichen, bezeichnet man dies als "Sharenting" - ein Kofferwort aus "Sharing" und "Parenting". Was auf den ersten Blick vielleicht wie eine schöne Momentaufnahme wirkt, kann sich schnell zu einer bleibenden Onlinepräsenz für ein Kind entwickeln.
Eine Studie der Universität Fribourg aus dem Jahr 2023 (PDF) zeigt, dass rund jeder zehnte Elternteil in der Schweiz regelmässig Bilder seiner Kinder online teilt. 45 Prozent fragen dabei ihre Kinder vor dem Posten nicht um ihre Erlaubnis. Für die Stiftung Kinderschutz Schweiz ist dies problematisch: Ein Kind erhalte so einen digitalen Fussabdruck "obwohl es diesem wohl in den wenigsten Fällen zugestimmt hat". Geteilte Inhalte könnten dadurch für Mobbing, Cybergrooming, Darstellungen von sexualisierter Gewalt oder Identitätsdiebstahl missbraucht werden. "Eltern sollten sich bewusst sein, dass ihr Verhalten in der digitalen Welt genauso weitreichende Auswirkungen auf ihre Kinder haben kann wie im realen Leben", schreibt die Stiftung.

Michael In Albon, Jugendmedienschutzbeauftragter bei Swisscom. (Source: Netzmedien)
Michael In Albon, Jugendmedienschutzbeauftragter von Swisscom, sagt zudem, dass viele Eltern ein mangelndes Problembewusstsein hätten. Denn digitale Medien "vergessen nichts", und Inhalte, die öffentlich sind, können somit auch von Personen gesehen werden, die diese missbrauchen. "Vielen Eltern ist nicht wirklich bewusst, wie schnell Inhalte im digitalen Raum zweckentfremdet werden können", sagt In Albon.
KI als Katalysator
Während sich die Risiken von geteilten Kinderinhalten lange vor allem auf Sichtbarkeit und mögliche Weiterverbreitung fokussierten, kommt mit KI eine zusätzliche Dimension hinzu. "Die KI funktioniert wie ein Katalysator", sagt In Albon und ergänzt: "Wenn es früher vor allem darum ging, die Persönlichkeitsrechte des Kindes bestmöglich zu schützen und es nicht der Gefahr auszusetzen, dass es 10 oder 15 Jahre später in der Schule wegen eines alten Fotos gemobbt wird, dann kommt heute die andere Gefahr hinzu, dass Inhalte unter Umständen für pornografische und kinderpornografische Zwecke missbraucht werden."

Yves Kraft, Head of Security Academy bei Oneconsult. (Source: zVg)
Yves Kraft, Head of Security Academy von Oneconsult, erklärt, dass schon wenige, gut ausgeleuchtete und frontal aufgenommene Bilder ausreichen, um ein Gesicht in synthetische Inhalte einzubetten. "Für einfache Bild-Deepfakes können schon 5 bis 20 hochauflösende Fotos ausreichen, sofern unterschiedliche Blickwinkel und Mimik vorhanden sind", sagt er. Die Einstiegshürde sei zudem durch benutzerfreundliche Tools stark gesunken: "Das Risiko liegt weniger in der Technologie selbst als in ihrer breiten Verfügbarkeit."
Die aufgrund von Sharenting online freie Verfügbarkeit von Kinderbildern und -videos bietet somit eine leicht zugängliche Datenquelle für den Missbrauch durch neue Technologien.
Technologie als Teil der Lösung
Abgesehen von den Risiken, die KI-Technologien mit sich bringen, können sie aber auch helfen, Missbrauch zu erkennen. Kraft nennt dazu einige Beispiele: Automatische Erkennung synthetischer Gesichter, Klassifikation sensibler Inhalte vor Veröffentlichung, Monitoring-Plattformen mit Hash-Datenbanken bekannter Missbrauchsbilder und Anomalieerkennung bei Uploads. "Zudem können Kindergesichter proaktiv mit digitalen Signaturen versehen werden, um spätere Manipulationen nachweisbar zu machen", ergänzt er.
Obwohl die meisten KI-Systeme sehr gut im Erkennen von Mustern sind, seien solche Systeme nicht fehlerfrei: "Es gibt auch sehr hohe Vorbehalte gegenüber der Technologie, weil es sehr oft falsch-negative und falsch-positive Zuordnungen gibt", erklärt In Albon. Dies sei auch sehr gefährlich, weil dadurch Personen in Verruf geraten können, die eigentlich nichts falsch gemacht haben.
Zwischen Gesetz und Plattformverantwortung
Rechtlich ist die Lage in gewissen Bereichen eindeutig. Das Schweizer Strafgesetzbuch Artikel 197 verbietet die Herstellung von kinderpornografischen Inhalten - ungeachtet der Tatsache, ob sie echt oder unecht sind. Sexualisierte Deepfake-Inhalte mit Kindern sind somit laut In Albon genauso illegal wie Inhalte mit echten Kindern.
Weniger klar geregelt ist es im präventiven Bereich. Ein spezifisches Gesetz gegen Sharenting existiert in der Schweiz nicht, obwohl politische Motionen zur Regulierung von Kinderfotos auf Social Media bereits bis zum Bund gelangt sind. Diese fordern insbesondere, Kinder vor kommerzieller Ausbeutung, beispielsweise durch Influencer-Marketing, zu schützen.
Auch für KI-Tools wie Grok oder sogenannte "Nudifyer-Apps" gibt es gemäss Kinderschutz Schweiz aktuell keine behördlichen Prüfungen auf sexualisierte Gewalt an Kindern. "Es fehlt global an Regulierungen in diesem Bereich", erklärt die Stiftung und findet: "Das Internet und die meisten digitalen Plattformen und Medien wurden nicht für Kinder konzipiert und all diese Lücken gilt es zu schliessen. Es braucht einerseits noch mehr Sensibilisierung, aber gleichzeitig gibt es auch klaren gesetzlichen Handlungsbedarf, damit Kinder und Jugendliche besser geschützt werden können."
Kraft sieht auch bei Anbietern und Entwicklern von KI-Tools eine klare Mitverantwortung. Sie sollten technologische Schutzmechanismen standardmässig implementieren - etwa Altersfilter, Missbrauchsdetektion, Output-Moderation, Protokollierung auffälliger Nutzung sowie Beschränkungen bei der Generierung sensibler Inhalte. Zusätzlich seien auch Regulierungen sinnvoll: mit Transparenzpflichten, Haftungsregeln und klaren Strafnormen für Missbrauch.
"Wichtig ist jedoch, Innovation nicht pauschal zu blockieren, sondern gezielt Risikoanwendungen zu adressieren", sagt Kraft und warnt gleichzeitig, dass es ein "Katz-und-Maus-Spiel" bleibe: "Sobald die eine Seite die Nutzung reguliert, findet die andere Seite wieder neue Wege für Missbrauch oder Möglichkeiten, wie die Schutzmechanismen umgangen werden können."
Laut Kinderschutz Schweiz tragen wir alle die Verantwortung, Kinder und Jugendliche online zu schützen. Es sei aber auch ganz klar, dass soziale Plattformen noch viel stärker in die Verantwortung genommen werden müssten.
Prävention beginnt bei den Eltern
Gemäss In Albon sollten Eltern grundsätzlich keine persönlichen Daten wie Namen, Adressen oder Telefonnummern ihrer Kinder teilen. Wenn Eltern Bilder oder Videos ihrer Kinder trotzdem online posten wollen, empfiehlt er, diese unkenntlich zu machen. Einige Methoden dafür seien beispielsweise die Darstellung mit angeschnittenem Gesicht, nur von hinten oder mit einem "Blur-Effekt". "Am allerbesten wäre natürlich, wenn man das Kind im Kontext des Posts gar nicht thematisiert, weil es in dem Moment oft gar nicht zustimmen kann", sagt er. Zudem sieht In Albon auch bei etwas älteren Kindern, die bereits selber bewusst entscheiden können, die Eltern in der Verantwortung, ihren Schützlingen "begleitend zur Seite zu stehen".
"Die Förderung der Medienkompetenz bei den Eltern ist einerseits ein löblicher Weg, aber auch ein beschwerlicher Weg", sagt er weiter. "Er braucht extrem lange Überzeugungsarbeit und die Verinnerlichung von Verhaltensweisen, die man unter Umständen so nie gelernt hat."
Gesetze und technische Schutzmassnahmen setzen bereits einen Rahmen. Und obwohl auch Plattformen Verantwortung tragen sollten, liege der grösste Hebel laut In Albon akut bei den Eltern: "Sie haben die Möglichkeit, durch ihr eigenes Verhalten Sharenting zu verhindern, indem sie keine Inhalte publizieren."
Die Förderung der Medienkompetenz ist dabei ein entscheidender Ansatz, um Kinder vor den Folgen von Sharenting und den damit verbundenen Deepfake-Risiken zu schützen.
Mehr über Sharenting im Zeitalter der KI lesen Sie hier im Interview mit Michael In Albon.
Sharenting im Zeitalter der KI
Westcon-Comstor legt DACH-Vertrieb zusammen
LED-Screens entwickeln sich von Premiumlösungen zu strategischen Systemen
So verschärft KI das Problem von Kinderfotos im Netz
Angriffe mit Banking-Trojanern nehmen stark zu
Wie Technologie Gehörlose unterstützt, Barrieren zu überwinden
Protonmail-Daten überführen US-Demonstranten
Wie Technologien zur Barrierefreiheit im digitalen Raum beitragen
Update: Anthropic zieht gegen US-Regierung vor Gericht