Du betrachtest gerade Darum ist CapCut kein Elternproblem mehr – sondern ein Fall für Gesetzgeber

Darum ist CapCut kein Elternproblem mehr – sondern ein Fall für Gesetzgeber

Die App CapCut, ein Tool für das Schneiden und Erstellen von Reels und Videos, ist auch als kleine Schwester TikToks bekannt. Die App erfreut sich großer Beliebtheit, beinhaltet aber größere Risiken. CapCut ist gefährlich. Und ich erkläre hier, warum. 

Shoutout an meine Blogleserin, die mich auf das Thema aufmerksam gemacht hat – vielen Dank!

Übrigens, weiter unten ist die Datenschutzerklärung verständlich für euch aufgeschlüsselt und die Gefahren wurden nach Bereich analysiert. CapCut hat zudem kein gültiges Impressum. 

Nutzt dein Kind CapCut? Oder vielleicht hast du dir die App selbst heruntergeladen, weil du ein schönes Familienvideo schneiden wolltest?

Vielleicht vom letzten Kindergeburtstag. Vom Theaterstück in der Schule. Vom Urlaub. Oder einfach ein lustiges Reel für zwischendurch. Du öffnest eine App, ziehst ein paar Clips hinein, wählst Musik, Untertitel, Effekte. Fertig. Oder dein Kind erstellt mit CapCut ein Reel für Instagram oder TikTok. 
So geht digitale Kreativität heute. Schnell. Alltag.

Aber genau hier liegt das Problem.

Denn während dein Kind noch überlegst, welche Schriftart besser zum Video passt, ist dieses Video längst mehr als nur euer Video. Es ist ein Datensatz. 

Dieser Text ist ein wenig unbequem. Immerhin müssen wir uns vielleicht damit auseinandersetzen, dass wir bei der Medienerziehung gepennt haben. Unsere Pflicht vernachlässigt haben. Aber dieser Beitrag ist nötig, denn nach einer Analyse der Datenschutzerklärung graut es mir. Denn eigentlich gehört die Website aufgrund der Datenlage gesperrt. 

Aber wenn es um Kinder, Medien und Daten geht, dürfen wir nicht mehr so tun, als sei das alles ein Randthema. Das uns nicht betrifft, denn wir haben ja Medienzeitvereinbarungen. Unsere Kinder sind ja technikaffin aufgewachsen und bedienen die Konsole mit der Selbstsicherheit von Professor Snape während seines Unterrichts. 

CapCut: Was wir Eltern unterschätzen

Mittlerweile haben viele von uns gelernt, bei Social Media vorsichtig zu sein. Kein Gesicht der Kinder posten. Keine Namen nennen. Profile privat halten. Das Bewusstsein ist da.
Was fehlt, ist der Blick auf die Tools, die wir zuvor nutzen. Wie CapCut. Das ist übrigens exemplarisch – es gibt reihenweise solcher Apps. 

Video-Apps gelten als kreativ, nicht als riskant. Sie werden sogar in Schulen genutzt, in Vereinen, in Familien. Kinder schneiden Referate, Eltern basteln Erinnerungen. Niemand – oder fast niemand – denkt dabei an Datenschutz, KI-Training oder biometrische Auswertung.

Dabei passiert genau das. Und zwar, noch bevor wir auf den Senden-Knopf drücken. Schon beim Hochladen geben wir das Einverständnis zur Nutzung dieser Daten. Der Gesichter und Stimmen unserer Kinder.

Moderne Video-Apps verarbeiten nämlich nicht nur das, was du am Ende veröffentlichst. Sie analysieren alle Inhalte bereits beim Hochladen. Teilweise sogar davor. Videos, die nie geteilt werden. Audiospuren, die nur testweise aufgenommen sind. Gesichter, Stimmen, Umgebungen, Bewegungen.

Das ist wahrhaftig keine Verschwörungstheorie. Das steht aktuell so in der Datenschutzerklärung von CapCut.

Nur liest sie kaum jemand. Und noch weniger Menschen verstehen, was diese Formulierungen in der Praxis bedeuten.

Aus unseren Aufnahmen werden Trainingsdaten – mit unserer Zustimmung

Ein besonders kritischer Punkt ist die Nutzung von Inhalten zur Verbesserung von Technologien. Häufig ist von maschinellem Lernen die Rede. Von Optimierung. Von Qualitätssicherung.

Konkret heißt das:
Deine Videos können genutzt werden, um Algorithmen zu trainieren. Um automatische Untertitel zu verbessern. Um Effekte realistischer zu machen. Um Objekte, Stimmen, Gesichter besser zu erkennen.

Auch wenn Anbieter betonen, dass keine Identifikation stattfindet, bleibt ein entscheidender Punkt:
Es handelt sich um personenbezogene Daten. Bei Kindern sogar um besonders schützenswerte Daten.

Gesichter sind biometrische Merkmale. Stimmen ebenfalls. Bewegungsprofile, Mimik, Sprache, Umfeld. All das sind Informationen, die Rückschlüsse auf eine Person zulassen. Und bei Kindern sind diese Informationen sensibler als bei Erwachsenen.

Das europäische Datenschutzrecht ist hier eigentlich eindeutig. Besonders schützenswerte Daten dürfen nur unter strengen Voraussetzungen verarbeitet werden. Zweckgebunden. Transparent. Mit klarer Einwilligung.

Die Realität sieht bei CapCut und anderen Apps aber ganz anders aus.

Ein weiterer Punkt, der viele Eltern aufhorchen lassen sollte, ist die sogenannte Vorab-Verarbeitung. Inhalte werden verarbeitet, bevor du sie speicherst oder veröffentlichst. Technisch begründet. Nutzerfreundlich erklärt. Aber rechtlich hochproblematisch.

Denn damit passiert etwas Entscheidendes:
Die Kontrolle verschiebt sich.

Du hast dein Video noch gar nicht freigegeben. Und trotzdem wird es bereits analysiert. Für Vorschläge. Für Effekte. Für automatische Funktionen. Das mag bequem sein. Aber es unterläuft das Prinzip der informierten Entscheidung.

Gerade bei Kindern ist das kritisch. Denn Kinder können diese Tragweite nicht erfassen. Und Eltern wissen oft nicht, dass diese Verarbeitung überhaupt stattfindet.

Internationale Datenströme und europäische Schutzlücken

Hinzu kommt die Frage, wo diese Daten landen. Viele Anbieter speichern und verarbeiten Daten außerhalb der EU. In Ländern mit anderen Datenschutzstandards. Mit anderen Zugriffsrechten für Behörden.

Zwar werden rechtliche Konstrukte wie Standardvertragsklauseln genannt. Doch für Eltern bleibt unklar, was das konkret bedeutet. Wer kann auf diese Daten zugreifen? Wie lange werden sie gespeichert? 

Gerade bei Kindern sollte hier maximale Zurückhaltung gelten. Stattdessen erleben wir eine Normalisierung globaler Datenverarbeitung, ohne dass gesellschaftlich darüber diskutiert wird, ob wir das so wollen.

Kinder sind keine Mini-Erwachsenen

Ein zentrales Problem vieler Datenschutzerklärungen ist die Gleichbehandlung von Erwachsenen und Kindern. Zwar wird ein Mindestalter genannt. Dennoch fehlt echter Schutz – wie so oft bei vielen Apps. 

Es reicht nicht zu sagen, ein Dienst richte sich nicht an Kinder. Die Realität zeigt, dass Kinder ihn nutzen. In Schulen. In Projekten. Mit elterlicher Zustimmung, im guten Glauben, Kindern Kreativität zu ermöglichen. 

Was fehlt, sind klare Regeln.
Separate Erklärungen für Eltern.
Technische Einschränkungen.
Transparente Optionen, bestimmte Verarbeitungen abzulehnen, ohne den Dienst komplett zu verlieren.

Stattdessen liegt die Verantwortung fast vollständig bei den Familien. Bei Apps, Videospielen und sozialen Medien. Und das ist unfair.

Warum das kein individuelles Elternproblem ist

An dieser Stelle wird oft argumentiert: Dann nutzt die App eben nicht. Dann verbietet sie euren Kindern. Dann seid vorsichtiger.

Das greift zu kurz.

Digitale Medien sind Teil des Alltags. Sie sind Teil von Bildung, Kreativität, Teilhabe. Eltern können nicht jedes Tool einzeln juristisch bewerten. Und Kinder dürfen nicht vom digitalen Leben ausgeschlossen werden, nur weil der Schutz nicht mitgedacht wurde. Nicht alle Eltern sind dazu in der Lage, digitale Tools zu bewerten. Kinder erreichen kritische Inhalte trotzdem – durch Freunde, in der Schule oder im Sportverein. Das Handy der Bekannten und Freunde reicht dafür. 

JETZT LESEN  5 spannende Alternativen für Kinder zu Roblox

Hier ist ganz klar unsere Politik gefragt.

Denn wenn Unternehmen mit globalen Geschäftsmodellen sensible Kinderdaten verarbeiten, reicht es nicht, das in langen Texten zu erklären. Es braucht klare Leitplanken. Durchsetzung. Konsequenzen.

Ein Appell an die Politik

Der Schutz von Kindern im digitalen Raum darf kein Nebenthema sein. Kinder sind unsere Zukunft, und dennoch parken wir aus Bequemlichkeit ernste Themen auf dem digitalen Abstellgleis. Sollen die Kinder doch faxen!

Aber digitaler Schutz von Kindern darf nicht hinter Innovationsrhetorik verschwinden. Und er darf nicht allein auf Eltern abgewälzt werden.

Was es braucht, sind unter anderem:

Verbindliche Regeln für die Nutzung von Kinderinhalten in KI-Systemen, klare Verbote oder strenge Einschränkungen bei der Verarbeitung biometrischer Merkmale von Minderjährigen, zudem verständliche, kind- und elterngerechte Datenschutzerklärungen ohne BlaBla, wirksame Kontrollmechanismen und eben auch Sanktionen, die durchgesetzt werden und last but not least mehr digitale Bildung, die nicht nur Technik erklärt, sondern dahinter stehende Machtstrukturen sichtbar macht. 

Wir könnten ja beispielsweise von den drei Religionsstunden pro Woche in der Grundschule ein bis zwei dafür nutzen, in digitale Bildung zu investieren. In die Zukunft. Bzw. in die Gegenwart. Nur so als Randnotiz. 

Europa hat mit der DSGVO einen Rahmen für Datenschutz geschaffen. Aber ein Rahmen reicht nicht, wenn er nicht konsequent angewendet wird – zum Schutz der Kinder. Ja, auch die DGSVO ist nicht unfehlbar und einiges sicher nicht nützlich. Aber wenn Kleinunternehmer wie ich unzählige Stunden darauf verwendet hatten, darf ich auch von Unternehmen fordern, sich daran zu halten. Ich bitte um Umsetzung!

Ein Appell an Eltern

Auch wenn es nicht eure Aufgabe allein sein sollte: Ihr seid nicht machtlos.

Fragt nach, wenn Apps in Schule oder Verein genutzt werden.
Lest Datenschutzerklärungen zumindest quer.
Seid skeptisch bei Tools, die besonders tief in Inhalte eingreifen.
Sprecht mit euren Kindern über digitale Spuren.
Fordert Transparenz ein. Laut. Öffentlich. Gemeinsam. Schreibt euren Politikern vor Ort. 

Es geht mir nicht darum, Angst zu machen. Es geht mir darum, Verantwortung sichtbar zu machen. Und sie dort zu verorten, wo sie hingehört.

Warum wir diese Debatte jetzt führen müssen

Kinder wachsen heute in einer Welt auf, in der ihre Bilder, Stimmen und Bewegungen digital verwertbar sind. Oft bevor sie überhaupt verstehen, was das bedeutet.
Was wir heute zulassen, prägt die Standards von morgen.

Digitale Kreativität darf nicht auf Kosten von Schutz, Würde und Selbstbestimmung gehen.

Analyse der Datenschutzerklärung von CapCut – zur besseren Einschätzung mit Risikobewertung

1. Potenziell kritische oder problematische Punkte nach DSGVO / deutschem Recht

1.1 Datenverarbeitung mit sehr weitem Zweckrahmen

Die Erklärung enthält zahlreiche sehr breit formulierte Zwecke, u. a.:

  • „improve and develop the Services“

  • „train and improve our technology, such as machine learning models and algorithms“

  • „promote your content to other users“

  • „provide advertising services, including personalized advertising“

Problematisch nach Art. 5 Abs. 1 lit. b DSGVO (Zweckbindung)
Die Zwecke sind teilweise nicht hinreichend konkret, insbesondere:

  • Training von KI-/ML-Modellen auf Basis von User Content

  • Nutzung von Inhalten für Werbung und Promotion

Für EU-Nutzer müsste klarer abgegrenzt werden:

  • welche Daten konkret

  • für welches Modell

  • mit welcher Speicher- und Löschlogik
    verwendet werden.

1.2 Vorab-Upload („pre-uploading“) von Inhalten

CapCut erklärt ausdrücklich:

„we may pre-upload User Content before you save or post“

Hohes Datenschutzrisiko

  • Verarbeitung erfolgt vor einer aktiven Handlung

  • Unklar, ob dies technisch zwingend erforderlich ist

  • Für EU-Recht sehr heikel ohne explizite Einwilligung (Art. 6 Abs. 1 lit. a DSGVO)

➡ Besonders kritisch bei:

  • privaten Videos

  • Inhalten mit Kindern

  • sensiblen Umgebungen (Wohnung, Stimme, Umfeld)

1.3 Verarbeitung biometrischer Merkmale (Gesicht, Körper, Stimme)

Es wird angegeben, dass u. a. verarbeitet werden:

  • Gesichtszüge

  • Körpermerkmale

  • Sprache / gesprochener Text

  • Objekte und Szenen in Bildern/Videos

⚠️ Graubereich zu Art. 9 DSGVO (besondere Kategorien personenbezogener Daten)
Auch wenn CapCut erklärt, diese Daten nicht zur Identifikation zu nutzen, handelt es sich technisch um biometrische Merkmale.

Probleme:

  • Keine klare Einordnung als Art-9-Ausnahme

  • Keine explizite EU-Einwilligungserklärung

  • Kein separates Opt-in für diese Verarbeitung

1.4 Standortdaten

Erhebung von:

  • IP-basierter Standort

  • SIM-Region

⚠️ Unzureichende Differenzierung

  • Kein klares Opt-in

  • Zweck „personalized content“ sehr vage

  • Keine präzise Angabe zur Granularität

1.5 Werbung & Tracking

  • Personalisierte Werbung

  • Cross-Context-Advertising

  • Nutzung von Cookies und mobilen Identifikatoren

DSGVO + TTDSG-Risiko

  • Kein klarer Hinweis auf ein Consent-Management-System (CMP) für EU

  • „We will obtain your consent where required“ ist zu unkonkret

  • Keine Aufschlüsselung:

    • notwendige vs. Marketing-Cookies

    • Drittanbieter einzeln

1.6 Internationale Datenübermittlung

Datenübermittlung u. a. nach:

  • USA

  • Singapur

  • Malaysia

⚠️ EU-kritisch

  • Zwar SCCs erwähnt, aber:

    • keine Information zu Transfer Impact Assessments

    • keine Transparenz zu Zugriffsmöglichkeiten durch Drittstaaten

  • Kein Hinweis auf US-Behördenzugriffe (FISA 702 / CLOUD Act)

1.7 Minderjährige

  • Mindestalter variiert je nach Region

  • In EU: keine explizite Umsetzung von Art. 8 DSGVO

Problematisch

  • Kein klares Verfahren zur elterlichen Einwilligung

  • Keine Beschreibung technischer Schutzmaßnahmen für Kinder

  • Besonders kritisch bei:

    • Upload von Kinderbildern

    • Gesichtserkennung / Audioanalyse

2. Kritische Inhalte aus Verbraucherschutz- und Transparenzsicht

2.1 Umfangreiche Profilbildung

  • Geräteübergreifendes Tracking

  • Nutzungsverhalten

  • Vorlieben

  • Werbeinteraktionen

⚠️ Profiling
Zwar wird behauptet, es gäbe kein Profiling mit „legal effects“, aber:

  • Umfang und Tiefe der Datenerhebung sprechen faktisch für Profilbildung

  • Abgrenzung ist juristisch angreifbar

2.2 Unklare Löschfristen

  • „as long as necessary“

  • „legitimate business interest“

Nicht DSGVO-konform konkretisiert

  • Keine festen Fristen

  • Keine datentypbezogene Löschmatrix

2.3 Verantwortlichkeiten unklar

  • Datenverantwortlicher: Bytedance Pte. Ltd. (Singapur)

  • EU-Vertreter benannt, aber:

    • kein klarer Hauptansprechpartner für Deutschland

    • kein benannter Datenschutzbeauftragter (DPO) für EU insgesamt

3. Fehlende oder unzureichende Pflichtangaben nach DSGVO (Art. 13/14)

❌ Fehlende bzw. mangelhafte Punkte

  • Klare Benennung eines EU-Datenschutzbeauftragten (Art. 37 DSGVO)

  • Konkrete Löschfristen pro Datenkategorie

  • Transparente Cookie-Liste mit Anbietern

  • Explizite Einwilligungsmechanismen für:

    • KI-Training

    • biometrische Daten

    • Pre-Upload

  • Hinweis auf automatisierte Entscheidungsfindung verständlich erklärt

  • Datenschutzfolgenabschätzung (DSFA) nicht erwähnt, obwohl sehr wahrscheinlich erforderlich

  • Separate Erklärung für EU-Kinder / Eltern

  • Keine einfache, deutschsprachige Kurzfassung („Layered Privacy“) für EU

4. Gesamtbewertung (EU / Deutschland)

Juristisch formal umfangreich, aber:

  • ❗ sehr US-/Global-getrieben

  • EU-Transparenzanforderungen nur teilweise erfüllt

  • ❗ erhebliche Angriffsfläche für Abmahnungen oder Behördenprüfungen

  • ❗ besonders kritisch für:

    • Eltern

    • Kinder

    • Schulen

    • Content mit Gesichtern & Stimmen

5. Einordnung für Praxis & Nutzung in Deutschland

Für deutsche Nutzer:innen bedeutet das konkret:

  • Nutzung ist nicht per se illegal, aber

  • datenschutzrechtlich hoch problematisch

  • besonders heikel bei:

    • Kinderfotos/-videos

    • Schulprojekten

    • kommerzieller Nutzung

    • sensiblen Inhalten

Stand: 18.12.2025 / Ohne Gewähr / Gesetzesänderungen und Inhalt der Datenschutzerklärung vorbehalten

Schreibe einen Kommentar