Blog

DSA-Checkliste Teil 2: Transparenz, Minderjährige & VLOPs

Hananeh Shahteimoori 7 Min. Lesezeit
DSA-Checkliste Teil 2: Transparenz, Minderjährige & VLOPs

Im ersten Teil unseres Artikels haben wir den Digital Services Act (DSA) der Europäischen Union und seine Bedeutung für Legaltech-Plattformen vorgestellt. Wir haben die allgemeinen Pflichten beschrieben, die für alle Anbieter digitaler Dienste gelten, und dabei die Bedeutung von Transparenz, Verantwortlichkeit und Nutzerschutz betont. Zu den Kernthemen gehörten die Bestellung eines Rechtsvertreters in der EU für Nicht-EU-Unternehmen, die Einrichtung klarer Kontaktstellen für Nutzer und Behörden sowie die Sicherstellung transparenter und nutzerfreundlicher Nutzungsbedingungen.

Wir haben auch die Notwendigkeit besprochen, Nutzer über wesentliche Änderungen der Nutzungsbedingungen zu informieren und diese fair durchzusetzen, wobei Grundrechte wie die Meinungsfreiheit gewahrt werden müssen.

Aufbauend auf diesen grundlegenden Pflichten vertiefen wir nun die spezifischeren Compliance-Anforderungen des Digital Services Act (DSA), die Legaltech-Plattformen erfüllen müssen, um den neuen regulatorischen Standards vollständig zu entsprechen. Auch der EU AI Act beeinflusst die LegalTech-Compliance erheblich.

Transparenz & Plattformverantwortung

Transparenz & Plattformverantwortung unter dem Digital Services Act (DSA) zielt darauf ab, dass Anbieter digitaler Dienste offen und verantwortungsvoll handeln. Plattformen müssen klar offenlegen, wie ihre Systeme funktionieren – etwa Empfehlungsalgorithmen und Werbepraktiken – und regelmäßige Transparenzberichte über Content-Moderation und Durchsetzungsmaßnahmen veröffentlichen.

Diese Regeln sollen auch täuschendes Design (wie Dark Patterns) verhindern und sicherstellen, dass Nutzer vollständig darüber informiert sind, warum sie bestimmte Inhalte oder Werbung sehen. Das Ziel ist es, Vertrauen aufzubauen, Nutzer zu stärken und Plattformen für ihre Auswirkungen auf die digitale Gesellschaft verantwortlicher zu machen.

Transparenzberichterstattung:

Veröffentlichst du einen jährlichen Transparenzbericht über deine Content-Moderationsaktivitäten, in klarer Sprache und in einem öffentlich zugänglichen Format?

(Dieser Bericht sollte Kennzahlen wie die Anzahl der erhaltenen Entfernungsanordnungen, bearbeiteten Nutzerhinweise, entfernten Inhalte, behandelten Beschwerden und den Einsatz automatisierter Tools enthalten.

Online-Plattformen:

sollten zusätzliche Details wie die Ergebnisse von Streitigkeiten und Maßnahmen gegen Missbrauch enthalten.) (Artikel 15 DSA; Artikel 24 DSA)

Transparenz von Empfehlungssystemen:

Wenn dein Dienst automatisierte Empfehlungssysteme verwendet (z. B. um Inhalte für Nutzer zu ranken, zu kuratieren oder vorzuschlagen), erklären deine Nutzungsbedingungen in verständlicher Sprache die wichtigsten Parameter dieser Systeme und wie sie beeinflussen, was Nutzer sehen? (Artikel 27 DSA)

Werbe-Offenlegung:

Wenn dein Dienst Online-Werbung anzeigt, kennzeichnest du klar gegenüber Nutzern, dass ein Inhalt eine Werbung ist, identifizierst du die Person oder das Unternehmen, in deren Auftrag die Werbung geschaltet wird (und wer dafür bezahlt hat, falls abweichend).

Stellst du außerdem aussagekräftige Informationen über die Targeting-Kriterien bereit, die zur Anzeige dieser Werbung verwendet werden (zusammen mit einer Möglichkeit für Nutzer, diese Werbeparameter zu ändern)? (Artikel 26(1) DSA)

Nutzergenerierte Werbung:

Können Nutzer Inhalte kommerzieller Natur posten, wie bezahlte oder gesponserte Inhalte? Bietest du einen Mechanismus, damit Nutzer erklären können, dass ihr Beitrag eine Werbung ist oder kommerzielle Mitteilungen enthält? Informierst du dann andere Nutzer klar darüber, dass der Inhalt kommerziell ist? (Artikel 26(2) DSA)

Keine Dark Patterns:

Ist deine Online-Oberfläche frei von Designelementen, die Nutzer täuschen oder manipulieren? (Du verwendest beispielsweise keine Layouts oder Workflows, die Nutzer zu unbeabsichtigten Handlungen verleiten oder es unangemessen schwer machen, einen Dienst zu kündigen.) (Artikel 25 DSA)

  • Führt die Plattform detaillierte Aufzeichnungen über Content-Moderationsentscheidungen und rechtliche Compliance-Prozesse für regulatorische Prüfungen?
  • Sind diese Aufzeichnungen so strukturiert, dass sie externe regulatorische Inspektionen und interne Compliance-Überprüfungen erleichtern?
  • Stellt die Plattform sichere Speicherung und angemessene Zugriffskontrollen für diese Aufzeichnungen sicher und verhindert unbefugte Änderungen?

Schutz von Minderjährigen & E-Commerce

Schutz von Minderjährigen & E-Commerce unter dem Digital Services Act (DSA) soll die Sicherheit junger Nutzer erhöhen und Vertrauen und Verantwortlichkeit auf Online-Marktplätzen gewährleisten. Plattformen müssen besondere Schutzmaßnahmen für Minderjährige umsetzen, einschließlich klarer und altersgerechter Nutzungsbedingungen, Einschränkungen bei gezielter Werbung und verstärkter Datenschutzeinstellungen.

Für den E-Commerce müssen Online-Marktplätze die Identität von Händlern überprüfen und transparente Produktinformationen bereitstellen. Sie müssen Verbraucher auch benachrichtigen, wenn sie illegale Waren gekauft haben. Diese Regeln zielen darauf ab, schutzbedürftige Nutzer zu schützen und sicherzustellen, dass digitale Transaktionen in der EU sicher, fair und transparent sind.

Sicherheit und Privatsphäre von Minderjährigen:

Wenn Minderjährige wahrscheinlich auf deinen Dienst zugreifen, hast du angemessene Maßnahmen zu ihrem Schutz umgesetzt? Gewährleisten diese Maßnahmen ein hohes Maß an Privatsphäre, Sicherheit und Schutz für minderjährige Nutzer? Vermeidest du die Anzeige gezielter Werbung auf Basis von Profiling, wenn du weißt, dass ein Nutzer minderjährig ist?

Wenn dein Dienst auf Minderjährige ausgerichtet ist oder von ihnen genutzt wird, präsentierst du deine Nutzungsbedingungen und Richtlinien in einer für Kinder verständlichen Weise? (Artikel 28 DSA; Artikel 14(3) DSA)

Händler-Rückverfolgbarkeit:

Wenn deine Plattform es Verbrauchern ermöglicht, Waren oder Dienstleistungen von Drittanbietern zu kaufen (was dich zu einem Online-Marktplatz macht), sammelst und überprüfst du wesentliche Informationen über diese Händler, bevor sie verkaufen dürfen (einschließlich Name, Adresse, Kontaktdaten, Ausweis- oder Registrierungsnummer, Zahlungsdaten und eine Selbstzertifizierung der Legalität)?

Zeigst du den Namen und die Kontaktdaten des Händlers den Verbrauchern klar an? (Artikel 30 DSA)

Design für Produktinformationen:

Betreibst du einen Online-Marktplatz? Ermöglicht deine Oberfläche Händlern, alle erforderlichen Produkt- oder Dienstleistungsinformationen den Verbrauchern bereitzustellen? Ermöglicht sie ihnen, Kontaktdaten, Produktbeschreibungen, Verkaufsbedingungen und erforderliche Warnhinweise aufzunehmen? Zeigt deine Oberfläche die Identität des Händlers klar an, z. B. seinen Firmennamen oder sein Logo? (Artikel 31 DSA)

Information der Käufer über illegale Produkte:

Wenn du entdeckst, dass ein illegales Produkt oder eine illegale Dienstleistung über deine Plattform verkauft wurde, benachrichtigst du alle betroffenen Verbraucher? Informierst du Verbraucher, die innerhalb der letzten 6 Monate gekauft haben? Stellst du ihnen die Identität des Verkäufers bereit? Gibst du auch Informationen über verfügbare Rechtsmittel oder Schritte zur Wiedergutmachung?

(Artikel 32 DSA)

Zusätzliche Pflichten für sehr große Online-Plattformen

(Der folgende Abschnitt gilt nur, wenn dein Dienst über 45 Millionen aktive monatliche Nutzer in der EU hat und als „Sehr große Online-Plattform” unter dem DSA eingestuft ist.)

Systemisches Risikomanagement:

Hast du eine gründliche Bewertung systemischer Risiken auf deiner Plattform durchgeführt – wie die Verbreitung illegaler Inhalte, Bedrohungen für den gesellschaftlichen Diskurs oder Wahlprozesse, Risiken für die öffentliche Gesundheit oder Verletzungen von Grundrechten – und hast du angemessene Maßnahmen zur Minderung dieser identifizierten Risiken ergriffen? (Artikel 34–35 DSA)

Krisenreaktionsplan:

Hast du die Fähigkeit, besondere Maßnahmen zur Bewältigung unvorhergesehener Krisen einzusetzen, die die öffentliche Sicherheit oder Gesundheit betreffen, wenn dies durch das Krisenprotokoll der Europäischen Kommission angefordert wird? (Artikel 36 DSA)

Unabhängige Prüfung:

Unterliegst du einer unabhängigen jährlichen Prüfung der Compliance deiner Plattform mit den DSA-Anforderungen und machst du die Zusammenfassung des Prüfberichts öffentlich? (Artikel 37 DSA)

Empfehlungssystem-Wahlmöglichkeit:

Bietest du Nutzern mindestens eine Option an, dein Content-Empfehlungssystem zu nutzen, das nicht auf Profiling basiert (d. h. nicht auf der Verfolgung personenbezogener Daten)? (Artikel 38 DSA)

Werbedatenbank:

Hast du eine öffentlich zugängliche Datenbank aufgebaut, die alle auf deiner Plattform geschalteten Werbeanzeigen enthält? Enthält die Datenbank den Werbeinhalt, die Identität des Werbetreibenden und den Zahlenden? Enthält sie die Targeting-Kriterien und das Datum, an dem die Werbung angezeigt wurde? Hast du sichergestellt, dass die Datenbank keine personenbezogenen Nutzerdaten enthält? (Artikel 39 DSA)

Datenaustausch mit Behörden/Forschern:

Hast du Verfahren zum Austausch notwendiger Daten mit Koordinatoren für digitale Dienste, der Europäischen Kommission oder anerkannten akademischen Forschern auf ordnungsgemäße Anfrage, damit diese die Compliance überwachen und systemische Risiken auf deiner Plattform untersuchen können? (Artikel 40 DSA)

Compliance-Funktion:

Hast du eine Compliance-Funktion auf Managementebene eingerichtet (z. B. einen Compliance-Beauftragten oder ein Team), um die fortlaufende Einhaltung des DSA sicherzustellen? Verfügt diese Funktion über ausreichende Befugnisse und Ressourcen in deiner Organisation? (Artikel 41 DSA)

Bereit, deine rechtlichen Workflows zu automatisieren?

Entdecke, wie e! deine rechtlichen Abläufe mit No-Code-Automatisierung transformieren kann.

Verwandte Artikel