Eventbrite

Hilfe-Center

Personalisieren und Moderieren von Inhalten auf Eventbrite

Stand: 17. Februar 2024. Eventbrites Unternehmensauftrag besteht darin, Menschen durch gemeinsame Live-Events zusammenzubringen. Wir setzen uns nach ganzen Kräften für die Schaffung eines vertrauenswürdigen Marktplatzes für Veranstalter und Nutzer ein, der sichere, integrative Erlebnisse ermöglicht. In diesem Artikel erfahren Sie mehr darüber, wie wir unseren Online-Marktplatz sicher halten und wie wir Inhalte auf unserer Plattform personalisieren und moderieren.

In diesem Artikel

  • Personalisieren von Inhalten
  • Moderieren von Inhalten
  • Erkennung von Inhaltsverstößen
  • Prüfung von Inhalten

Personalisieren von Inhalten

Damit Ihnen die relevantesten Angebote auf dem Eventbrite-Marktplatz angezeigt werden, verwenden wir die Daten, die wir über Sie haben, um die Events, die wir Ihnen anbieten, nach Priorität zu ordnen. Zu den Signalen, die wir verwenden, um Ihre Erfahrung in Bezug auf die angezeigten Eventseiten und Angebote zu personalisieren, gehören Inhalte, die Sie angesehen, angeklickt, gelikt, mit "Folgen" versehen oder gesucht haben, sowie Informationen, die Sie bereitstellen, wenn Sie an einer unserer Umfragen teilnehmen oder sich für ein Event registrieren oder Tickets kaufen. In unseren Datenschutzrichtlinien erfahren Sie mehr darüber, wie wir Ihre Daten nutzen und schützen. 

Moderieren von Inhalten

Bei der Inhaltsmoderation handelt es sich um den Prozess, bei dem eine Plattform illegale, unangemessene oder schädliche Inhalte prüft und entsprechende Gegenmaßnahmen ergreift. Unsere Community-Richtlinien bieten Transparenz darüber, wie wir die Sicherheit unserer Community gewährleisten Sie dienen auch als Leitlinie dafür, welche Arten von Inhalten gefördert werden und welche Arten von Inhalten die Integrität unserer Plattform bedrohen und nicht erlaubt sind. Um gegen die missbräuchliche Nutzung der Plattform vorzugehen, setzen wir auf eine Kombination von Tools und Prozessen, einschließlich proaktiver Erkennung durch maschinelle Lerntechnologien und regelbasierte Systeme, reaktiver Erkennung durch Meldungen aus unserer Community und menschlicher Prüfung.

Erkennung von Inhaltsverstößen

Proaktive Erkennung

Wir erkennen einen Großteil der Verstöße gegen Inhalte proaktiv anhand von zwei Hauptmethoden: (1) regelbasierte Systeme (d. h. von Hand erstellte Regeln zur Identifizierung von Inhalten, die bestimmte Kriterien erfüllen) und (2) maschinelles Lernen (d. h. ein statistischer Prozess, bei dem ein Modell darauf trainiert wird, bestimmte Arten von Mustern auf der Grundlage früherer Beispiele zu erkennen und Vorhersagen über neue Daten zu treffen). 

Regelbasierte Systeme sind wirksam, wenn es eine Reihe einfacher Kriterien gibt, die auf ein erhöhtes Risiko hindeuten. Bei maschineller Lerntechnologie kommen mehrere Signale zum Einsatz; sie ist daher eher effektiv, wenn es komplexe Muster gibt, die auf ein erhöhtes Risiko hinweisen. Beide Erkennungsstrategien werden durch Offline-Analysen validiert und auf kontinuierliche Verbesserungsmöglichkeiten hin überwacht.

Reaktive Erkennung

Zusätzlich zu den oben beschriebenen proaktiven Methoden spielt unsere Community eine wichtige Rolle, wenn es darum geht, Inhalte zu melden, die von den Mitglieder als schädlich erachtet werden; in diesem Fall können uns Betroffene entweder kontaktieren oder den Link "Dieses Event melden" unten auf der jeweiligen Eventseite anklicken. Wir sind bestrebt, schädliche Inhalte proaktiv zu entfernen, bevor sie jemand sieht; dennoch ist diese offene Kommunikation mit unserer Community ein wichtiger Bestandteil unseres Inhaltsmoderationsprogramms. 

Prüfung von Inhalten

Die Automatisierung ist für die Skalierung unseres Inhaltsmoderationsprogramms zwar von entscheidender Bedeutung, doch es gibt immer noch Bereiche, in denen eine menschliche Prüfung erforderlich ist; dies wird vermutlich auch immer so bleiben. So kann beispielsweise die Feststellung, dass eine Person Ziel von Mobbing ist, sehr individuell und kontextabhängig sein. 

Wenn unser Team Inhalte prüft, passiert Folgendes:

  • Prüfung: Unser Team prüft den Inhalt und entscheidet, ob er gegen unsere Richtlinien verstößt oder illegal ist. Je nach Einzelfall prüft unser Team nur den gemeldeten Inhalt oder das gesamte Konto. 

  • Anforderung von Informationen (falls erforderlich): Wenn das Team nicht ermitteln kann, ob der Inhalt gegen unsere Richtlinien verstößt, kann es zusätzliche Informationen von den betroffenen Parteien einholen (z. B. vom Kontoinhaber oder der Person, die den Inhalt gemeldet hat).

  • Maßnahmen: Sollte die Prüfung ergeben, dass der Inhalt gegen unsere Richtlinien verstößt, ergreift das Team entsprechende Maßnahmen; dazu gehört unter anderem die Entfernung von Inhalten aus den Suchergebnissen, die Entfernung von Inhalten von Eventseiten, die Entfernung von Eventseiten aus dem Marktplatz und/oder die Sperrung oder Schließung des entsprechenden Kontos.

  • Kommunikation: Sobald eine Entscheidung getroffen wurde, informiert das Team die betroffenen Parteien über die getroffenen Maßnahmen und deren Gründe. Betroffene Nutzer können auf diese Mitteilung antworten, um gegen die Entscheidung Einspruch zu erheben. 

Für uns hat es Priorität, schädliche Inhalte schnell und mit der geringsten Störung für unsere Community zu entfernen. Durch eine Kombination aus proaktiver und reaktiver Erkennung, die bei Bedarf durch eine menschliche Prüfung eskalierter Inhalte ergänzt wird, können wir Inhalte schnell erkennen und entsprechend reagieren.

Angesichts der aktuellen Entwicklungen in der Welt müssen wir unsere Methoden zur Inhaltsmoderation anpassen. Wir aktualisieren unser Programm ständig in Erwartung oder als Reaktion auf neue Verhaltensweisen, Trends und Gefahren, die unserer Ansicht nach die Integrität des Eventbrite-Marktplatzes bedrohen.