Keir Starmer, der Vorsitzende der Labour Party, erklärte, dass X, früher bekannt als Twitter, "das Recht auf Selbstregulierung verlieren" könnte, wenn es die Bedenken hinsichtlich der Online-Sicherheit und der Verbreitung von Fehlinformationen nicht ausreichend berücksichtigt. Starmers Äußerungen, die er am Dienstag im Rahmen einer Rede auf einer Technologiekonferenz in London machte, erfolgen inmitten einer wachsenden Kritik an der Content-Moderationspolitik der Social-Media-Plattform seit der Übernahme durch Elon Musk.
Starmer argumentierte, dass Selbstregulierung ein Privileg und kein Recht sei, und dass Unternehmen wie X ein Engagement für den Schutz der Nutzer vor schädlichen Inhalten zeigen müssten. "Die Ära der Selbstregulierung für soziale Medien muss mit echter Verantwortung einhergehen", sagte Starmer. "Wenn sie dieser Verantwortung nicht nachkommen, muss die Option einer gesetzlichen Regulierung auf dem Tisch liegen." Er nannte insbesondere die Verbreitung von Hassreden, Desinformation und schädlichen Inhalten, die sich gegen Kinder richten, als Schlüsselbereiche, in denen Verbesserungsbedarf besteht.
Der potenzielle Verlust der Selbstregulierung hätte erhebliche Auswirkungen für X. Derzeit operiert die Plattform im Rahmen eines Selbstregulierungsmodells und hält sich an freiwillige Verhaltensregeln und branchenübliche Praktiken. Eine verstärkte staatliche Aufsicht könnte jedoch zu strengeren Regeln für die Inhaltsmoderation, potenziellen Geldstrafen bei Nichteinhaltung und einer größeren rechtlichen Haftung für die von den Nutzern veröffentlichten Inhalte führen. Dies könnte erhebliche Investitionen in Content-Moderationstechnologie und -personal erforderlich machen, was sich potenziell auf die Rentabilität des Unternehmens auswirken könnte.
Das aktuelle Content-Moderationssystem von X stützt sich auf eine Kombination aus automatisierten Tools und menschlichen Prüfern, um Inhalte zu identifizieren und zu entfernen, die gegen die Richtlinien verstoßen. Die Richtlinien der Plattform verbieten unter anderem Hassreden, Aufstachelung zur Gewalt und die Verbreitung von Fehlinformationen. Kritiker argumentieren jedoch, dass die Durchsetzung dieser Richtlinien durch X inkonsistent und unzureichend ist, insbesondere seit Musks Übernahme, die zu erheblichen Personalabbau in den Trust- und Sicherheitsteams führte.
Musk hat sich öffentlich zu seiner Verpflichtung zur freien Meinungsäußerung bekannt, auch wenn dies bedeutet, dass er einige Inhalte zulässt, die andere als beleidigend empfinden. Er hat auch Konten wiederhergestellt, die zuvor wegen Verstößen gegen die Richtlinien der Plattform gesperrt worden waren, was Bedenken hinsichtlich der potenziellen Verbreitung schädlicher Inhalte aufwirft.
Die Debatte über die Content-Moderationsrichtlinien von X kommt zu einem Zeitpunkt, an dem Regierungen auf der ganzen Welt damit ringen, wie sie Social-Media-Plattformen regulieren sollen. Das Gesetz über digitale Dienste (DSA) der Europäischen Union beispielsweise legt Online-Plattformen strenge neue Regeln auf, darunter die Verpflichtung, illegale Inhalte schnell zu entfernen und transparenter über ihre Praktiken zur Inhaltsmoderation zu sein. Auch das Vereinigte Königreich erwägt neue Gesetze zur Regulierung von Online-Schäden.
X hat sich noch nicht offiziell zu Starmers Äußerungen geäußert. Das Unternehmen hat jedoch zuvor erklärt, dass es sich verpflichtet, seinen Nutzern eine sichere Plattform zu bieten. Das Unternehmen wird in den kommenden Monaten wahrscheinlich zunehmendem Druck von Aufsichtsbehörden und politischen Entscheidungsträgern ausgesetzt sein, um Bedenken hinsichtlich der Online-Sicherheit und der Verbreitung von Fehlinformationen auszuräumen. Die Zukunft des Regulierungsstatus von X wird wahrscheinlich davon abhängen, ob das Unternehmen ein echtes Engagement für den Schutz seiner Nutzer vor schädlichen Inhalten nachweisen kann.
Discussion
Join the conversation
Be the first to comment