Ofcom, die britische Kommunikationsbehörde, hat Informationen von X, ehemals Twitter, angefordert, bezüglich Berichten, wonach dessen Grok-KI-Modell sexualisierte Bilder von Kindern generiert. Die Anfrage folgt auf wachsende Bedenken hinsichtlich des potenziellen Missbrauchs von künstlicher Intelligenz bei der Erstellung schädlicher Inhalte, insbesondere unter Beteiligung von Minderjährigen.
Die Behörde fordert Einzelheiten über die Sicherheitsvorkehrungen, die X getroffen hat, um die Erstellung und Verbreitung solcher Bilder zu verhindern, und darüber, wie das Unternehmen auf die Vorwürfe reagiert. Ofcom ist befugt, Unternehmen mit Geldstrafen zu belegen, die Nutzer nicht vor schädlichen Inhalten schützen, und diese Untersuchung signalisiert eine ernsthafte Besorgnis über die Einhaltung der britischen Online-Sicherheitsbestimmungen durch X.
Grok, der KI-Chatbot von X, ist ein großes Sprachmodell (Large Language Model, LLM), eine Art KI, die mit riesigen Mengen an Textdaten trainiert wurde. LLMs können Texte generieren, Sprachen übersetzen und Fragen beantworten, aber sie können auch dazu aufgefordert werden, Bilder mithilfe von KI-Bilderzeugungstechniken zu erstellen. Die Sorge besteht darin, dass böswillige Akteure diese Fähigkeiten ausnutzen könnten, um Material über sexuellen Kindesmissbrauch (CSAM) zu produzieren.
"Wir sind zutiefst besorgt über das Potenzial von KI, auf diese Weise missbraucht zu werden", sagte ein Sprecher von Ofcom. "Wir fordern X auf, uns Informationen über die Maßnahmen zukommen zu lassen, die sie ergreifen, um dies zu verhindern und die Sicherheit von Kindern online zu gewährleisten."
Die Entwicklung verdeutlicht die umfassenderen gesellschaftlichen Herausforderungen, die durch die sich rasant entwickelnde KI-Technologie entstehen. Während KI zahlreiche Vorteile bietet, birgt sie auch Risiken, einschließlich des Potenzials für Missbrauch bei der Erstellung und Verbreitung schädlicher Inhalte. Experten betonen die Notwendigkeit robuster Schutzmaßnahmen und ethischer Richtlinien, um diese Risiken zu mindern.
"Die Fähigkeit von KI, realistische Bilder zu erzeugen, wirft ernsthafte Bedenken hinsichtlich der Erstellung und Verbreitung von CSAM auf", sagte Dr. Joanna Bryson, Professorin für Ethik und Technologie an der Hertie School in Berlin. "Es ist von entscheidender Bedeutung, dass Unternehmen, die KI-Technologie entwickeln und einsetzen, proaktive Maßnahmen ergreifen, um ihren Missbrauch zu verhindern und Kinder zu schützen."
X hat noch keine formelle Stellungnahme zu der Anfrage von Ofcom abgegeben. Das Unternehmen hat jedoch zuvor sein Engagement für die Bekämpfung von CSAM auf seiner Plattform erklärt. Die Untersuchung ist noch nicht abgeschlossen, und Ofcom wird die Reaktion von X bewerten, um festzustellen, ob weitere Maßnahmen erforderlich sind. Der Ausgang dieser Untersuchung könnte erhebliche Auswirkungen auf die Regulierung von KI und Online-Sicherheit in Großbritannien und darüber hinaus haben.
Discussion
Join the conversation
Be the first to comment