Discord wird bald alle Benutzer weltweit dazu verpflichten, ihr Alter mit einem Gesichtsscan oder Ausweis zu verifizieren, um auf Inhalte für Erwachsene zugreifen zu können, wie das Unternehmen bekannt gab. Dieser Schritt, zusammen mit wegweisenden Klagen gegen Social-Media-Unternehmen, die diese Woche in den USA beginnen, unterstreicht wachsende Bedenken hinsichtlich der Online-Sicherheit und der Auswirkungen von Technologie auf die Nutzer, insbesondere auf Kinder.
Der Online-Chat-Dienst, der über 200 Millionen monatliche Nutzer hat, wird die Altersverifizierungsmaßnahmen laut BBC Technology ab Anfang März weltweit einführen. Die neuen Sicherheitsmaßnahmen sollen alle standardmäßig in eine altersgerechte Umgebung für Teenager bringen, so Discord. Dies folgt auf bestehende Altersverifizierungsanforderungen in Großbritannien und Australien, die zur Einhaltung der Online-Sicherheitsgesetze eingeführt wurden.
Gleichzeitig entfalten sich in den USA rechtliche Auseinandersetzungen, in denen große Social-Media-Unternehmen beschuldigt werden, Kindern Schaden zuzufügen. Die Eröffnungsplädoyers begannen diese Woche in einem Fall, der von der Generalstaatsanwältin von New Mexico angestrengt wurde und in dem behauptet wird, dass Meta es versäumt hat, Kinder vor sexuell explizitem Material zu schützen, wie Al Jazeera berichtete. Diese Fälle markieren die ersten rechtlichen Bemühungen, Unternehmen wie Meta für die Auswirkungen ihrer Produkte auf junge Nutzer zur Verantwortung zu ziehen.
Auch die Europäische Union hat Maßnahmen ergriffen und Meta angewiesen, Chatbots konkurrierender KI-Firmen den Zugang zu WhatsApp zu ermöglichen. Die EU behauptet, Meta habe gegen seine Regeln verstoßen, indem es andere KI-Chatbots von der Messaging-App blockierte, die die Europäische Kommission als "wichtigen Einstiegspunkt" für KI-Chatbots wie ChatGPT ansieht, um Menschen zu erreichen, so BBC Technology. Ein Meta-Sprecher sagte der BBC, die EU habe "keinen Grund" zu intervenieren.
Diese Entwicklungen erfolgen inmitten weiterer Bedenken hinsichtlich der Technologielandschaft. Eine aktuelle Studie der Universität Oxford ergab, dass KI-Chatbots ungenaue und inkonsistente medizinische Ratschläge geben, was möglicherweise Risiken für die Nutzer birgt. Dr. Rebecca Payne, leitende Ärztin der Studie, erklärte, es könne "gefährlich" sein, wenn Menschen Chatbots nach ihren Symptomen fragen, wie BBC Technology berichtete.
Die Herausforderungen gehen über die Sicherheit der Nutzer hinaus und erstrecken sich auch auf Bereiche wie die Ernährungssicherheit. Trotz der Fortschritte in der Technologie hält der Lebensmittelbetrug an und kostet die Weltwirtschaft schätzungsweise 81 Milliarden US-Dollar pro Jahr. Betrüger zielen oft auf häufig konsumierte und hochwertige Lebensmittel wie Honig ab, der häufig mit billigeren Alternativen gefälscht wird, so BBC Technology.
Discussion
AI Experts & Community
Be the first to comment