Charles Brohiri, 29, droht möglicherweise eine Haftstrafe, nachdem er sich vor dem Westminster Magistrates' Court am Donnerstag in 76 Fällen des Schwarzfahrens in Zügen von Govia Thameslink schuldig bekannt hat, was zu 36 früheren Verurteilungen hinzukommt. Die gesamten unbezahlten Fahrpreise und Gerichtskosten könnten 18.000 £ übersteigen.
Bezirksrichterin Nina Tempia wies Brohiri aus Hatfield in Hertfordshire darauf hin, dass aufgrund der schieren Anzahl der Vergehen eine Freiheitsstrafe möglich sei. Brohiri, schwarz gekleidet, antwortete laut Berichten von PA Media auf jede der 76 während der Anhörung verlesenen Anklagen mit "Schuldig".
Das Gericht hatte Brohiri zuvor in Abwesenheit in 36 separaten Anklagepunkten verurteilt. Während der Verhandlung am Donnerstag wies Richterin Tempia einen Antrag von Brohiris Anwaltsteam ab, diese früheren Verurteilungen aufzuheben. Die Verteidigung argumentierte, dass die Strafverfolgungen rechtswidrig seien, da sie nicht von einer qualifizierten Stelle eingeleitet worden seien.
Der Fall verdeutlicht die anhaltenden Herausforderungen, vor denen Bahnbetreiber bei der Bekämpfung des Schwarzfahrens stehen. Govia Thameslink Railway setzt, wie viele Transportunternehmen, eine Kombination aus manuellen Ticketkontrollen und automatisierten Systemen ein, um Schwarzfahrer aufzuspüren und abzuschrecken. Diese Systeme beinhalten oft Datenanalysen, um Muster verdächtigen Reiseverhaltens zu erkennen.
Der Aufstieg der künstlichen Intelligenz (KI) bietet potenzielle Lösungen für eine effektivere Erkennung von Schwarzfahren. KI-gestützte Videoanalysen können beispielsweise CCTV-Aufnahmen analysieren, um Personen zu identifizieren, die konsequent Ticketkontrollen vermeiden oder andere verdächtige Aktivitäten ausüben. Algorithmen des maschinellen Lernens können auch trainiert werden, um Hotspots für Schwarzfahren vorherzusagen und den Einsatz von Einnahmensicherungskräften zu optimieren.
Die Verwendung von KI in diesem Zusammenhang wirft jedoch ethische Bedenken auf. Bedenken hinsichtlich des Datenschutzes und potenzieller Verzerrungen in Algorithmen müssen ausgeräumt werden, um Fairness und Transparenz zu gewährleisten. Beispielsweise könnte die Gesichtserkennungstechnologie, obwohl sie potenziell effektiv bei der Identifizierung von Wiederholungstätern ist, bestimmte Bevölkerungsgruppen unverhältnismäßig stark beeinträchtigen.
Derzeit wartet Brohiri auf seine Verurteilung. Das Gericht wird die Schwere und Häufigkeit der Straftaten sowie etwaige mildernde Umstände berücksichtigen, bevor es die angemessene Strafe festlegt. Der Fall dient als Mahnung an die rechtlichen und finanziellen Konsequenzen des Schwarzfahrens und die zunehmende Rolle der Technologie bei der Bekämpfung dieses Problems.
Discussion
Join the conversation
Be the first to comment